出品 | 搜狐汽車·汽車咖啡館
作者 | 楊璐
“基于觸控的交互方式不一定適合車”。
5月中旬,理想汽車在硅谷召開一次分享會,智能空間副總裁勾曉菲談到對智能座艙的思考。他認為,座艙服務的核心點是它的交互形式。
現在的智能座艙的交互主要是觸控為主,語音為輔。按照理想汽車勾曉菲的說法,智能座艙的更好的交互方式會是語音為主,觸控為輔。
這種需求變化主因是觸摸控制的受限性。觸控基于前排屏幕,而駕駛員又只能觸到中控位置,同時占用手、眼會導致駕駛分心,但當前的語音控制水平還不足以承擔起“第一交互通道”的重任。
在業內人士以及消費者看來,當前所謂的“智能座艙”大多帶了幾分敷衍,比如語音交互不流暢、查找功能不便捷,“智能化”反而成了“低智商”。
讓智能座艙從“能用”到“好用”,提升交互能力是根本。今年,在一些公司的新品發布中,屢次提到交互系統提升,百度Apollo明確提出,文心大模型將讓智艙在語音交互方面響應更快、駕乘感受更好。
座艙的“堆料”瓶頸有待突破
如今,只要坐上一輛新能源汽車,超大中控屏幕、智能語音對話等功能已經不足為奇,只不過按照車型級別和配置高低,這些功能的體驗感有好有差。
為了追求座艙差異化,主機廠只好拼功能數量,諸如屏幕跟隨音樂旋轉跳動、巨幕觀影、座艙音樂廳等等,疊加看似酷炫、實則在駕乘中并不觸及智能核心的功能。
智能駕駛解決方案研發商MINIEYE的智能座艙負責人楊一泓表示,現在的智能座艙帶來一個問題是:消費者學習成本變高。
“智能手機對很多老年人是不太友好的,汽車也如此。如果某些智能化功能太過復雜,那么駕乘人員可能使用頻率就會降低,反而荒廢了這些功能。所以智能座艙的交互設計,我認為不能“炫技”,而是從實際功能性出發,真的讓消費者用起來,并且喜歡用?!睏钜汇f道。
車企也認識到這類問題,梧桐車聯(長安汽車與騰訊合資公司)戰略管理高級總監崔睿哲認為,智能座艙某種程度上正經歷“堆配置、堆功能”的階段,公司在做一些“減法”。
6月份,中科創達智能汽車副總裁陳嘯在2023江淮汽車智能網聯與線控底盤論壇上,發表了對智能座艙進程趨勢的觀點:從用戶使用功能的頻率和所采用的技術成熟度上看,劃分為四個象限,第四象限中的使用頻率更高、技術更成熟的應用是智能座艙真正需要的功能。
圖源:中科創達
第四象限中場景功能包括AR/VR、玻璃窗/天窗成像、情緒識別等。與現在的多屏聯動、硬屏觸摸相做對比,主要是交互方式的變化,從物理觸摸變成虛擬控制,即通過語音、眼睛、手勢等。
所以當Apple Vision Pro問世,MR(混合現實)上車再被熱議。事實上,小部分車企已經做了相關嘗試,像蔚來的AR眼鏡,奧迪的車載VR體驗系統……只不過離完美的交互狀態還差很遠。
智能座艙交互需要一場蛻變。
搶奪多模交互市場 拐點何時到來?
“實體屏幕依然會存在,但我有一個判斷,未來實體屏幕和觸控將不再是座艙交互的中心,取而代之的是自然交互(語音、手勢、眼球跟蹤)+AR-HUD”,地平線生態發展與戰略規劃副總裁李星宇在去年就提出過此觀點。
觸摸控制需要占用駕駛員手和眼的使用資源,會對使用駕駛模式的人產生駕駛的安全隱患。所以,未來的交互模式必然是多“感官”融合。今年來看,感官融合領域進展情況如何呢?
語音交互:如前文所言,語音交互能力提升將對座艙交互生態發展起核心作用。當前,已經有量產車型可以實現語音連續對話、免喚醒詞等功能,不過在語音識別和語義理解方面還有很大的提升空間。
在多模態融合趨勢下,強化語音也離不開視覺、手勢的參與??拼笥嶏w提出在語音識別方面,通過深度降噪技術使其在高噪場景下識別率超92%;并且車內注視感知采用視線交互技術及DMS,該技術于去年底在星途瑤光車型上落地量產;行為感知支持10多種手勢交互。
多模多通道語音分離技術讓汽車聽得更清楚,比如唇形+聲音融合,讓系統的感知更準確。
手勢交互:汽車上的手勢交互效仿手機,“對著鏡頭比個耶,自動拍張照片……”,起初,一些“無用”的功能搬上汽車,現在手勢交互得到了更廣的融合應用。目前在理想等品牌車型上,語音與手勢交互已在多處使用。比如用手指向窗戶、同時說“把它打開”,系統便能會意執行。
手勢在交互中的地位如同人際交流中的肢體語言,在人機交互更深層面少不了手勢的加入。Apple Vision Pro已經闡明了這一點,它就是靠追蹤人的眼神和手勢來完成任務操作。
視覺交互:眼神交流在今后的座艙內會成為一大流行趨勢。當前眼球跟蹤系統已經應用于安全檢測方面,包括DMS(駕駛員監控系統)和OMS(車內人員監控系統)。
此外,AR-HUD也為視覺增加安全性,以防駕駛員看屏幕而將視線離開路面,但AR-HUD的顯示信息又不能遮擋實際道路信息,所以就如何平衡人眼觀感提出更多考驗。
人體感官與機器的自然交互是實現智能座艙的終極形態,其中“多模態融合”已是不可逾越的環節。
進展至此,多模態融合最大的挑戰有哪些?搜狐汽車對業內專家進行了詢問,經綜合整理,其挑戰集中在幾個方面:
第一,算力要求更高。不僅是CPU算力,GPU和NPU都要求更高的算力,所以需要對座艙SoC有足夠深的了解才能很好的運用這些算力。不過,隨著多模態融合的產品價值被車企關注到,將會分配更多算力用于多模態融合落地,且座艙SOC的算力也在不斷提升。
第二,硬件設備需求大。智能座艙將為滿足艙內全員的不同需求,需要更多攝像頭、麥克風、屏幕、音響等,如何協調這些設備將成為智能座艙的挑戰。
但當前攝像頭配比率仍是偏低的,無法做到所有車型的一致性體驗,只能在部分高配車型上部署,制約了多模態融合的發展。隨著C-NCAP法規的推進,預計2025年會實施DMS上車標準,屆時DMS配比會大幅提升,助力多模態融合發展。
第三,集成復雜度提升。不管是單從智能座艙來說,還是艙駕融合,信息交互的復雜度大大提高。例如在人機共駕階段,如何通過高效的HMI(人機界面)讓用戶在自主駕駛和自動駕駛間安全切換?
在產業鏈企業看來,技術演進要有更多的上車訓練。MINIEYE表示,情緒識別等技術領域,其實對于研發商來說已經有了一定積累,但如何把技術轉化為功能和產品,并且讓消費者買單,更多是主機廠的考量。
科大訊飛也認為,隨著應用越來越廣泛,主機廠和供應商共同協作,多模態交互才會逐步成熟。
均聯智行中國區 CTO朱魁 表示,2015年至今,座艙進入第一個智能階段——「智能互聯駕艙」;現階段到 2025 年左右為「智能共情座艙」階段,將實現多模態交互和 AI 主動交互,可以滿足駕乘全員的在線娛樂和個性化服務。
圖源:均聯智行
小結
自2015年互聯網進入汽車,智能座艙的演進維度愈加廣闊。僅交互系統就涉及語音、視覺、手勢等,此外還有芯片、域控制器、傳感器等硬件設備。
華安證券報告稱,智能座艙將擁有千億細分市場。在座艙光學領域,預計2025 年全球艙內攝像頭核心部件CIS 芯片市場規模達2.2 億美元,預計2025 年全球乘用車HUD 市場空間達47.3 億美元;座艙聲學領域,預計2025 年全球車載功放市場規模達46.6 億美元。
當自動駕駛風潮漸弱、落地艱難的時刻,智能座艙產業再次升溫,智能座艙領域細分賽道的寶藏有待挖掘。