在過去的一年多里,我們能夠看到越來越多的車企開始在座艙領域發力,在車端部署 AI 大模型。Mind GPT、NOMI GPT 以及文心一言的上車,讓我們看到了正處于發展瓶頸期的智能座艙迎來了突破。
在這背后,高算力座艙芯片的需求逐漸被放大。高性能芯片,成為了決勝 AI 座艙時代的基石。
最近,汽車產業的老玩家聯發科發布了三款智能座艙 SoC,宣告將推動汽車產業進入「 AI 定義座艙」的時代。
這三款產品分別是 CT-X1、CT-Y1 和 CT-Y0,其中 CT-X1 基于 3 nm 制程工藝打造,CT-Y1 和 CT-Y0 基于 4 nm 制程工藝打造,三款產品均支持先進的端側生成式 AI 技術。
業務張力看布局
這其中有幾點非常重要,一是在消費電子領域的長期積累;二是持續深耕智能汽車領域,在智能座艙、車聯網、關鍵組件等市場達成千萬級出貨量;三是篤定艙駕融合的發展趨勢,選擇與 AI 芯片市場的絕對王者英偉達進行合作。
首先,聯發科是消費電子領域芯片產業的龍頭供應商,根據研究機構 Counterpoint 統計,2023 年第四季度聯發科占據智能手機 SoC 市場 36% 的出貨量份額,連續三年多保持第一。常年以來,聯發科在智能手機 SoC 領域都保持著強勢地位。
在智能汽車領域,聯發科也并非是「旁觀者」的身份。聯發科技資深副總經理、運算聯通元宇宙事業群總經理游人杰表示:「天璣汽車平臺在市場中保持持續增長的勢頭,其中天璣汽車座艙平臺全球市場出貨量已超 2,000 萬套,天璣汽車聯接平臺更獲得全球頭部汽車制造商采用,天璣汽車衛星導航系統和電源管理芯片等關鍵組件的出貨量和市場份額持續增長,天璣汽車駕駛平臺的進度也十分順利」。
AutoLab認為,以上幾點都給他們研發更加先進的座艙 SoC 積累了車用級前裝經驗。
聯發科技資深副總經理、運算聯通元宇宙事業群總經理 游人杰
旗艦車芯看制程
我們再來看看聯發科剛剛發布的三款產品,具體的參數和性能如何。
天璣汽車座艙平臺CT-X1、CT-Y1 和 CT-Y0,這三款產品定位將覆蓋從旗艦(CT-X1)到高端(CT-Y1、CT-Y0)車型,以滿足不同級別車型的算力需求。
CT-X1 采用 3nm 制程,CT-Y1 和 CT-Y0 采用 4nm 制程。作為對比,高通目前的旗艦芯片驍龍 8295 采用的是 5nm 工藝制程。
雖然CT-X1 沒有具體跑分數據,但是次旗艦芯片 CT-Y1 座艙 SoC 在安兔兔車機版上的實測跑分超過了 107 萬,戰平驍龍 8295。采用 3nm 制程的 CT-X1 性能比驍龍8295強30%,從架構來看這還是一個非常保守的數字,AI算力則比高通驍龍 8295強4-5倍,非??鋸垺?/p>
CT-X1 支持 130 億參數的 Al 大語言模型,可在車內運行多種主流的大語言模型(LLMs)和 Al 繪圖功能(Stable Diffusion),支持基于 3D 圖形界面的車載語音助手、豐富的多屏互動與顯示技術,駕駛警覺性監測等先進的 Al 安全和娛樂應用。
也就是說,目前行業流行的大模型應用,例如 AI 繪圖功能、多屏聯動、多模態交互等功能,這款芯片都能滿足。
CT-Y1 和 CT-Y0 采用 4nm 制程,在性能層面略微弱于旗艦芯片 CT-X1,但是同樣支持先進的端側生成式 AI 技術。CT-Y1 和CT-Y0支持 70 億參數的 AI 大語言模型。
并且天璣汽車座艙平臺整合了 Armv9 架構,內建的 AI 計算單元和端側生成式 AI 輕量化技術,可以在滿足 AI 運算精度的同時,更高效地利用內存帶寬與內存容量。
同時它們都能夠支持大語言模型、以一塊芯片帶動多個屏幕、具備很強的多媒體和音頻處理能力,并且能夠支持車外360度環視、行車記錄和座艙內監測看護等功能,更好地服務于道路交通安全。
總結來說,這三款產品的性能放在市場里都非常能打,任何一款產品都支持 AI 時代的座艙強需求,并且橫跨的范圍包括了人機交互、駕乘體驗、娛樂和辦公需求等等,甚至可以說這就是為 AI 時代打造的 SoC。
AI 體驗看算力
過往我們所說的智能座艙,往往指的是能夠實現用戶具體指令的智能,在此基礎上滿足用戶影音等舒適性需求。但是在 AI 定義座艙的時代,「智能」的維度將會被拉到前所未有的高度。
首先,大模型的上車會在人機交互與社交、辦公等應用場景帶來全新的體驗。
現在的人機交互方式,大多數局限于語音的交互,理想等車型具備手勢、動作等多模態的交互體驗。還有部分車型會通過車內 DMS 攝像頭捕捉駕駛員動作,從而做出對應的策略。例如當駕駛員手指豎放在嘴巴上時,系統會自動關閉全車音響。
在 AI 算力激增的 AI 座艙時代,交互的方式將會變得更加豐富,除了上述的語音、手勢、動作等交互,車內的傳感器甚至會無時無刻地感知車內人員的狀態,甚至包含了情緒。
還有一個較為冷門的應用,當我們在車上開會時,AI 大模型能夠自動幫我們進行會議紀要的記錄;出游時,車載應用能夠自動剪輯車內外影像片段。
實現這些場景的背后,需要的是 AI 性能強勁的芯片,并且能夠支持 70 億參數以上的 Al 大模型。
第二大體驗提升是駕乘體驗和娛樂應用的需求。
一塊屏幕往往承載不了行車和娛樂的需求,所以我們也能看到現在的廠家會在車里塞更多的屏幕,并且它們各司其職。但是過往的芯片往往帶動不了這么多屏幕,所以車企會在域控里塞至少 2 顆芯片。
未來的趨勢一定是「一芯多屏」,即靠一顆芯片帶動多塊屏幕,且滿足不同的需求。例如副駕和后排屏幕完成個性化的視聽推薦、AIGC 畫圖、互動式游戲等功能。行車屏幕端則生成為駕駛員提供的信息,例如餐廳等場所和導航的結合以及其他駕駛信息等等。
我所舉的例子只是一部分的應用,端側大模型的上車能夠給用戶帶來的體驗革新是各方面的。大模型上車,用戶感知最強的應該就是全時在線大模型車用助手,你的車用助手將從執行指令變為能夠預測需求的助手,同時懂百科、能記事。多模態的交互、感知和大模型決策/推薦也讓娛樂的豐富性得到大幅提升。
前段時間,一家車企在發布會上秀了大模型艙外感知能力,駕駛員只需要問車用助手前方的車輛,系統就能自動感知、識別。
這就是多模態艙內外感知,系統不僅能夠通過麥克風、攝像頭、方向盤傳感器了解車內人員狀態,也能夠打通車外的 ADAS 攝像頭、環視攝像頭,為駕駛員提供周邊場景/標識的識別和靜態下的監護能力,也就是我們常說的哨兵模式。
高性能的芯片,為車內外全場景的全時交互帶來全面的體驗革新。
強強聯手看未來
以上我們介紹的是聯發科座艙 SoC 能夠給 OEM 與用戶帶來的智能座艙體驗。
但是目前大家公認的行業趨勢是艙駕一體,聯發科的對手高通在智駕領域推出了多款 Ride 芯片,同時也有 Flex 這樣的艙駕融合芯片。
對于艙駕融合的發展路徑,聯發科表示認同,并且選擇與行業頂級玩家英偉達合作。
聯發科于去年5月正式宣布與英偉達達成合作,雙方的合作內容是共同為新一代智能汽車提供解決方案,聯發科將開發集成 英偉達 GPU 芯粒(chiplet)的汽車 SoC,搭載英偉達 AI 和圖形計算 IP。
同時聯發科的智能座艙解決方案將運行英偉達 DRIVE OS、DRIVE IX、CUDA 和 TensorRT 軟件技術,提供圖形計算、人工智能、功能安全和信息安全等 AI 智能座艙功能。對于行業來說,這項合作有望加速艙駕融合時代的到來。
在今年的 3 月 19 日英偉達 GTC 大會上,聯發科宣布推出一系列結合 AI 技術的天璣汽車座艙系統單芯片(SoC):CX-1、CY-1、CM-1、CV-1。這四款產品皆支持英偉達 DRIVE OS 軟件,可覆蓋從豪華(CX-1)到入門級(CV-1)的細分市場,將優質的 AI 座艙體驗帶入新一代智能汽車中。
這項合作對聯發科來說意義非凡,對于為什么選擇與英偉達合作,游人杰也總結了幾點考慮:
首先,艙駕融合的長遠趨勢也是聯發科與英偉達合作的一個重要的基本思考;其次,過去聯發科的成功是在整個產品線的低、中、高端整體的布局,希望通過與英偉達合作,展現在不同產品級別里有競爭力的產品;還有一點極其重要的是,從硬件 SoC,到整個軟件,再到整個生態,英偉達是整個 AI 生態圈的龍頭廠商,所以聯發科也希望借由這個合作,加速聯發科在生成式 AI 這個浪潮的元年,能夠加速布局和發展。
寫在最后
高通在智能座艙 SoC 領域確實有先發優勢,占據著很大的市場份額。
但是現如今 AI 座艙還處于較為早期的階段,目前在車端部署大模型的車企并不多,同時提供的應用也較為有限,與科幻電影里無時無刻不在提供服務的智能助手更是相差甚遠。
中汽協數據顯示,2023 年全年我國乘用車產銷量分別達到 2612.4 萬輛和 2606.3 萬輛,但是真正在車端體驗到 AI 座艙的用戶屈指可數,大多數用戶的車輛甚至沒有裝配一套好用的語音交互。
所以,這是一個發展空間還很大的市場,這時候你還會覺得聯發科的產品來晚了嗎?
汽車機器人化是一場馬拉松,我們期待看到聯發科這樣的頭部供應商拿出最頂級的產品,去支持這些馬拉松選手,為用戶帶來更智能化的體驗。
來源:第一電動網
作者:AutoLab
本文地址:http://m.155ck.com/news/shichang/229170
以上內容轉載自AutoLab,目的在于傳播更多信息,如有侵僅請聯系admin#d1ev.com(#替換成@)刪除,轉載內容并不代表第一電動網(m.155ck.com)立場。
文中圖片源自互聯網,如有侵權請聯系admin#d1ev.com(#替換成@)刪除。