踩了油門也能剎車,華爲ADS 3.2內測,遙遙領先這次實現了?
一天時間,中國汽車都沉浸在“世界第一”裡。小米SU7(參數丨圖片) Ultra,用真刀真槍的6分46秒874,拿下了紐北最速四門車,成爲了世界第一;小鵬汽車,說自己從智駕到企業風格,都和馬斯克的特斯拉一樣,當然,也有人選擇不說話。今年10月25日,華爲智能汽車解決方案不動聲色的發佈了ADS Pro V3.1版本,甚至在次日還迅速開啓了V3.2 beat的內測體驗,從之前的ADS 3.0智駕效果看,其實就已經非常接近脫手自動駕駛了,而新版本在這基礎上,又優化了對細節的感知能力,也新增了不少更類人的決策,總之,整體的功能框架在完成車位到車位這類操作上更加流暢了,參考其他品牌的智駕節點,下個月會有理想500萬CLIPS的6.4新模型,小鵬純視覺5.4、小米新版NOA、智己大規模推開的momenta等等,爲什麼說華爲ADS Pro V3.2更值得大家期待呢?
先來回顧一下華爲乾崑智駕ADS V3.0的功能效果,在拿掉BEV網絡之後,負責感知的GOD網絡和負責預測決判的PDP網絡,在激光雷達、4D毫米波雷達這類感知硬件的配合下,可以全天候對道路細節做到感知,比如會看紅綠燈、會過閘機、啓動場景不受限制,遇到鬼探頭不會突然一腳剎停,在複雜路口或者交錯環島的通行率也有一定的保證,但做了出於安全冗餘考慮,系統在這類場景多數還是會主動降級到LCC,而在最新的版本中,ADS Pro V3.1和V3.2 beat都優化了這類細節,接管率和執行決策都做到了更低、更類人,除了這些,新版本還在哪些方面有明顯提升?
從實測體驗結果來看,ADS Pro V3.1和V3.2 beat優化了幾處功能,包括NCA路口通行,低風險降低脫手警告頻次、學習代客泊車路線,導航試圖分頻顯示、雷達遮擋提醒、識別井蓋等。這其中,脫手警告不再時不時就突然彈出來,而是系統在判定當下智駕場景風險不高的時候,會一直處於靜默狀態,從某種意義上講,這個功能的出現幾乎說明華爲已經無限接近到了L3,下一步要做的就是接着優化在高風險場景下的決策能力,像在擁堵加塞、人車混行的複雜路口,整套系統的處理機制不再顯得呆板,而是伺機加塞或選擇繞行,這個執行效果就非常擬人,甚至是在窄路會車或者U型掉頭時,系統還會根據與周圍障礙物的距離,選擇多打半圈方向盤,增大轉彎半徑避免發生剮蹭。
比較有意思的是新增的幾個功能,具體是NCA靠邊臨停,路面自適應防碰撞,橫穿防碰撞避讓、誤踩加速踏板識別以及誤掛擋防碰撞,在之前的版本之中,當導航即將到達目的地時(尤其是非停車場場景),系統會跳出界面提示必須由人工接管泊車,這次的優化就是解決了最後這部分的人類駕駛員操作,直接讓車輛自主靠邊停車,而在“防碰撞”的幾個功能當中,基本都是GOD網絡調動AEB發揮了作用,比如當感知硬件發現路面附着力不高的時候,系統會提前觸發AEB,隨時進行重剎,之前一直有提到的預判鬼探頭,更多的其實是針對靜止障礙物所完成的判斷,比如雙向主幹道突然躥出的行人或電瓶車,在察覺到道路危險後已經停止了運動軌跡,優化之後預判的底層邏輯不變,變的是可以在道內或借道緊急避障,當然了,華爲也給這項功能做了安全冗餘,只有在低速加塞場景之下,才能觸發橫穿/斜穿防碰撞。
誤踩踏板防碰撞有必要單獨拿出來聊。前幾年,車主對新能源汽車的單踏板模式爭議許久,大部分車主認爲有類似制動效果的加速踏板,在慌亂中難以分辨自己是否已經採取制動,所以普遍會誤踩踏板發生剮蹭,現在看這個問題其實很好解決,在端到端的智駕模式下,可以給大模型訓練特定場景,或者直接給它規則,當傳感器識別到已經觸及碰撞危險距離時,直接調動AEB進行制動,所以即便是駕駛員依然踩着加速踏板,車輛也能剎停,不論是走純視覺路線還是多傳感器路線的智駕方案,這個功能其實都是可以實現的。
值得一提的是,華爲在10月25日發佈ADS Pro V3.1,次日就推送了V3.2 beat內測,這似乎說明V3.1版本還不夠“完美”,從3.1版本的多個實測體驗來看,比起內測版本最明顯的區別,是後者智駕過程花費的時間更少,同時接管率也更低,也就是說,內測版在細節處理上的決策機制,明顯要顯得更聰明一些,比如在最考驗博弈能力的環島或複雜路口,在沒有自動降級的情況下,同樣是面對移動障礙物,3.1版本在考慮選擇禮讓還是借到繞行的時間,都要比內測版本慢上幾秒,所以建議後期直接升級到V3.2正式版。
前面提到,誤踩踏板防碰撞兩大智駕方案都可以實現,但要是拆開來講,有激光雷達安全冗餘度肯定更高一些,畢竟,這種處理方案需要對環境進行實時掃圖然後交給大模型去理解,不過在複雜路口環境下,可能會導致系統需要更多的處理時間和算力,這就引出新的思考了,對於沒有激光雷達的純視覺方案,把算力堆上去是不是也能更好的解決?
答案自然是肯定的,算力儲備高就意味着大模型在單位時間內,處理數據的速度可以更快,這也是促進AI學習和訓練的基礎,雖然激光雷達確實會佔用一部分算力,把感知數據輸送給智心也需要時間,但是這個缺點可以通過優化預判決策網絡給彌補掉,引出幾個數據作爲參考,智己momenta雲端算力只有2.5 E FLOPS,理想汽車爲4.5E FLOPS,華爲乾崑智駕目前有5E FLOPS,小鵬明年會從2.51E FLOPS拓展到10E FLOPS,而特斯拉則高達35E FLOPS,換句話說,激光雷達的出現,其實是不需要太高雲端算力的,而純視覺方案正好反了過來,可能有人不理解了,高算力是不是就等於智駕能力強呢?
並不是,算力只是指芯片每秒能夠執行的運算次數,而算法纔是自動駕駛的核心,特斯拉FSD就是一個典型的端到端算法,今年轉向AI鷹眼的小鵬也是類似的邏輯,都是需要用足夠的實測視頻訓練神經網絡,感知層面的數據來源僅僅是靠攝像頭來完成,而前兩天智己發佈的momenta,底層邏輯雖然也是如出一轍,但是感知元件多了一顆激光雷達,所以這就可以很好理解了,純視覺智駕方案需要大量的算力,也需要不斷進化的大模型算法,優點是系統的駕駛行爲可以學習人類駕駛員的習慣,計算任務相對精簡,級聯誤差減少之後,數據驅動更容易發揮規模法則,缺點也就很直接了,就是需要堆更高的算力儲備和強化算法。
相比之下,現階段華爲的GOD+PDP方案,其實優勢要更多一些,就拿最容易出現降級的複雜路口來說,從GOD+AEB的分段式架構變成GOD一張大網,直接就省掉了原來數據傳遞過程中需要的時間和算力,甚至是路徑的博弈,而BEV網絡存在之前,系統是需要將整個場景對上障礙物的座標,然後還要對每個障礙物單獨去做運動軌跡分析和預判,這些都需要計算的成本和時間,若是在數據分析量龐大的複雜環島,BEV網絡就會出現數據分析過慢、輸送延遲,直到過載導致降級轉爲人工接管,所以去掉BEV融入GOD網絡,可以不再單給運動障礙物分析座標,直接預測它的軌跡路徑就可以了,通俗一點來講,道理其實和分段式架構併成一張大網是一樣的,而實現這些的前提,都是需要大網具備複雜路況的數據理解能力和處理能力。
再有就是感知硬件上的能力了,4D毫米波雷達通過回波可以對小體積的異性障礙物構成立體模型,華爲自己的192線激光雷達也是用更多的激光線束對道路細節實時掃圖,都是給GOD大網提供數據更加精確的原始數據模型,所以從某種程度上講,取消BEV網絡也是給高精雷達傳感器的性能來回“鬆綁”,具體到效果層面上看,最多兩把就能泊入車位的自主泊車功能就是最好的例子。
總結一下,從2021年發佈ADS 1.0,到2023年引入GOD網絡概念,再到2024年形成由GOD+PDP構成的一張大網解決所有功能,華爲的這套乾崑智駕方案,其實在3.0版本的時代就基本摸到了L3級自動駕駛的門檻了,所以在這套系統之後,華爲只需要再優化一些處理機制上的細節,提升一些決策執行的速度,能和數據積累量極其龐大的特斯拉FSD抗衡,不出意外的話其實現在就只有華爲了。