你的位置:首頁 > 互連技術(shù) > 正文

自動(dòng)駕駛,不說技術(shù),說決策邏輯

發(fā)布時(shí)間:2023-01-13 責(zé)任編輯:秋天

提到智能車,大家都不會(huì)陌生,智能車是一個(gè)集環(huán)境感知、規(guī)劃決策、多等級輔助駕駛等功能于一體的綜合系統(tǒng),它集中運(yùn)用了計(jì)算機(jī)、現(xiàn)代傳感、信息融合、通訊、人工智能及自動(dòng)控制等技術(shù),是典型的高新技術(shù)綜合體,自動(dòng)駕駛便與之有著異曲同工之妙。自動(dòng)駕駛的核心技術(shù),有的人認(rèn)為是感知、有的人認(rèn)為是決策,有的人認(rèn)為是非技術(shù)的東西,比如能否持續(xù)賺到錢、能否做好前瞻性的管理工作等等。本期文

章就知乎上的幾位答主的觀點(diǎn),來看自動(dòng)駕駛技術(shù)的核心。



1673579528691620.jpg


小鵬、特斯拉、蔚來“聰穎“不一


在對Model 3、小鵬P7、蔚來ES6的自動(dòng)駕駛功能進(jìn)行測試時(shí),其中一項(xiàng)是對雪糕筒的識(shí)別和反饋卻截然不同:

小鵬:直接沖過去。

特斯拉:變道躲避。

蔚來:提示駕駛員接管車輛,自動(dòng)剎車,同時(shí)打開雙閃。


1673579603376360.jpg

1673579620112920.jpg

1673579641675988.jpg


當(dāng)時(shí)測試的車輛速度是40-50km/h,理論上來說,以三臺(tái)車當(dāng)前的硬件能力,不可能識(shí)別不到前方樁桶,最終不同的表現(xiàn)其實(shí)代表的就是三臺(tái)車不同的決策邏輯,來聽下三臺(tái)車的內(nèi)心獨(dú)白:


小鵬P7:前方有樁桶?這是施工路段吶,理論上這屬于駕駛員自己接管的范圍,主動(dòng)介入有可能造成危險(xiǎn),萬一出了事責(zé)任也很難劃分清楚吧?算了,還是維持當(dāng)前操作!

特斯拉:前方有障礙物?哈哈,大顯身手的機(jī)會(huì)來了!看我的,變道避障!

蔚來:前方有障礙物?可能有危險(xiǎn)吧?不行不行,趕緊剎車降速,同步告知駕駛員和周圍車輛,小心!有危險(xiǎn)??!


自動(dòng)駕駛技術(shù)的核心還是決策


自動(dòng)駕駛技術(shù)的核心實(shí)際上還是決策。過去幾年由于視覺感知的不穩(wěn)定,自動(dòng)駕駛的發(fā)展受到了極大的制約,因此很多人都認(rèn)為環(huán)境感知才是自動(dòng)駕駛技術(shù)的核心。但隨著環(huán)境感知的硬件越來越好,底層控制系統(tǒng)越來越精準(zhǔn),智能決策的重要性越來越關(guān)鍵。


如果自動(dòng)駕駛類比人開車,那么感知就類似于人的眼耳,獲取汽車周邊的環(huán)境信息,而手腳則是偏執(zhí)行層的控制。那么自動(dòng)駕駛的核心就應(yīng)該更偏向腦部的功能——決策。


1673579745389069.jpg


過去往往都在吐槽Mobileye的攝像頭或者哪家的雷達(dá)不行(眼神不太好),譬如車道線無法準(zhǔn)確識(shí)別,靜止車輛在遠(yuǎn)距離識(shí)別不到,這個(gè)目標(biāo)又丟了,然后再加一堆的邏輯去解決這些參數(shù)異常跳動(dòng)或者目標(biāo)無法準(zhǔn)確識(shí)別、丟失等問題。除此之外還需對執(zhí)行層進(jìn)行調(diào)試,譬如這個(gè)EPS死區(qū)有點(diǎn)大,這個(gè)車輛制動(dòng)響應(yīng)不太好(可以理解為手腳不太好使)。但隨著供應(yīng)商以及自研技術(shù)的提升,這樣的場景越來越少了,無車道線場景也可以給出安全行駛的邊界了,大家也有更多的精力去打磨決策相關(guān)的內(nèi)容了,在學(xué)會(huì)走路的基礎(chǔ)之上,研究如何的跑的更快,跑的更優(yōu)雅了。


決策邏輯評價(jià)體系攸關(guān)重要


能不能

比如,想識(shí)別所有的障礙物,但是你能枚舉出所有的障礙物來測試嗎?大千世界,無奇不有,顯然是不能枚舉完的。所以,那些沒測過的障礙物,風(fēng)險(xiǎn)怎么評估呢?你敢在產(chǎn)品放行文件上簽字嗎?


仿真能大大提高測試的覆蓋度,那么仿真和實(shí)際的偏差,怎么評估呢?仿真能識(shí)別了,實(shí)際就能嗎?


1673579854437128.jpg


簡單來說就是幾個(gè)問題,第一,你知道你能識(shí)別什么,但是你知道你不能識(shí)別什么嘛?第二,如果你知道不能識(shí)別,那你能及時(shí)報(bào)警讓駕駛員接管嗎?第三,如果沒接管,你能及時(shí)執(zhí)行最小風(fēng)險(xiǎn)策略嗎?這些需要一套體系來管理和評價(jià)。


SOTIF能解決不少問題,但是SOTIF,有幾個(gè)公司能完全用起來呢。更別說SOTIF解決不了的問題了。


可不可靠

之前是一些模糊邊界的問題。那么對于已經(jīng)定義清楚的功能,怎么保證可靠性呢?


功能安全里有個(gè)安全目標(biāo)的概念,簡單說就是對于影響安全的事件(比如制動(dòng)失效),有一套體系來保證相關(guān)的功能是可靠的。這里就引出了最常用的提高可靠性的方法---冗余。


冗余在傳統(tǒng)的車輛上很常見,比如扭矩計(jì)算,比如制動(dòng)執(zhí)行機(jī)構(gòu)的冗余。但是對于自動(dòng)駕駛的一些問題,比如基于AI的感知,目前還不好做。


1673579923294648.jpg


因此,沒法直接套用功能安全的體系,來保證已經(jīng)定義并實(shí)施的功能,是‘可靠’的。那怎么辦呢?可以結(jié)合數(shù)據(jù)閉環(huán)來debug。但有個(gè)問題是,數(shù)據(jù)閉環(huán)是滯后的。就算用測試車,測試車的數(shù)據(jù)在數(shù)量和test case的覆蓋度是比較局限的。OK,所以還要結(jié)合仿真,所以老問題又來了,仿真測試能過,路測就可以嗎?偏差怎么評估呢?


這就是一系列如何評價(jià)可靠性的問題。不是對自動(dòng)駕駛悲觀,只是覺得要正視問題,避免盲目自信。也許以后有更好的體系來支撐自動(dòng)駕駛的開發(fā),但是歸納起來一句話---都需要時(shí)間。但是不希望有車企用激進(jìn)的方式,像特斯拉那樣用消費(fèi)者來做測試,加速這個(gè)進(jìn)步。


特別推薦
技術(shù)文章更多>>
技術(shù)白皮書下載更多>>
熱門搜索
?

關(guān)閉

?

關(guān)閉