中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
萬字解讀深度學(xué)習(xí)算法在自動駕駛規(guī)控中的應(yīng)用

進入文章正題之前,我們需要先簡單講清楚本文中所提到的“規(guī)控”究竟是什么。

相信凡是自動駕駛行業(yè)的人,一定都知道感知、定位、決策、規(guī)劃、控制這幾大模塊——盡管大家日常溝通時如此區(qū)分,但具體工作中如果還這么分類就有點問題了。

這里的問題出在決策上,廣義地說,決策包含預(yù)測,而預(yù)測的劃分非常尷——預(yù)測本身與感知高度相關(guān),但預(yù)測又是決策的前置階段,只有先預(yù)測之后才能進行決策。

所有已經(jīng)發(fā)生的既定事實我們可以稱之為T0+,感知就是已經(jīng)發(fā)生過的既定事實。例如車輛未來應(yīng)該怎么走、別人可能會怎么等都屬于未來將要發(fā)生的事情,我們可以稱之為T0-。

以T0為分水嶺劃分會有一個好處:感知環(huán)節(jié)只需關(guān)心路面上已經(jīng)發(fā)生的既定事實即可,此后基于這個既定事實的任何推斷都可以直接放到?jīng)Q策部分。

如此分類可以將預(yù)測的結(jié)果與決策部分更加緊密地結(jié)合,從而人為“弱化”預(yù)測與感知的關(guān)系,“增強”預(yù)測與決策的關(guān)系。反映到實際工作中,這么劃分就可以更好地確定到底該預(yù)測哪些內(nèi)容、如何更好地用預(yù)測的結(jié)果服務(wù)于決策。(以上內(nèi)容是筆者在跟領(lǐng)駿科技CEO楊文利博士交流后總結(jié)的)

基于以上邏輯,自動駕駛公司內(nèi)部通常都會有一個PNC組,PNC組的主要任務(wù)就是負責(zé)規(guī)控方面的工作。大家在PNC組干時間長了就會把預(yù)測、決策、規(guī)劃、控制統(tǒng)一稱呼為“規(guī)控”。

那么此“規(guī)控”,即為本文中所稱的“規(guī)控”。

接下來,我們再將“數(shù)據(jù)驅(qū)動”與“規(guī)控”結(jié)合起來講。

盡管“數(shù)據(jù)驅(qū)動”早成為自動駕駛產(chǎn)業(yè)的基本共識,但事實上,直到現(xiàn)在,數(shù)據(jù)驅(qū)動的深度學(xué)習(xí)算法仍主要應(yīng)用在感知模塊,而在規(guī)控中應(yīng)用的卻很少——目前,行業(yè)內(nèi)的規(guī)控相關(guān)算法主要還是基于規(guī)則驅(qū)動。

雖然目前公開的自動駕駛規(guī)控算法相關(guān)資料大都是針對基于規(guī)則的算法的,但筆者打開招聘軟件卻經(jīng)常能看到自動駕駛企業(yè)招聘規(guī)控算法工程師時會要求候選人懂深度學(xué)習(xí)算法,這在某種程度上也說明了目前很多企業(yè)也正在向混合決策算法“進軍”。

圖片來源于某自動駕駛公司的招聘要求

目前還鮮有文章完整細致地闡述過深度學(xué)習(xí)算法在自動駕駛規(guī)控中的應(yīng)用情況。因此,本文將從規(guī)則的局限性與深度學(xué)習(xí)算法的潛在優(yōu)勢、為什么現(xiàn)階段深度學(xué)習(xí)算法尚不能被大規(guī)模應(yīng)用于規(guī)控算法、未來的規(guī)控算法以規(guī)則為主還是以深度學(xué)習(xí)為主這三個方面來詳述。

規(guī)則的局限性與深度學(xué)習(xí)算法的潛在優(yōu)勢

1.基于規(guī)則的算法有局限性

目前,規(guī)控相關(guān)算法主要還是基于規(guī)則,但隨著自動駕駛等級的提升及應(yīng)用場景的不斷拓展,基于規(guī)則的規(guī)控算法在實際測試中就會暴露出它的局限性。

使基于規(guī)則的規(guī)控算法暴露出短板的,主要是非確定性場景、強交互場景、強主觀場景這三個大類的corner case:

(1)非確定性場景

非確定性場景是相對于確定性場景而言的,最簡單的確定性場景就是紅燈停綠燈行、可以在白色虛線變道、不能在白色實線變道,除此類的場景則都可視為“非確定性場景”。

例如,大部分情況下車都在有車道線的道路開,但有一種情況是當前的道路是三條干道加一條輔路,而輔路與干道間只有車道線沒有綠化帶,這也就意味著輔路的車輛在任何情況下都有可能并線進入主路,這就是一個典型的非確定性場景。因為大多數(shù)司機根本不會管實線虛線,你根本不知道周邊什么時候會突然出現(xiàn)一輛車,它有多大的概率會直接變道。

因為道路中其他車輛的軌跡帶有概率,基于規(guī)則的算法很難處理。

(2)強交互場景

最典型的場景就是十字路口,多個物體在一個場景下的路線會發(fā)生交互而互相影響,所以交互的時候是有一定博弈在里面。

在非常復(fù)雜的一個道路場景里,不斷地對周圍車做預(yù)測,然后基于交互的結(jié)果去調(diào)規(guī)劃,這不是能夠用人的規(guī)則描述清楚的。

(3)強主觀場景

簡單說就是在不同路況下,人會無意識地根據(jù)環(huán)境去調(diào)節(jié)自車跟前車的距離。因為人腦中可能有一套規(guī)則在驅(qū)動,但這些規(guī)則又很抽象、不能明確,只可意會不可言傳的,例如變道的時機、在路口對其他車輛的反應(yīng)等等。

有的場景下,雖然可以用規(guī)則算法來模仿車主的一些行為和駕駛風(fēng)格,但人的主觀習(xí)慣很難用規(guī)則解決,即使能解決也需要大量的人力。

用基于規(guī)則的算法應(yīng)對corner case,最難的是預(yù)測環(huán)節(jié)。因為,除了要預(yù)測自車軌跡外,自動駕駛車輛還需要預(yù)測“其他道路使用者”的軌跡,而道路中往往不只有一個“其他道路使用者”,他們彼此間會產(chǎn)生交互,所以預(yù)測他們的軌跡很難。

人類駕駛員在做預(yù)測時會通過觀察車的歷史軌跡、駕駛員的駕駛風(fēng)格,根據(jù)“經(jīng)驗”和“直覺”來做決策,即可以根據(jù)其他車輛是否保守來選擇自車的策略,然而,基于規(guī)則的算法很難達到和人類類似的預(yù)測效果。

此外,當車輛遇到一些corner case需要制動時,基于規(guī)則的規(guī)控系統(tǒng)很難保證曲線時刻平滑。

舉個例子,如果前方有輛車正以很低的速度行駛,此時自動駕駛系統(tǒng)下達“向右變道超車”的指令,但剛變道至一半時突然旁邊有一輛車正在向右側(cè)車道飛速超車,決策系統(tǒng)隨即取消變道決策,并重新生成一條平滑曲線讓車輛返回原來的車道中。

這里的難點在于,如何平衡好舒適性、安全、效率、動力模型的可實現(xiàn)性等元素,并保證此時生成的軌跡規(guī)劃路徑是光滑的?

依舊以上文為例,如果無法保證此時生成的路徑是平滑的,那么車輛開起來會很“硬”,行駛途中會變得很不舒適。如果駕駛員/乘客此時能看到周圍出現(xiàn)緊急情況,而系統(tǒng)及時幫他避免了事故,他就會認為系統(tǒng)很靠譜,哪怕是急剎車乘客也會認為自動駕駛系統(tǒng)“幫我避免了一次事故”。

但現(xiàn)實情況卻是,多數(shù)情況下,系統(tǒng)早就發(fā)現(xiàn)了問題并做出了決策,直接“防患于未然”。可問題在于,大多數(shù)駕駛員/乘客不會知道一次“看起來很普通”的變道在剛剛“差點釀成事故”,甚至可能都沒發(fā)現(xiàn)后方有來車。所以,如果此時規(guī)控系統(tǒng)無法生成一條光滑的曲線,駕駛員/乘客不會非但不會認為系統(tǒng)“幫我避免了一次事故”,反而會怪系統(tǒng)“太生硬”,變道“甩來甩去”的。

這類問題雖然也可以用基于規(guī)則的算法解決,但解決的過程卻非常麻煩。

除此之外,盡管從理論上講,有一些長尾場景也可以用基于規(guī)則的算法來解決,但在實際工作中,工程師很難保證這些復(fù)雜的代碼在解決問題的同時還能不占用太多計算資源。這些代碼放在離線系統(tǒng)上可以很輕松地跑起來,但上車后,車載芯片是否能支撐起這么龐大的算力消耗?解決這些問題非??简灩こ處煹拇a水平和工程能力。

而且,可能有的工程師寫了幾千行代碼,他自己都忘記自己寫過什么了。規(guī)則越來越多、邏輯越來越亂,當“未來”某個時刻又新加了一個需求的時候,系統(tǒng)也將會變得難以維護。

2.深度學(xué)習(xí)算法可以在合適的場景提升系統(tǒng)的擬人性

上文說了很多規(guī)則算法的局限性,但實際上規(guī)則算法的局限性不止于此。如果把所有問題綜合來看,我們可以統(tǒng)稱為規(guī)則算法的“擬人性低”。

所謂擬人性,就是系統(tǒng)在行駛過程中像不像一個“老司機”。毫末智行的一位規(guī)控算法專家說:“擬人化老司機的核心能力是隨機應(yīng)變,而用基于規(guī)則的系統(tǒng)就得設(shè)定一大堆規(guī)則來區(qū)分場景,設(shè)定大量的環(huán)境參數(shù)和代價函數(shù),不停地尋找最優(yōu)解,從數(shù)學(xué)上很難做到實時。”

目前,能夠上路測試的自動駕駛車輛在多數(shù)情況下更像一個“新手司機”,而“老司機”與“新手司機”最大的差別是:“老司機”的預(yù)測能力更強,并且對長尾場景隨機應(yīng)變的能力更強。

兩相比較,多數(shù)“新手司機”雖然也很安全,但“新手司機”在路上開車會很“傻”,而“老司機”則可以在保證安全的前提下各種操作都會更加順滑、效率更高。這個差別叫做“假釋經(jīng)驗”。

本質(zhì)上,“新手司機”在路上更多依靠的是“基于駕校的教材”,決策規(guī)劃方式更像if else(規(guī)則算法),而“老司機”決策時依靠的是經(jīng)驗和主觀判斷,決策規(guī)劃的方式相對抽象,更像是“深度學(xué)習(xí)算法”。

綜上,在規(guī)控環(huán)節(jié)引入深度學(xué)習(xí)算法,盡可能多地學(xué)習(xí)人類司機的經(jīng)驗,自動提煉特征找規(guī)律,就可以提升規(guī)控算法的“擬人性”。

特斯拉在本屆 AI Day 上提到的數(shù)據(jù)引擎,就是將通過將數(shù)據(jù)輸入到神經(jīng)網(wǎng)絡(luò),提高確定性,以更好地去解決現(xiàn)實世界的預(yù)測問題。

輕舟智航規(guī)控算法負責(zé)人認為,預(yù)測(判斷其他車輛的未來軌跡)是最適合也是率先大規(guī)模應(yīng)用深度學(xué)習(xí)算法的環(huán)節(jié)。他說:“輕舟智航的預(yù)測算法就使用了深度學(xué)習(xí)?!?/span>

具體到場景方面,他認為,那些高度依賴人的主觀判斷的場景,更需要用深度學(xué)習(xí)算法做指導(dǎo)。

“比如可以用傳統(tǒng)分類AI模型(可以是深度學(xué)習(xí),也可以是傳統(tǒng)的機器學(xué)習(xí)分類模型)來做decision making,用深度學(xué)習(xí)做軌跡生成來指導(dǎo)path planning,用端到端強化學(xué)習(xí)給出當前應(yīng)該執(zhí)行的action來指導(dǎo)motion planning(最終軌跡的規(guī)劃)?!?nbsp;

這位專家還認為,結(jié)構(gòu)化的高速場景可能更容易由傳統(tǒng)算法解決,而非結(jié)構(gòu)化的城區(qū)場景則可能有更大空間發(fā)揮AI模型的優(yōu)勢。

而摯途則是高速匝道口場景的決策環(huán)節(jié)用到了強化學(xué)習(xí)算法。

領(lǐng)駿科技CEO楊文利博士認為,在自動駕駛的不同模塊上,深度學(xué)習(xí)算法的重要性及適用性不完全相同。

“從感知-融合-預(yù)測-決策-規(guī)劃-控制,這個流程來看,越靠前的部分,深度學(xué)習(xí)算法的效果越好?!?/span>

楊文利博士說:“感知系統(tǒng)數(shù)據(jù)處理量大,但允許出錯,對準確率和召回率有一定容忍度(因為后續(xù)的融合和決策可以對感知糾錯),所以,深度學(xué)習(xí)方法比較合適。

“決策這部分,規(guī)則和學(xué)習(xí)各有所長,所以我們用的混合架構(gòu),用深度學(xué)習(xí)方法提升性能,用規(guī)則方法保證安全。

“控制系統(tǒng)數(shù)據(jù)量小,對可靠性要求強,絕對不允許出錯,而使用深度學(xué)習(xí)算法非但不能提升性能,還有可能引入不確定性和不可靠因素,因此不適合采用深度學(xué)習(xí)算法。并且,控制這種底層技術(shù),已經(jīng)有200年歷史了,數(shù)學(xué)證明上很完美了,也沒必要再用深度學(xué)習(xí)?!?/span>

況且,在規(guī)劃算法出錯的情況下,控制算法還需要為安全兜底。在經(jīng)典控制算法的PID中,控制層為了保證安全,就可以拒絕執(zhí)行規(guī)劃層發(fā)出的“錯誤指令”。例如,規(guī)劃下達指令讓車輛開到120公里/小時,但車輛本身的硬件并不能支持120公里/小時的車速,這個時候,控制算法就可以做一個校驗,直接拒絕執(zhí)行指令,保證車輛能正常行駛,不會開翻。

而控制算法要想為一切失誤兜底,就必須要用基于規(guī)則的算法來保證可靠性。

據(jù)此看,通常在提到“深度學(xué)習(xí)算法應(yīng)用于規(guī)控”時,大家所說的“規(guī)控”,其實主要指預(yù)測、決策和規(guī)劃,而不包括控制。

除去解決實際技術(shù)難題外,深度學(xué)習(xí)算法還有一個不可忽視的巨大優(yōu)勢,即充分利用GPU或神經(jīng)網(wǎng)絡(luò)專用處理器,降低CPU算力消耗。

為了實現(xiàn)某些功能,自動駕駛發(fā)展初期使用的復(fù)雜規(guī)則代碼會消耗大量CPU算力,但車載芯片的設(shè)計一般傾向于提高深度學(xué)習(xí)算力,而CPU部分的算力有限,工程師必須想方設(shè)法節(jié)省。而通過深度學(xué)習(xí)算法替換大量復(fù)雜的基于規(guī)則的算法,便可以節(jié)省不少CPU算力。

輕舟智航規(guī)控算法專家認為,城區(qū)NOA量產(chǎn)車上一般使用嵌入式芯片,CPU都是基于ARM架構(gòu),CPU算力資源沒法跟基于X86架構(gòu)的L4 Demo車比,因此,如果要實現(xiàn)接近于L4的駕乘體驗,供應(yīng)商們有必要嘗試在規(guī)控環(huán)節(jié)引入深度學(xué)習(xí)算法,把計算負載放到深度學(xué)習(xí)專用處理器上去。

現(xiàn)階段,深度學(xué)習(xí)算法還不能大規(guī)模應(yīng)用于規(guī)控算法

既然深度學(xué)習(xí)算法聽上去這么“?!保菫槭裁磳嵺`中的規(guī)控算法仍以規(guī)則為主,而不是深度學(xué)習(xí)算法呢?

這是因為,深度學(xué)習(xí)算法同樣有不少短板,正是這些短板導(dǎo)致,在短期內(nèi),深度學(xué)習(xí)算法的效果還不如規(guī)則。

1.很難斷定人類司機的駕駛行為是否“值得學(xué)習(xí)”

在理想的情況下,用于訓(xùn)練的數(shù)據(jù)越多,深度學(xué)習(xí)算法的效果就越好,但在某些情況下,隨著數(shù)據(jù)量的增加,算法的效果卻可能下降。這是為何?

深度學(xué)習(xí)算法首先要學(xué)習(xí)大量人類司機的駕駛行為,然后才有可能被應(yīng)用于規(guī)控算法,但問題在于,不同司機的駕駛風(fēng)格不一樣,同一個司機在不同情況下的駕駛風(fēng)格也不完全一致,那如何確保人類司機的駕駛行為就是值得學(xué)習(xí)的良好數(shù)據(jù)?

比如說在路口里面的一些變道行為,我們在正常行駛的時候不能壓實線變道,但經(jīng)常很多司機特別喜歡壓實線去變。 

小馬智行的規(guī)控算法專家說:“人類司機駕駛也有很多壞習(xí)慣,如果只是盲目追求擬人性而忽視了安全、舒適和高效這三個自動駕駛系統(tǒng)的主要優(yōu)化目標,那就本末倒置了。實際上,即便用AI模型來彌補傳統(tǒng)算法方面的不足,也應(yīng)該是圍繞著這3個維度來改進的?!?/span>

因此,在許多情況下,只有預(yù)先對數(shù)據(jù)做個“清洗”,深度學(xué)習(xí)算法的效果才會好。然而,大規(guī)模的即時數(shù)據(jù)清洗,效率和質(zhì)量如何保證?這是個問題。

針對這一問題,有一些公司的做法是,人為地去設(shè)定一些規(guī)則,評價司機開得好還是不好,然后把看起來不好都得過濾掉,但這便是用規(guī)則來“約束”深度學(xué)習(xí)了;并且,這種做法過于簡單粗暴,有可能是“倒洗澡水的時候連孩子一起倒掉”,把一些有用的駕駛行為數(shù)據(jù)給誤刪。

2.深度學(xué)習(xí)算法比規(guī)則更難應(yīng)對需求變更

某家自動駕駛企業(yè)的算法規(guī)定,在路上行駛時與前車的安全距離應(yīng)不小于五米。某一天,產(chǎn)品經(jīng)理提出了一個新需求:在路上正常行駛時與前車的安全距離從不小于五米更改到不小于十米。

這種情況就會暴露深度學(xué)習(xí)算法的一個問題:工程師如果想根據(jù)需求更改模型,則需要對模型重新訓(xùn)練,成本很高。但如果用的是基于規(guī)則的算法,此時就非常簡單,幾行代碼即可解決問題。

并且,如果出現(xiàn)事故,深度學(xué)習(xí)算法很難像規(guī)則算法那樣在最短的時間里快速排查出問題究竟出在哪兒。

3.深度學(xué)習(xí)算法的效果可能不如規(guī)則

輕舟智航規(guī)控算法專家說:如果在各項數(shù)據(jù)基礎(chǔ)設(shè)施不完善的情況下就引入AI模型,AI模型的表現(xiàn)很難達到預(yù)期。

比如,通過簡單的測試標定就可以確定的ACC跟車距離,通過AI模型卻可能很難達到相同效果。其主要原因是,許多公司的數(shù)據(jù)基礎(chǔ)設(shè)施不完善,沒有辦法找到不同跟車場景下的多樣的數(shù)據(jù),導(dǎo)致很難訓(xùn)練出一個達到或者超過規(guī)則表現(xiàn)的模型。

毫末智行的規(guī)控算法專家也說:“現(xiàn)在AI模型效果還沒有完全打敗規(guī)則,試圖擬人但效果還不夠好,因為這類認知網(wǎng)絡(luò)的模型架構(gòu)、輸入輸出定義、,數(shù)據(jù)準備都還沒有完全做好,并沒有達到感知模型的程度,大家還在探索(但我覺得一年之內(nèi)就會有重大突破)?!?/span>

4.深度學(xué)習(xí)算法仍需要規(guī)則來兜底

在車輛上路行駛的過程中,決策算法出錯其實是無法徹底避免的。因為哪怕是人在開車,再厲害的老司機也不可能保證自己的決策永遠完全正確,基于深度學(xué)習(xí)模型的決策算法也一樣。

因此,在系統(tǒng)設(shè)計時,開發(fā)者們應(yīng)當考慮到“決策算法會出錯”這一可能性,并做好“接受”決策出錯這一潛在事實的“心理準備”。

對此,領(lǐng)駿科技采用了混合決策架構(gòu),該公司CEO楊文利博士的說法是“深度學(xué)習(xí)算法由于善于學(xué)習(xí)人類的駕駛經(jīng)驗,因此主要用于提升性能,而由程序員設(shè)計的規(guī)則已進行過充分測試論證的,用來保證安全,擁有更高的優(yōu)先級?!?/span>

再往下層看,規(guī)劃層也能拒絕來自決策的“錯誤指令”。例如,輸入的障礙物速度及尺寸應(yīng)該在某一個范圍之內(nèi)(比如不能出現(xiàn)時速100m/s如同“起飛”的小轎車);再比如,決策層給出指令“向左換道”,但此時左邊都是車,因為此時變道則空間規(guī)劃無完全解,此時,規(guī)劃就可以直接“拒絕執(zhí)行指令”。

這里提到的拒絕來自上一環(huán)的“錯誤指令”的規(guī)劃算法,只能是基于規(guī)則的。

根據(jù)以上,我們可以看到,在那些可以使用深度學(xué)習(xí)算法的場景中,扮演“兜底”角色的規(guī)則依舊是必不可少的。

5.引入深度學(xué)習(xí)算法,意味著大量代碼需要被替換

還有一個非常考驗自動駕駛公司的問題:如果要用混合式規(guī)控算法,就必然面臨大量代碼需要被替換的問題,而這么做又必然需要“堆人”。

輕舟規(guī)控算法專家說,傳統(tǒng)基于規(guī)則的系統(tǒng)在設(shè)計的時候沒有考慮加入與深度學(xué)習(xí)相關(guān)接口,而且代碼庫經(jīng)過多年發(fā)展已經(jīng)相對固化,為引入深度學(xué)習(xí)而對代碼進行重構(gòu)成本很高,

“但輕舟智航在2019年開始構(gòu)建決策規(guī)劃算法棧時就考慮到了AI的廣泛使用,并在各個接口層面都事先考慮到了模型引入后的情況,針對性地做了架構(gòu)調(diào)整”。

據(jù)一位曾在某頭部Robotaxi公司擔(dān)任規(guī)控算法負責(zé)人的資深專家說,在規(guī)控中引入深度學(xué)習(xí)后,代碼重寫的工作量非常大,因為涉及在線、離線、仿真等多個系統(tǒng)的改造。

筆者曾經(jīng)在互聯(lián)網(wǎng)行業(yè)多次聽過用戶抱怨,為什么某某軟件的程序員面對臃腫的系統(tǒng)一直選擇打補丁而不是重構(gòu)。這個例子在某種程度上與用混合式規(guī)控算法替代基于規(guī)則的規(guī)控算法時所面臨的問題相同——重構(gòu)的效益很低。

你重寫了,系統(tǒng)運行水平的改進是有限的,但你卻要為此付出巨大的成本,這種“吃力不一定討好”的事情對任何一家企業(yè)都是“無法承受之重”。這一顧慮也讓自動駕駛公司對混合式規(guī)控算法內(nèi)心產(chǎn)生“只想遠觀,不愿褻玩”的心理。

事實上,筆者在跟多家自動駕駛公司的規(guī)控算法負責(zé)人/工程師交流后發(fā)現(xiàn),不同于2014—2015年深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)被應(yīng)用于感知時的“場面”,目前,大家普遍對深度學(xué)習(xí)算法在規(guī)控環(huán)節(jié)的應(yīng)用“不著急”。

可以說,大家更多地還是以一種“可有可無”的心態(tài)來開展預(yù)研和實際應(yīng)用。

更具體一點說,自動駕駛公司知道在采用規(guī)則+深度學(xué)習(xí)算法的“混合式規(guī)控算法”是未來,但目前能用到混合式規(guī)控算法的場景也不多,那干脆招幾個人“讓他們自己慢慢預(yù)研去”。

所以,現(xiàn)階段,多數(shù)自動駕駛公司對混合式規(guī)控算法的態(tài)度是:只在應(yīng)對匝道、十字路口等極少數(shù)場景時采用混合式規(guī)控算法;而過去用基于規(guī)則的算法已經(jīng)解決的corner case,只要沒發(fā)現(xiàn)“令人無法容忍”的問題就“不動”。

還有規(guī)控算法專家很直白地說,具體用不用混合式規(guī)控算法還得看需求,這是個工程性的問題。

根據(jù)以上邏輯,目前自動駕駛公司對混合式規(guī)控算法的態(tài)度是“可有可無”,而未來混合式規(guī)控算法的應(yīng)用范圍也需要“打一個問號”。

規(guī)則為主or 深度學(xué)習(xí)算法為主?

我們接著上一節(jié)的邏輯繼續(xù)探討。

有不少專家都認為,無論深度學(xué)習(xí)算法、混合框架發(fā)展的多么成熟,規(guī)控算法永遠是規(guī)則代碼占多數(shù),深度學(xué)習(xí)算法僅扮演輔助角色。

他們給出的關(guān)鍵理由是:深度學(xué)習(xí)算法具有“不可解釋性”的特點,用深度學(xué)習(xí)算法去做預(yù)測和決策,遵循的是概率,而不是嚴格意義上的因果關(guān)系,因此,讓它去承擔(dān)規(guī)控的“第一責(zé)任人”,難免讓人“不放心”。

如領(lǐng)駿科技CEO楊文利博士說:“深度學(xué)習(xí)是黑箱,人理解的'場景’和深度學(xué)習(xí)理解的'場景’可能不一樣。之前有個diss人工智能的例子,在圖像上改幾個像素,人工智能就認錯了;在交通標記上貼幾個黑膠布,特斯拉就認不出來了。除非是像素級的'一致’,否則人們認為的'同一場景’,在深度學(xué)習(xí)看來,極有可能是'不同場景’。

“深度學(xué)習(xí)算法是基于輸入輸出的擬合,從輸入輸出特性上可以獲得更好的擬人性,但其實它很難理解駕駛的內(nèi)部邏輯關(guān)系?!搬槍τ蒙疃葘W(xué)習(xí)算法做決策出錯的可能性,我們采用了混合決策架構(gòu)?!?/span>

某商用車無人駕駛公司CTO和某造車新勢力規(guī)控算法專家也持類似觀點。

在9月底的一場技術(shù)交流活動上,地平線CTO黃暢博士也談到了這個問題,但黃暢認為,在混合式規(guī)控算法中,深度學(xué)習(xí)將是主流,而規(guī)則僅作為“必要的輔助”——以免出現(xiàn)明顯的、在語義上都可以解釋的錯誤。”  

黃暢解釋說,根據(jù)他的經(jīng)驗,對于一個已經(jīng)雕琢了很多年、調(diào)得很好的一套基于規(guī)則的系統(tǒng),僅在某一個局部模塊引入深度學(xué)習(xí),改善是非常有限的,甚至沒有改善?!耙驗槠渌哪K還是基于規(guī)則去設(shè)計,在這種大框架下,你用深度學(xué)習(xí)算法替換一個模塊,那其他模塊跟這邊個新模塊適配的成本很高。整個驗證的周期很長,長到你沒有耐心去完成?!?/span>

某Robotaxi公司規(guī)控算法負責(zé)人和輕舟規(guī)控算法專家同樣認為,未來的規(guī)控算法是以深度學(xué)習(xí)為主,規(guī)則為輔。

輕舟規(guī)控算法專家說,在輕舟智航,目前在預(yù)測環(huán)節(jié),深度學(xué)習(xí)算法相關(guān)運算(包括前處理,模型推理和后處理)占整體模塊運行時間的比例已接近95%,在決策和規(guī)劃環(huán)節(jié),深度學(xué)習(xí)算法運算占比也已達到了30%左右。

“不太容易量化,但總的算下來,在規(guī)控算法中,深度學(xué)習(xí)算法占比應(yīng)該有50%-60%。”

他認為,最終,規(guī)控算法80%-90%的運算時間會花在深度學(xué)習(xí)算法上。并且,不同于楊文利博士在前面提到的“底層控制算法中沒必要用到AI”,他認為,控制算法是以規(guī)則為主,但也可以使用深度學(xué)習(xí)模型優(yōu)化控制的參數(shù),增加算法的適應(yīng)性。

他指出:“如果說之前產(chǎn)業(yè)里對'AI為主’還是'規(guī)則為主’存在爭議,是可以理解的,但特斯拉最近一次AI DAY上公布出的信息已經(jīng)顯示,特斯拉大量使用深度學(xué)習(xí)的規(guī)控算法表現(xiàn)非常亮眼,這從側(cè)面反映了馬斯克的'第一性原理’在某種意義上也可以適用于基于深度學(xué)習(xí)的規(guī)控算法:如果人類的大腦作為一個復(fù)雜的神經(jīng)網(wǎng)絡(luò),能夠通過大量的經(jīng)驗學(xué)會駕駛,那規(guī)控算法也可以利用深度學(xué)習(xí)去獲得更好的性能和表現(xiàn)?!?/span>

深度學(xué)習(xí)算法存在一個很大的爭議即它的“不可解釋性”,那么,如果某個場景從“未知”變成“已知”了,我們是否需要再在算法里面加一個規(guī)則把它“確定下來”?

對筆者的這一問題,某Robotaxi公司規(guī)控算法專家認為,通過規(guī)則將AI對場景辯識的不確定性確定化,“具有可行性”;但黃暢和輕舟規(guī)控算法專家則認為“不可行”“也沒必要”。

黃暢說:“我們不能強求這個系統(tǒng)一定要'可解釋’——因為,所謂'可解釋’就是拿規(guī)則去約束它,甚至完全依賴規(guī)則,像專家系統(tǒng)一樣,結(jié)果就是,在A城市跑得很溜的系統(tǒng),到B城市去跑時還需要大量的工程師做調(diào)試才行;并且,它會讓那些復(fù)雜的、無法用人為規(guī)則描述的corner case'無解’了?!?/span>

可見,強求系統(tǒng)一定要“可解釋”,這就又回到了本文第一節(jié)所提到的“規(guī)則的局限性”上了。

黃暢認為,在將深度學(xué)習(xí)算法引入規(guī)控時,我們不必過分糾結(jié)于系統(tǒng)是否“可解釋”。

“我跟你交流,我們之間,我能夠充分理解你,并能推理你的整套邏輯,但對你底層的一些直覺、一些隱藏的特質(zhì),我卻是不知道的(甚至你自己也未必知道),但這并不影響我們能建立起信任感、能順暢地交流。同理,我們也不必用是否'可解釋’去限制去探索深度學(xué)習(xí)算法的應(yīng)用邊界。

“我前段時間看了一篇帖子,說深度學(xué)習(xí)和經(jīng)典的統(tǒng)計學(xué)之間的區(qū)別在于經(jīng)典統(tǒng)計學(xué)依然嘗試用規(guī)則模型的方式讓整個系統(tǒng)變得'可解釋’,但深度學(xué)習(xí)突破了這一點,它甚至非常極端去優(yōu)化最終的目標。

“人會犯錯,規(guī)則系統(tǒng)會犯錯,數(shù)據(jù)系統(tǒng)也會犯錯,但是如果在廣泛統(tǒng)計學(xué)意義上,當數(shù)據(jù)規(guī)模足夠大的時候,深度學(xué)習(xí)算法會比規(guī)則系統(tǒng)強一個數(shù)量級,因此,我們可以放心地使用它。

“在這個基礎(chǔ)上,把環(huán)境模型這樣的東西可視化,讓人可以理解,再在規(guī)劃的最后一個階段引入少量的必要的規(guī)則去約束深度學(xué)習(xí)算法,這樣就足夠了?!?/span>

黃暢認為,在算法2.0時代,AI有能力去完成自適應(yīng),因此,自動駕駛公司可能要設(shè)計一些“在算法之上的算法”,使得它能夠幫助基礎(chǔ)的算法更好地在應(yīng)用場景中去迭代、去適應(yīng)。

輕舟規(guī)控算法專家認為,筆者提到的“當一個場景從未知變成已知的時候,就用規(guī)則把應(yīng)對方案給'確定’下來”的設(shè)想在實踐中很難行得通,因為,現(xiàn)實中的場景往往是動態(tài)調(diào)整的——起初可能是清晰的,但變著變著,就“模糊不清”了,因而很難用規(guī)則將其描述清楚。

關(guān)于深度學(xué)習(xí)算法的“不可解釋性”,他的回應(yīng)是:“有好多人會說深度學(xué)習(xí)'不可解釋’,但其實如果你仔細地去設(shè)計你的深度學(xué)習(xí)算法,它可也以實現(xiàn)'可解釋性’的效果,甚至,這種可解釋性可能會比規(guī)則還強。”

他舉了這樣一個例子:自動駕駛車輛在十字路口右轉(zhuǎn)彎,需要避讓直行而來的車,這個時候,很難用規(guī)則窮舉在直行車輛的車速是多少、兩車之間的距離是多少時自動駕駛系統(tǒng)應(yīng)該采取什么措施,但如果是用深度學(xué)習(xí)算法,只要給出自車和潛在障礙物(直行車輛)的位置和狀態(tài),以及一些相關(guān)的環(huán)境和歷史信息,經(jīng)過訓(xùn)練的神經(jīng)網(wǎng)絡(luò)能夠就能夠算出“你讓我”或“我讓你”的概率分別是多少,這跟人開車做決策的思路是一樣的?!案怕剩纫?guī)則更容易解釋。”

說到這里,筆者想到一個看似跟本文主題不直接相關(guān)、但又有很深的關(guān)聯(lián)的話題——什么是人的“直覺”?

之前經(jīng)常看到一些做企業(yè)管理研究的人說,企業(yè)家們在重大事項決策的關(guān)鍵時刻,依賴的往往不是調(diào)研,而是直覺。很少有人能解釋清楚這個直覺究竟是什么,但筆者覺得,這個“直覺”,其實就是數(shù)據(jù)驅(qū)動的“深度學(xué)習(xí)算法”。

所謂的“直覺準”,并不是什么天分,其背后都是日積月累的信息及在此基礎(chǔ)上形成的認知。類似于大數(shù)據(jù)分析,結(jié)論和信息之間有相關(guān)性,但沒有因果關(guān)系,或者是因果關(guān)系不夠直接、不夠明顯,人很難用邏輯解釋清楚,便說這是“直覺”。

從這個意義上說,我們確實不必強求深度學(xué)習(xí)算法一定要“可解釋”。

不過,毫末智行的規(guī)控算法專家認為,即使上了大量AI模型做認知,那也一定是場景化的,必須有顯式的、可解釋的“意圖和意義”,“這是我們的原則”。

這位專家說:“深度學(xué)習(xí)的強項在于可以隨機應(yīng)變,各種復(fù)雜環(huán)境都能快速給出一個解,但它的黑盒特質(zhì)導(dǎo)致有時候給的解會出錯,而基于規(guī)則的算法其實都是'我知道我知道’以及'我知道我不知道’,它對'未知’的復(fù)雜場景給出一個正確解的可能性比深度學(xué)習(xí)方法要低,但'我做不出正確答案并不影響我在看到答案之后評判它是對是錯啊’。因此,AI為做題主力,規(guī)則負責(zé)校驗是我們使用的方式?!?/span>

小馬智行的規(guī)控算法專家認為,現(xiàn)階段,深度學(xué)習(xí)算法很難保證安全,所以在,未來很長時間內(nèi)都一定是傳統(tǒng)算法和深度學(xué)習(xí)相結(jié)合。

這位規(guī)控算法專家說:“我們認為,L2很可能可以達到AI為主的狀態(tài),因為AI無需應(yīng)對好所有的corner case——畢竟還有司機可以做最后的安全保證,特斯拉在AI Day上的分享也說明了這一點。

“但L4的算法在未來很長一段時間內(nèi)都不太可能做到以AI為主,主要原因還是它的可解釋性和對有安全風(fēng)險的corner case處理能力的問題;不過,隨著技術(shù)的進步,我們相信算法中AI的部分會越來越多。

“事實上,傳統(tǒng)規(guī)控算法絕不是規(guī)則的堆砌,好的傳統(tǒng)規(guī)控算法更多是對場景歸納總結(jié)后抽象出來的數(shù)學(xué)模型——借助不同的數(shù)學(xué)工具對規(guī)劃問題建模并通過優(yōu)化方式求解,它有能力刻畫問題的本質(zhì),從根本上保證理論范圍內(nèi)的安全性。

“因此,所以引入深度學(xué)習(xí),并不會涉及到大量的代碼重寫,更多應(yīng)該是如何結(jié)合好傳統(tǒng)算法和深度學(xué)習(xí),用傳統(tǒng)算法保證行車的安全性??梢哉f,傳統(tǒng)規(guī)控算法和AI模型并不是一個簡單的替代關(guān)系,算法研發(fā)也是逐步迭代的,不存在要花很大成本一下子把規(guī)則代碼替換成AI模型的需求,而是循序漸進的。”

而一位主機廠的架構(gòu)師則提出這樣一個建議:在主系統(tǒng)里跑基于規(guī)則的算法,在影子模式里跑深度學(xué)習(xí)算法,等深度學(xué)習(xí)算法的訓(xùn)練效果超過規(guī)則的時候,再將深度學(xué)習(xí)算法部署到主系統(tǒng)中去。

附. 兩個關(guān)于深度學(xué)習(xí)算法應(yīng)用于自動駕駛規(guī)控中的案例

1.智加:通過深度學(xué)習(xí)算法降低油耗

智加對數(shù)據(jù)驅(qū)動的決策的應(yīng)用,也經(jīng)歷了以規(guī)則為主過度到規(guī)則+數(shù)據(jù)混合決策的過程。智加科技首席科學(xué)家崔迪瀟曾說,他們認為換道時機很適合用深度學(xué)習(xí)算法來做輔助做決策。

因為干線物流對時效和油耗要求非常高,一方面不合適的換道時機會導(dǎo)致司機使用自動換道功能比例降低,另一方面以規(guī)則為主的換道算法偏保守,如果僅僅在前車車速過低時才觸發(fā)“換道”指令,會導(dǎo)致更多的后續(xù)剎車,進而帶來整個時效和油耗的損耗。為了降低油耗,自動駕駛系統(tǒng)通過收集數(shù)據(jù)來觀察司機如何做決策,再去研究更類人的換道決策。

這一方案經(jīng)歷過兩個階段。

第一階段為換道決策由司機“自觸發(fā)”形式變?yōu)椤跋到y(tǒng)建議”。在這個階段,工程師會不斷去研究為什么司機在某個點會做出換道決策,進而形成換道建議的規(guī)則。在系統(tǒng)給出換道建議后,如果司機允許換道,則系統(tǒng)認為此時的決策是合適的,如果司機認為此時不應(yīng)該換道,則司機可不采納換道建議。

第二階段是,工程師還會在不同場景采集人工換道的數(shù)據(jù),并結(jié)合第一階段收集的系統(tǒng)換道決策和司機換道決策不一致場景的數(shù)據(jù)(如司機觸發(fā)換道,系統(tǒng)未觸發(fā);或系統(tǒng)觸發(fā)換道,但司機未采納)進行標注和模型訓(xùn)練,得到換道決策模型,改進系統(tǒng)原本的規(guī)控算法,進一步提高節(jié)油性能。

2.輕舟智航:用深度學(xué)習(xí)算法提升系統(tǒng)的“擬人性”

據(jù)輕舟智航預(yù)測和規(guī)控專家還介紹,現(xiàn)階段,輕舟規(guī)控算法給深度學(xué)習(xí)預(yù)留了大量的接口,并積極研發(fā)深度學(xué)習(xí)規(guī)控算法。輕舟智航的整體規(guī)控算法架構(gòu)的最終目標是實現(xiàn)AI First(深度學(xué)習(xí)算法優(yōu)先),讓模型做大部分行為的輸出,然后再用規(guī)則去做互補(規(guī)則主要處理安全相關(guān)的問題)。

輕舟智航認為,規(guī)控能力將是城市NOA功能差異化的重要體現(xiàn)。目前,輕舟智航已開始嘗試在城市NOA方案的規(guī)控環(huán)節(jié)盡可能多運用AI來處理,讓系統(tǒng)在多數(shù)情況下的決策“接近人”、在極端情況下的決策“超越人”。

例如,對變道時機選擇、匝道m(xù)erge時機選擇、路口博弈等在使用城市NOA會遇到的某些規(guī)劃關(guān)鍵場景,輕舟已經(jīng)有專門的深度學(xué)習(xí)算法來進行處理。

為保證深度學(xué)習(xí)算法的可預(yù)見性和可控性,輕舟智航會通過對輸入和輸出設(shè)置校驗的方式,來確保輸入數(shù)據(jù)是否符合當前設(shè)計的需求。在輸入層面會使用規(guī)則的方式來選擇深度學(xué)習(xí)算法適用的場景,確保模型的輸入的合理性,限定模型運行在設(shè)計的問題范圍之內(nèi),在輸出層面也會使用規(guī)則進行輸出的校驗,保證輸出達到預(yù)設(shè)的效果。同時,如果遇到模型處理不好的場景,也可以自動記錄時間點和場景相關(guān)信息,后續(xù)通過數(shù)據(jù)閉環(huán)來更新模型,讓模型泛化能力更強,適應(yīng)更多場景。

目前,在輕舟智航,通過深度學(xué)習(xí)(比如模仿學(xué)習(xí)或者強化學(xué)習(xí))來生成自車“未來可能的軌跡”這一技術(shù)已經(jīng)比較成熟,通過收集大量專家駕駛的軌跡來訓(xùn)練模型,現(xiàn)在模型生成的軌跡在90%情況下都無需做后續(xù)的修飾;但在10%的情況下,深度學(xué)習(xí)生成的軌跡效果可能不好,甚至有安全風(fēng)險,這時候就需要一個框架能夠去修正/修改它。輕舟使用其國內(nèi)在首創(chuàng)的時空聯(lián)合算法(一種基于數(shù)值優(yōu)化的算法)對深度學(xué)習(xí)生成的軌跡進行微調(diào)。

輕舟規(guī)控算法專家說,時空聯(lián)合規(guī)劃算法相比傳統(tǒng)的橫向縱向分離更適合與深度學(xué)習(xí)算法協(xié)同使用。因為,用深度學(xué)習(xí)算法生成的軌跡本身其實就是一個時空聯(lián)合的軌跡,這個軌跡上面不僅有位置、速度、方向信息,還有時間信息。因此,時空聯(lián)合規(guī)劃算法就能較好地跟模型出來的結(jié)果結(jié)合到一起,進而能夠無縫地給深度學(xué)習(xí)算法加上安全防護。

參考資料:

自動駕駛決策控制及運動規(guī)劃方法「AI核心算法」

https://mp.weixin.qq.com/s/6UbTsPbckcDrn-cCeqQBTQ

萬字綜述自動駕駛決策規(guī)劃中的問題與挑戰(zhàn)

https://mp.weixin.qq.com/s/W86mxuv3R8lV9DVaz4mJKg

轉(zhuǎn)自九章智駕,文中觀點僅供分享交流,不代表本公眾號立場,如涉及版權(quán)等問題,請您告知,我們將及時處理。
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
對話RealAI:從底層技術(shù)框架出發(fā),引入貝葉斯深度學(xué)習(xí),推動第三代AI發(fā)展 | 鎂客請講
91億的AI市場,這3個應(yīng)用場景最值錢
AI深度學(xué)習(xí)的可解釋性研究是什么
人工智能及機器學(xué)習(xí)與深度學(xué)習(xí)揭秘
給水排水 |水業(yè)導(dǎo)航:人工智能技術(shù)在供水行業(yè)中的應(yīng)用與展望
人工智能、機器學(xué)習(xí)和認知計算入門指南
更多類似文章 >>
生活服務(wù)
熱點新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服