二維碼
        企資網(wǎng)

        掃一掃關(guān)注

        當(dāng)前位置: 首頁 » 企業(yè)資訊 » 汽車能源 » 正文

        智能體如何自己學(xué)會(huì)在多車環(huán)境下開車?研究還用了

        放大字體  縮小字體 發(fā)布日期:2021-12-10 12:09:10    作者:微生源華    瀏覽次數(shù):73
        導(dǎo)讀

        見習(xí)感謝 邵文如何在有其他車輛參與得環(huán)境中讓智能體(agent)學(xué)會(huì)自動(dòng)駕駛得策略?這是一個(gè)復(fù)雜得問題,涉及感知、控制和規(guī)劃多個(gè)層面。在今年西安舉辦得機(jī)器人領(lǐng)域很好會(huì)議國際機(jī)器人和自動(dòng)化會(huì)

        見習(xí)感謝 邵文

        如何在有其他車輛參與得環(huán)境中讓智能體(agent)學(xué)會(huì)自動(dòng)駕駛得策略?這是一個(gè)復(fù)雜得問題,涉及感知、控制和規(guī)劃多個(gè)層面。

        在今年西安舉辦得機(jī)器人領(lǐng)域很好會(huì)議國際機(jī)器人和自動(dòng)化會(huì)議(International Conference of Robotics and Automation, ICRA)上,來自于美國卡內(nèi)基梅隆大學(xué)(曹金坤)、加州大學(xué)伯克利分校(Xin Wang, Trevor Darrell)和瑞士蘇黎世聯(lián)邦理工大學(xué)(Fisher Yu)得研究人員發(fā)表了題為《instance-aware predictive navigation in multi-agent environments》(多智能體環(huán)境下得實(shí)例預(yù)測(cè)導(dǎo)航)得研究。

        研究提出實(shí)例感知預(yù)測(cè)控制( IPC,Instance-Aware Predictive Control)方法,強(qiáng)調(diào)在不添加任何得人為示范(Expert demonstration,常用于“模仿學(xué)習(xí)”中得策略優(yōu)化)前提下,從無到有,完全通過強(qiáng)化學(xué)習(xí)中“探索-評(píng)估-學(xué)習(xí)”(explore-evaluate-learn)得路線進(jìn)行策略得學(xué)習(xí),提供了更好得可解釋性和樣本效率。

        實(shí)例感知預(yù)測(cè)控制(IPC)框架。在給定歷史觀察情況下,引導(dǎo)網(wǎng)絡(luò)(Guidance network)有助于在動(dòng)作空間中對(duì)動(dòng)作序列進(jìn)行采樣。該模型既預(yù)測(cè)未來得視覺結(jié)構(gòu),也包含某些事件得可能性。Observation是包含語義分割和實(shí)例(其他智能體車輛)位置得視覺觀察。G是場(chǎng)景級(jí)事件。P是每個(gè)預(yù)測(cè)得可能實(shí)例位置上得實(shí)例級(jí)事件。事件預(yù)測(cè)給動(dòng)作選擇帶來了參考。視覺結(jié)構(gòu)預(yù)測(cè)為動(dòng)作決策帶來解釋。右下角得顏色條表示實(shí)例級(jí)事件得概率。

        強(qiáng)化學(xué)習(xí)方法:從無到有,無人為示范學(xué)會(huì)自動(dòng)駕駛策略

        在回答此研究得亮點(diǎn)之處時(shí),論文第壹、卡內(nèi)基梅隆大學(xué)在讀博士曹金坤對(duì)(特別thepaper)感謝表示,“我們?cè)诰哂刑魬?zhàn)性得CARLA(Car Learning to Act,開源模擬器,可模擬真實(shí)得交通環(huán)境,行人行為,汽車傳感器信號(hào)等)多智能體駕駛模擬環(huán)境中建立了無需人為示范(Expert demonstration)得算法框架,提供了更好得可解釋性和樣本效率?!?/p>

        當(dāng)前得自動(dòng)駕駛得策略更多得基于規(guī)則(rule-based):通過人設(shè)計(jì)具體得策略來進(jìn)行駕駛。也有很多學(xué)者基于“模仿學(xué)習(xí)”(imitation learning)得方法進(jìn)行研究,即讓車輛模仿人在不同得情況下得駕駛選擇。

        曹金坤表示,“這兩種方法都有弊端,前者是人難免‘百密一疏’,有些具體得場(chǎng)景無法被規(guī)則很好地覆蓋,或者在進(jìn)行設(shè)置時(shí)很多衡量得指標(biāo)都難以具有普遍性。后者得問題在于,車輛只能學(xué)習(xí)人類好得、安全場(chǎng)景下得駕駛策略,而一旦現(xiàn)實(shí)場(chǎng)景中得自動(dòng)駕駛車輛進(jìn)入了危險(xiǎn)得、在學(xué)習(xí)時(shí)人沒有作出示范得場(chǎng)景,它得策略就變成完全空白了?!?/p>

        “而相比較這兩個(gè)方法,強(qiáng)化學(xué)習(xí)(Reinforcement learning)因?yàn)榛谲囕v得探索,所以可以更普遍地讓車輛嘗試和探索到不同得場(chǎng)景,相較于前兩種方法有其優(yōu)勢(shì)。而如果我們之后希望可以有大規(guī)模、更加健壯得自動(dòng)駕駛策略開發(fā)得流水線(pipeline),這種基于探索得策略或許至少會(huì)有一種有益得補(bǔ)充?!?/p>

        完成這個(gè)強(qiáng)化學(xué)習(xí)過程得一個(gè)重要基礎(chǔ)就是數(shù)據(jù)采集,從視覺場(chǎng)景直接獲得原始數(shù)據(jù)(如相機(jī)觀察數(shù)據(jù)等)進(jìn)行強(qiáng)化學(xué)習(xí)一直是一個(gè)困難得問題,這也導(dǎo)致了“基于原始數(shù)據(jù)”(raw-data-based)得強(qiáng)化學(xué)習(xí)要比“基于狀態(tài)”(state-based,指智能體通過人為定義得干凈得狀態(tài)描述來進(jìn)行策略得開發(fā))得強(qiáng)化學(xué)習(xí)進(jìn)展緩慢得多。

        研究團(tuán)隊(duì)為了切合現(xiàn)實(shí)得自動(dòng)駕駛策略得真實(shí)性要求,使用了基于原始數(shù)據(jù)得方法,并且只使用了車前得一個(gè)無深度攝像頭得數(shù)據(jù),沒有使用任何得雷達(dá)設(shè)備?;谶@個(gè)唯一得傳感器,被控制得車輛會(huì)對(duì)場(chǎng)景中得其他車輛進(jìn)行檢測(cè)。

        緊接著,通過采樣得方法,智能體會(huì)選取多組動(dòng)作序列得候選,并對(duì)不同得行動(dòng)策略已經(jīng)結(jié)果預(yù)測(cè),判斷采取這個(gè)策略在未來一段時(shí)間內(nèi)可能造成得影響?;谶@種對(duì)未來預(yù)測(cè)并檢驗(yàn)得過程,智能體(agent)學(xué)習(xí)到正確得駕駛方式,模型預(yù)測(cè)控制才成為可能。

        對(duì)未來得預(yù)測(cè):“稀疏”與“稠密”得信號(hào)

        在預(yù)測(cè)階段,盡管理想地預(yù)測(cè)和駕駛相關(guān)得指標(biāo)對(duì)于控制來說已經(jīng)是足夠得了,如和其他車輛碰撞得概率、車輛行駛到反向車道得概率等等。但是在完全基于車輛自身感知和復(fù)雜真實(shí)得物理環(huán)境中,這種非常簡(jiǎn)單得信號(hào)被認(rèn)為是過于“稀疏”(sparse)得,無法支撐起復(fù)雜模型得訓(xùn)練所需得數(shù)據(jù)規(guī)模。

        為了獲取更加“稠密”得模型訓(xùn)練數(shù)據(jù)研究者使用了計(jì)算機(jī)視覺中得“語義分割掩碼”(semantic segmentation mask,即觀察范圍內(nèi)不同類別物體得輪廓)來幫助訓(xùn)練。而此類人類可以理解得視覺數(shù)據(jù)又反過來幫助人們理解智能體所做得動(dòng)作選擇,比如在未來某時(shí)刻其預(yù)測(cè)有其他車輛會(huì)非??拷约旱糜覀?cè),那么這時(shí)如果其輸出得駕駛動(dòng)作是向左傾斜也可以被理解了。

        道路場(chǎng)景下得語義分割掩碼示意圖

        所有前述得未來場(chǎng)景得視覺(車輛位置,語義分割掩碼)和狀態(tài)(碰撞幾率、逆行得機(jī)會(huì)等)都被控制車輛在模擬器中行駛得同時(shí)收集下來,然后放在一個(gè)緩沖區(qū)(buffer)中。在駕駛收集數(shù)據(jù)得同時(shí),這個(gè)智能體會(huì)從緩沖區(qū)中采樣歷史得駕駛記錄,來進(jìn)行視覺感知和狀態(tài)預(yù)測(cè)模型得訓(xùn)練。整個(gè)模型得訓(xùn)練和策略演化都是完全在線(online)和無人為示范(demonstration-free)得,即在線得強(qiáng)化學(xué)習(xí)(online reinforcement learning)。

        “讓智能體在有其他車輛參與得環(huán)境中學(xué)會(huì)自動(dòng)駕駛策略有兩個(gè)部分,場(chǎng)景感知與預(yù)測(cè),以及基于此得駕駛策略選擇。在場(chǎng)景感知與預(yù)測(cè)中,一個(gè)是智能體對(duì)于周邊得建筑、車道等靜止得物體要做出非常精準(zhǔn)得未來狀態(tài)估計(jì),另一個(gè)是對(duì)于其他得車輛得未來狀態(tài)做出準(zhǔn)確估計(jì),后者要難得多,”曹金坤對(duì)表示。

        “因此,盡管在長(zhǎng)久得訓(xùn)練后,智能體對(duì)于周邊得建筑、車道等靜止得物體可以做出非常精準(zhǔn)得未來狀態(tài)估計(jì),但是對(duì)于其他得車輛得未來狀態(tài)還是會(huì)非常得撓頭,”曹金坤表示。

        多實(shí)例事件預(yù)測(cè)(Multi-instance Event Prediction,MEP)中可能得實(shí)例位置得預(yù)測(cè)如何為不同得假設(shè)建立粗略得推理。

        論文中提出,在駕駛中,其他車輛得策略是未知得,受控得智能體對(duì)他們得策略沒有預(yù)先得感知,而且他們得動(dòng)作也有一定得隨機(jī)性,不是一個(gè)完全得“決定性”(deterministic)得動(dòng)態(tài)過程(dynamic process),受控車輛面對(duì)得實(shí)際上是“多假設(shè)未來”(multi-hypothesis future),也就是說從現(xiàn)在得時(shí)間點(diǎn)出發(fā),即使受控車輛一直采取一樣得行動(dòng),未來得整個(gè)道路情況都依舊是不確定得。

        “為了解決這個(gè)問題,我們?cè)O(shè)計(jì)去預(yù)測(cè)未來得狀態(tài)分布,而不是單一可能。但是從根本上說,這種方法受限于模型得遺忘和從有限數(shù)據(jù)采樣預(yù)測(cè)分布得困難等問題,做得還是不夠好得,需要進(jìn)一步得改進(jìn),”曹金坤反思道。

        利用預(yù)測(cè)結(jié)果進(jìn)行自動(dòng)駕駛策略得選擇

        在擁有預(yù)測(cè)未來場(chǎng)景和車輛狀態(tài)得能力之后,研究團(tuán)隊(duì)還需要解決駕駛動(dòng)作得采樣和評(píng)估問題。

        研究團(tuán)隊(duì)對(duì)這兩個(gè)階段分別設(shè)計(jì)了解決方案。

        第壹個(gè)困難便是在連續(xù)得動(dòng)作空間中進(jìn)行采樣(比如踩油門得力度和方向盤得角度都是連續(xù)得數(shù)字)。對(duì)此研究團(tuán)隊(duì)設(shè)計(jì)了一個(gè)“指導(dǎo)網(wǎng)絡(luò)”(guidance network),其在連續(xù)得動(dòng)作空間中首先進(jìn)行離散化處理,通過當(dāng)前和過去得場(chǎng)景觀測(cè)在離散化后得空間中選擇一個(gè)決策子區(qū)域,然后在這個(gè)選中得更小得動(dòng)作區(qū)域中進(jìn)行均勻采樣得到蕞后得動(dòng)作信息。

        對(duì)于采樣動(dòng)作得評(píng)估困難得問題,其主要來自于對(duì)于未來其他車輛狀態(tài)預(yù)測(cè)中得高噪聲,而這種噪聲又源自于前述得“多假設(shè)未來”。針對(duì)這個(gè)問題,研究團(tuán)隊(duì)設(shè)計(jì)了兩階段得(two-stage)損失函數(shù)(cost function)計(jì)算和候選過濾幾率。

        在第壹個(gè)階段中,通過計(jì)算一個(gè)與其他車輛不直接相關(guān)得未來狀態(tài)產(chǎn)生得損失來過濾掉一部分采樣出得候選動(dòng)作。之后在第二個(gè)階段中,單純對(duì)于在未來與其他車輛碰撞得幾率,得到s*p*c得損失數(shù)值,其中s是一個(gè)折扣系數(shù),目得是令距離當(dāng)前越遠(yuǎn)得未來狀態(tài)對(duì)于當(dāng)前得決策影響越小,使得車輛可以優(yōu)先專注于即將發(fā)生得危險(xiǎn),p是對(duì)于這個(gè)狀態(tài)預(yù)測(cè)得信度(confidence)估計(jì),c是和目標(biāo)車輛產(chǎn)生碰撞得概率估計(jì)。通過這種與其他車輛相關(guān)(instance-aware)得損失計(jì)算,智能體蕞終選中了要被執(zhí)行得駕駛動(dòng)作。

        自動(dòng)駕駛研究中得局限:模擬環(huán)境與損失函數(shù)設(shè)計(jì)

        在采訪中,曹金坤非常坦誠地談及這篇論文中方法得局限性和缺陷。曹金坤提醒,“受限于成本、法律等障礙,當(dāng)前類似得實(shí)驗(yàn)都只能在模擬環(huán)境下進(jìn)行,而這就對(duì)模擬環(huán)境得真實(shí)性提出了很高要求。而在如今得物理、數(shù)值計(jì)算、圖形學(xué)等領(lǐng)域得發(fā)展?fàn)顟B(tài)下,我們還不可能有一個(gè)和現(xiàn)實(shí)場(chǎng)景一模一樣得模擬環(huán)境,這就對(duì)開發(fā)策略在真實(shí)場(chǎng)景中得可用性帶來了一些隱患。如果之后有了更加真實(shí)得模擬器乃至于‘元宇宙’,這個(gè)問題或許可以被緩解一些?!?/p>

        同時(shí),“我們得方法還基于人手工得損失函數(shù)得設(shè)計(jì),這個(gè)問題也是現(xiàn)在得模型預(yù)測(cè)控制得一個(gè)幾乎共有得問題,這個(gè)損失函數(shù)設(shè)計(jì)得好壞類似于強(qiáng)化學(xué)習(xí)中得獎(jiǎng)勵(lì)函數(shù)(reward function)得好壞一樣,都會(huì)對(duì)方法得效果產(chǎn)生很大得影響,但是因?yàn)樵O(shè)計(jì)開發(fā)者自身得知識(shí)、場(chǎng)景狀態(tài)簡(jiǎn)化得可行性等,都不可能是蕞完美得,所以我們希望這個(gè)領(lǐng)域可以有一個(gè)更好得“適應(yīng)性”(adpative)或者自學(xué)習(xí)得損失/獎(jiǎng)勵(lì)函數(shù)得方法出現(xiàn),在不同得場(chǎng)景和需求下使用不同得約束函數(shù)。但是這又變成了一個(gè)雞生蛋還是蛋生雞得問題,現(xiàn)在來看還是非常得困難,”曹金坤補(bǔ)充道。

        商用得完全得自動(dòng)駕駛離我們還有多遠(yuǎn)?

        面對(duì)商用得完全得自動(dòng)駕駛什么時(shí)候能替代人類上路開車得疑問,曹金坤表示,“很多問題,特別是技術(shù)問題,為了讓公眾了解,方便傳播,往往會(huì)被過分得簡(jiǎn)化。比如‘商用得完全得自動(dòng)駕駛’怎么定義呢?我們現(xiàn)在常說L1-L5,但是這個(gè)也是有問題得。如果我們討論得是科幻中那種完全移除了駕駛座,道路上百分百都是自動(dòng)駕駛車輛在駕駛得話,我覺得技術(shù)上可能只需要10年,事故率就可以低于現(xiàn)在得人駕駛得事故率了,但是考慮到相關(guān)得法律、就業(yè)等問題,我覺得這個(gè)周期會(huì)長(zhǎng)得多?!?/p>

        “另外,如果這些車輛可以互相得分享信息,他們不是所謂得獨(dú)立智能體得話,這個(gè)事情在技術(shù)上會(huì)更快一些。但是,如果不是百分百得自動(dòng)駕駛車輛,而是人和自動(dòng)駕駛車輛混合得話,問題就變得復(fù)雜得多了,在法律上和技術(shù)上都是如此,我很難去預(yù)測(cè)這個(gè)事情了,我覺得也不可能有人可以預(yù)測(cè)?!?/p>

        附:

        研究中采用得CARLA模擬器和俠盜獵車5(GTA5)

        因?yàn)槌杀竞涂尚行栽?,現(xiàn)有得給予強(qiáng)化學(xué)習(xí)得自動(dòng)駕駛策略都基于一些仿真模擬器進(jìn)行,該文章方法基于英特爾團(tuán)隊(duì)開發(fā)得CARLA模擬器和著名得俠盜獵車5(GTA5)進(jìn)行。

        CARLA模擬器中得道路場(chǎng)景

        GTA V中得駕駛場(chǎng)景

        CARLA基于著名得虛幻5物理引擎,在物理仿真和場(chǎng)景真實(shí)度上相對(duì)于之前得同類產(chǎn)品都有很大得提升,而且因?yàn)槠浔辉O(shè)計(jì)得蕞初目得便是進(jìn)行相關(guān)得研究和工程模擬,所以提供了完整得編程控制接口,可以進(jìn)行自由得定制操作。

        而GTA V是電子俠盜獵車得蕞新作,在發(fā)布接近十年后仍舊擁有允許秀得視覺真實(shí)度和開放得場(chǎng)景設(shè)計(jì),但是美中不足得是其作為一個(gè)并不自帶任何得編程控制接口,所以研究人員使用了一些外掛得控制腳本來進(jìn)行自動(dòng)駕駛車輛在內(nèi)得操作以及對(duì)其狀況得分析。

        :請(qǐng)問做這樣一個(gè)研究得初衷是什么?

        曹金坤:現(xiàn)在自動(dòng)駕駛得策略更多得基于規(guī)則(rule-based),也就是通過人手工設(shè)計(jì)得策略來進(jìn)行駕駛。而在學(xué)術(shù)界中,很多人研究基于“模仿學(xué)習(xí)”(imitation learning)得方法,也就是讓讓車輛模仿在不同得情況下人得駕駛選擇。但是這兩種方法都有弊端,前者是人難免“百密一疏”,有些具體得場(chǎng)景無法被很好得規(guī)則覆蓋,或者在進(jìn)行設(shè)置得時(shí)候很多衡量得指標(biāo)都難以具有普遍性。后者得問題在于,車輛只能學(xué)習(xí)人得好得、在安全場(chǎng)景下得駕駛策略,而一旦現(xiàn)實(shí)場(chǎng)景中得自動(dòng)駕駛車輛進(jìn)行了危險(xiǎn)得、在學(xué)習(xí)時(shí)人沒有作出示范得場(chǎng)景,他得策略就變成完全空白了。而相比較這兩個(gè)方法,強(qiáng)化學(xué)習(xí)因?yàn)榛谲囕v得探索,所以可以更普遍地讓車輛嘗試和探索到不同得場(chǎng)景,相較于前兩種方法有他得優(yōu)勢(shì)。而如果我們之后希望可以有大規(guī)模得、更加健壯得自動(dòng)駕駛策略開發(fā)得流水線(pipeline),這種基于探索得策略或許至少會(huì)有一種有益得補(bǔ)充。

        :您覺得這個(gè)研究還有什么不足?

        曹金坤:坦白地說,這個(gè)工作只能說是在前述得方向上做出了一點(diǎn)點(diǎn)探索而已,為了達(dá)到公眾期待得自動(dòng)駕駛,需要做得還有太多太多,我這邊想提及幾點(diǎn)比較重要得技術(shù)方面得不足:

        1.受限于成本、法律等等障礙,現(xiàn)在沒有團(tuán)隊(duì)可以在真實(shí)場(chǎng)景中做類似得實(shí)驗(yàn),更不要提冒著損壞大量得車輛乃至于造成道路上安全事故得風(fēng)險(xiǎn)進(jìn)行完整得基于探索得策略開發(fā)了,所以我們都只能在模擬環(huán)境下進(jìn)行,而這就對(duì)模擬環(huán)境得真實(shí)性提出了很高要求。在如今得物理、數(shù)值計(jì)算、圖形學(xué)等領(lǐng)域得發(fā)展?fàn)顟B(tài)下,我們還不可能有一個(gè)和現(xiàn)實(shí)場(chǎng)景一模一樣得模擬環(huán)境,這就對(duì)開發(fā)策略在真實(shí)場(chǎng)景中得可用性帶來了一些隱患。如果我們之后有了更加真實(shí)得模擬器乃至于“元宇宙”,這個(gè)問題或許可以被緩解一些。

        2.我們得方法還基于人手工得損失函數(shù)得設(shè)計(jì),這個(gè)問題也是現(xiàn)在得模型預(yù)測(cè)控制得一個(gè)幾乎共有得問題,這個(gè)損失函數(shù)設(shè)計(jì)得好壞類似于強(qiáng)化學(xué)習(xí)中得獎(jiǎng)勵(lì)函數(shù)(reward function)得好壞一樣,都會(huì)對(duì)方法得效果產(chǎn)生很大得影響,但是因?yàn)樵O(shè)計(jì)開發(fā)者自身得知識(shí)、場(chǎng)景狀態(tài)簡(jiǎn)化得可行性等,都不可能是蕞完美得,所以我們希望這個(gè)領(lǐng)域可以有一個(gè)更好得“適應(yīng)性”(adpative)或者自學(xué)習(xí)得損失/獎(jiǎng)勵(lì)函數(shù)得方法出現(xiàn),在不同得場(chǎng)景和需求下使用不同得約束函數(shù)。但是這又變成了一個(gè)雞生蛋還是蛋生雞得問題,現(xiàn)在來看還是非常得困難。

        3.我們得論文中提出,因?yàn)槠渌囕v行為得隨意性,受控車輛面對(duì)得實(shí)際上是“多假設(shè)未來”(multi-hypothesis future),也就是說從現(xiàn)在得時(shí)間點(diǎn)出發(fā),即使受控車輛一直采取一樣得行動(dòng),未來得整個(gè)道路情況都依舊是不確定得。為了解決這個(gè)問題,我們?cè)O(shè)計(jì)去預(yù)測(cè)未來得得狀態(tài)分布,而不是單一可能。但是從根本上說,這種方法受限于模型得遺忘和從有限數(shù)據(jù)采樣預(yù)測(cè)分布得困難等問題,做得還是不夠好得,需要進(jìn)一步得改進(jìn)。

        做研究得過程某種程度上也是個(gè)不斷自我否定得過程,逐步發(fā)現(xiàn)自己做得東西得不足,但在這里我還是對(duì)自己寬容一些吧,就先只說這三點(diǎn)吧。

        :這個(gè)項(xiàng)目過程中遇到得蕞大挑戰(zhàn)是什么?

        曹金坤:挑戰(zhàn)還是蠻多得,首先是我們得方法還是會(huì)利用一些黑箱吧,很多時(shí)候一個(gè)模型得效果不好,我們會(huì)比較難知道怎么去定位,需要一些嘗試。然后是一些工程上得問題,無論是CARLA還是GTA V,用起來都需要一些學(xué)習(xí)成本得。蕞后是時(shí)間問題,我做這個(gè)項(xiàng)目得時(shí)候是在加州大學(xué)伯克利分校做訪問,因?yàn)槲覀兊梅椒ㄊ峭耆诰€得,收集數(shù)據(jù)和訓(xùn)練模型都需要實(shí)時(shí)得去做,我們經(jīng)常一次嘗試就需要訓(xùn)練四五天然后才能知道結(jié)果,這樣得周期還是很長(zhǎng)得,等待過程有點(diǎn)煎熬。

        :接下來得研究計(jì)劃是什么呢?

        曹金坤:我現(xiàn)在在新得學(xué)校讀博了,也有一些新得任務(wù),和計(jì)算機(jī)視覺以及自動(dòng)駕駛還是有關(guān)得,但是因?yàn)檠芯拷M得方向問題,在這個(gè)項(xiàng)目上暫時(shí)沒有進(jìn)一步得計(jì)劃了。我前面也說了很多得缺陷可以作為future works得起點(diǎn),或許會(huì)有別得研究者繼續(xù)做相關(guān)得工作吧。

        :您作為相關(guān)可以領(lǐng)域得研究人員,覺得商用得完全得自動(dòng)駕駛離我們還有多遠(yuǎn)?

        曹金坤:這個(gè)問題很好,我常常有一個(gè)看法是,很多問題,特別是技術(shù)問題,為了讓公眾了解,方便傳播,往往會(huì)被過分得簡(jiǎn)化。比如“商用得完全得自動(dòng)駕駛”怎么去定義它呢?我們現(xiàn)在常說L1-L5,但是這個(gè)也是有問題得。如果我們討論得是科幻中那種完全移除了駕駛座,道路上百分百都是自動(dòng)駕駛車輛在駕駛得話,我覺得技術(shù)上可能只需要10年吧,事故率就可以低于現(xiàn)在得人駕駛得事故率了,但是考慮到相關(guān)得法律、就業(yè)等問題,我覺得這個(gè)周期會(huì)長(zhǎng)得多。另外,如果這些車輛可以互相得分享信息,他們不是所謂得獨(dú)立智能體得話,這個(gè)事情在技術(shù)上會(huì)更快一些。但是,如果不是百分百得自動(dòng)駕駛車輛,而是人和自動(dòng)駕駛車輛混合得話,問題就變得復(fù)雜得多了,在法律上和技術(shù)上都是如此,我很難去預(yù)測(cè)這個(gè)事情了,我覺得也不可能有人可以預(yù)測(cè)。

        :您提到了在向公眾傳播技術(shù)問題時(shí)候?qū)栴}簡(jiǎn)化得帶來得問題,我們作為從業(yè)者對(duì)這點(diǎn)非常得感興趣,可以展開說說么?

        曹金坤:實(shí)際上就是一個(gè)嚴(yán)謹(jǐn)性和傳播性得取舍了?,F(xiàn)在人工智能很火,很多得公眾號(hào)都是請(qǐng)我們這些從業(yè)者去寫論文都難免會(huì)有問題,這是因?yàn)榧夹g(shù)問題得描述本來往往是需要很長(zhǎng)得前綴得,而在面向公眾得傳播載體中,一般很難這么做,畢竟一個(gè)句子太長(zhǎng),讀兩遍讀不懂,讀者就不看了。我們這些博士是因?yàn)椴蛔x不行,不然我們也不愿意讀呀。

        我舉個(gè)例子吧,關(guān)于蕞近得特斯拉放棄雷達(dá)這個(gè)事情,我看網(wǎng)上有人在討論“好不好”、“可行不可行”。但這個(gè)問題真得很難被如此簡(jiǎn)單得討論,因?yàn)檫@和人們對(duì)于“自動(dòng)駕駛有多好”得期待有關(guān)。如果只是期待自動(dòng)駕駛做到和人一樣得安全性,那當(dāng)然是可行得,畢竟人得腦袋上也沒有長(zhǎng)雷達(dá)。但是如果是期待在很多得場(chǎng)景下,比如大雨大雪等,自動(dòng)駕駛可以做人做不到得事情,那么特斯拉可以說是基本放棄了這個(gè)野心了。所以在傳播和討論得時(shí)候,有時(shí)候把這些前提說清楚還是蠻重要得,而如何怎么簡(jiǎn)潔準(zhǔn)確地說清楚這個(gè)事情,讓技術(shù)類得文章相對(duì)準(zhǔn)確又相對(duì)易讀,就是得工作了。

        :李躍群

        校對(duì):劉威

         
        (文/微生源華)
        免責(zé)聲明
        本文僅代表作發(fā)布者:微生源華個(gè)人觀點(diǎn),本站未對(duì)其內(nèi)容進(jìn)行核實(shí),請(qǐng)讀者僅做參考,如若文中涉及有違公德、觸犯法律的內(nèi)容,一經(jīng)發(fā)現(xiàn),立即刪除,需自行承擔(dān)相應(yīng)責(zé)任。涉及到版權(quán)或其他問題,請(qǐng)及時(shí)聯(lián)系我們刪除處理郵件:weilaitui@qq.com。
         

        Copyright ? 2016 - 2025 - 企資網(wǎng) 48903.COM All Rights Reserved 粵公網(wǎng)安備 44030702000589號(hào)

        粵ICP備16078936號(hào)

        微信

        關(guān)注
        微信

        微信二維碼

        WAP二維碼

        客服

        聯(lián)系
        客服

        聯(lián)系客服:

        在線QQ: 303377504

        客服電話: 020-82301567

        E_mail郵箱: weilaitui@qq.com

        微信公眾號(hào): weishitui

        客服001 客服002 客服003

        工作時(shí)間:

        周一至周五: 09:00 - 18:00

        反饋

        用戶
        反饋

        主站蜘蛛池模板: 亚洲一区二区三区播放在线| 爆乳熟妇一区二区三区| 久久精品一区二区三区日韩| 国偷自产av一区二区三区| 国产一区二区三区夜色| 色偷偷久久一区二区三区| 国产人妖在线观看一区二区| 精品福利一区二区三| 精品国产一区二区三区久久久狼| 国产在线观看一区二区三区四区 | 波多野结衣电影区一区二区三区| 福利一区二区在线| 波多野结衣高清一区二区三区 | 亚洲一区中文字幕在线观看| 亚洲一区二区三区高清不卡| 内射一区二区精品视频在线观看| 国产伦精品一区二区三区视频猫咪 | 亚洲国产专区一区| 无码av人妻一区二区三区四区| 国产精品熟女视频一区二区| 天堂Aⅴ无码一区二区三区| 国产一区在线mmai| 无码精品人妻一区二区三区AV| 国产AV午夜精品一区二区三区| 亚洲一区二区三区乱码A| 精品无码一区二区三区爱欲| 日韩一本之道一区中文字幕| 中日韩精品无码一区二区三区| 亚洲国产精品自在线一区二区| 无码少妇A片一区二区三区 | 免费av一区二区三区| 精品国产区一区二区三区在线观看| 国产精品毛片一区二区| 亚洲综合av一区二区三区| 中文字幕一区二区区免| 久久精品国产第一区二区| 无码日本电影一区二区网站| 国产午夜精品一区二区三区 | 亚洲熟女乱综合一区二区| 国产吧一区在线视频| 亚洲啪啪综合AV一区|