微軟(Microsoft)和麻省理工學(xué)院(MIT)合作開發(fā)了一個(gè)項(xiàng)目,旨在修復(fù)導(dǎo)致無人駕駛汽車出錯(cuò)的所謂虛擬“盲點(diǎn)”。道路,尤其是與人類司機(jī)共享的道路,是不可預(yù)測(cè)的地方。訓(xùn)練自動(dòng)駕駛汽車適應(yīng)各種可能的情況是一項(xiàng)艱巨的任務(wù)。
微軟(Microsoft)和麻省理工學(xué)院(MIT)開發(fā)的人工智能,將人類在給定場(chǎng)景下的行為與無人駕駛汽車自身的人工智能進(jìn)行了比較。當(dāng)人類的決策更優(yōu)時(shí),車輛的行為會(huì)根據(jù)未來類似的情況進(jìn)行更新。
報(bào)告作者Ramya Ramakrishnan表示:

這個(gè)模型幫助自主系統(tǒng)更好地了解他們不知道的東西。
很多時(shí)候,當(dāng)這些系統(tǒng)被部署時(shí),他們經(jīng)過訓(xùn)練的模擬與現(xiàn)實(shí)環(huán)境不匹配,他們可能會(huì)犯錯(cuò)誤,比如發(fā)生事故。 我們的想法是用人類以一種安全的方式,在模擬和現(xiàn)實(shí)世界之間架起一座橋梁,這樣我們就可以減少一些錯(cuò)誤。 例如,如果一輛緊急車輛正在接近,那么人類駕駛員應(yīng)該知道,如果安全的話,應(yīng)該讓他們通過。這些情況會(huì)因環(huán)境而變得復(fù)雜。
在鄉(xiāng)村公路上,讓車輛通過可能意味著要擠到草地上。你,或者說緊急服務(wù)部門,最不希望看到的就是無人駕駛汽車在所有的鄉(xiāng)村道路上都行駛相同的路線,然后突然轉(zhuǎn)向懸崖邊緣。
人類既可以在現(xiàn)實(shí)世界中“展示”正確的方法,也可以在汽車的行為不正確的情況下,坐在駕駛座上進(jìn)行“糾正”。一份情況清單連同其行為是否被認(rèn)為是可接受或不可接受的標(biāo)簽一起匯編。
研究人員已經(jīng)確保無人駕駛汽車AI不會(huì)認(rèn)為自己的行為是百分之百安全的,即使到目前為止的結(jié)果是這樣。使用Dawid-Skene機(jī)器學(xué)習(xí)算法,人工智能使用概率計(jì)算來發(fā)現(xiàn)模式,并確定某樣?xùn)|西是否真的安全,或者仍然存在出錯(cuò)的可能性。
我們還沒有達(dá)到可以部署這項(xiàng)技術(shù)的階段。到目前為止,科學(xué)家們只在視頻游戲中對(duì)其進(jìn)行了測(cè)試。然而,它提供了很多承諾,幫助確保無人駕駛汽車的人工智能有一天能夠安全應(yīng)對(duì)所有情況。