意外來臨時,“自動駕駛系統”該如何選擇?

時間:2019-01-07

來源:億歐

0

導語:自動駕駛一直面臨著一個哲學問題,我們稱之為“電車難題(Trolley Problem)”,當自動駕駛甚囂塵上,哲學問題變成了一個不得不面對的現實問題,當意外來臨時,人類、法律和自動駕駛系統該如何選擇呢?

“一輛高速行駛的列車駛來,列車前面有兩條軌道,正常行駛的軌道上被綁著五個人,而另一條軌道上綁著一個人;你的手中有一根操控桿可以控制列車的行駛軌道,如果不拉下操縱桿,列車將撞上五個人,另外一條軌道的一個人將會得救;如果拉下操縱桿,列車將撞向一個人,正常行駛軌道上的五個人將會得救。如果是你,將怎樣選擇?”

意外來臨時,“自動駕駛系統”該如何選擇?

聞名于哲學界的“電車難題(Trolley Problem)“在自動駕駛汽車時代”將不再只是一個哲學問題,而是每一個自動駕駛系統需要面對的真實問題,系統將決定在發生事故時撞向誰、保全誰。

現行的自動駕駛系統分為六個級別,Level 0—Level 5,從“僅提供提醒”到“無需駕駛員的全自動駕駛”,特斯拉的自動駕駛系統已經可以達到L5,并且谷歌、百度等公司還在不斷的跟進自動駕駛系統開發。

但是當自動駕駛系統達到“全自動駕駛”時,系統的開發者就要認真考慮多種兩難的情境:當自動駕駛汽車處于“電車難題”情況下要怎樣選擇?在極端情況下,自動駕駛系統會選擇拯救年長者還是拯救青少年?而當不可避免的事故發生時,法律將怎樣判定肇事責任?

意外來臨時,人類會如何選擇?

麻省理工大學在2016年開發出了“道德機器(Moral Machine)”問卷測試網頁,通過問卷的方式調查全球各地的人在假定的 “電車難題”中如何做出選擇。在問卷之中,有九種獨立情況需要受試者做出判斷,分別是:人類和寵物之間的選擇、多數人和少數人之間的選擇、年長者和年輕人的選擇、遵守交規的人和違反交規的人之間的選擇等九個分類。

“道德機器(Moral Machine)”收集了來自233個國家的人做出的接近4000萬個選擇數據并進行分析,并且將分析結果發表到了Nature上。研究發現了一些全球普遍的選擇傾向,比如受訪者較普遍地選擇了保護人類而不是其他動物;較普遍地選擇保護多數生命而不是少數;較普遍的選擇保護青少年而不是年長者;較普遍的選擇保護遵守交規的人而不是違反交規的人。

除此之外,研究顯示在不同的國家和地區,人們選擇也出現了很大的差異。本論文中,將所有的參加調查樣本分成了三個集群:第一,西部集群(Western),主要包括北美和歐洲,以天主教和傳統基督教文化為主的集群;第二,東部集群(Eastern),主要包括中國和亞洲國家,以儒家文化為主的集群;第三,南部集群(Southern),主要包括拉丁美洲和法屬海外地區。

根據雷達圖可看出,來自不同地區的人的選擇存在差異;比如,其一,西部集群和南部集群傾向于保護年輕人,而東部集群這種傾向則不明顯;有可能是因為東部集群的“敬老”文化”的影響;其二,南部集群傾向于保護社會地位高的人,并且遠超西部集群和東部集群。或許和南部地區的集權統治和軍閥當政有關系;當進行了地區分類之后,還有一些奇怪的傾向,比如說,南部集群傾向于保護動物而不是人類。

由此可以預見的是,在未來自動駕駛法制化進程中,首先我們需要一套所有人類達成共識的基本準則(比如說優先保護人類生命),并且通過聯合國或者其他國際組織讓其法制化,基本準則就相當于自動駕駛領域的憲法,其他自動駕駛相關的法案不得違背基本準則。

然后各個國家可以根據每個地區使用者的特殊需求來制定不與基本準則相沖突的補充法案,通過法律手段來規范自動駕駛中出現的部分“電車難題”。與此同時,各國的自動駕駛技術供應商也需要按照各個國家地區的不同法律來對自動駕駛系統進行定制設置,對每一套產品進行合規檢查。

意外來臨時,法律如何應對?

由于自動駕駛的發展還處于初期階段,各國政府都在積極制定法律法規,美國德國等政府已經承認自動駕駛系統的合法地位,開始對自動駕駛汽車的道路測試等環節進行規范(騰訊研究院,2018),中國政府也已經開始積極籌備自動駕駛立法工作;但世界上極少有關于自動駕駛汽車的道德選擇的法律規范。

截止至今天,世界上唯一一份提供官方自動駕駛汽車道德官方指導的文件是德國聯邦運輸及數字基礎設施部門在2017年6月發布的《German Ethics Commission on Automated and Connected Driving》中文譯名(暫):《德國道德委員會關于自動互聯化駕駛的指導準則》(后簡稱《準則》)。

《準則》中首次嘗試對部分自動駕駛涉及的道德難題給出官方解答;

第七條中明確的指出,在極端情況下,自動駕駛系統需要將人類的安全置于首位,高于財產和動物安全;

第九條指出,在車禍不可避免的情況下,自動駕駛系統中任何基于個人特征的選擇傾向(比如:年齡、性別、身體和心理狀況等)都是禁止的;自動駕駛系統在移動中產生危險時不能夠犧牲不相關的第三方。

這兩個條款意味著:其一,當意外發生時系統會盡全力保護乘車人和行人的安全甚至可能會犧牲動物安全;其二,自動駕駛系統不被允許在意外來臨時做出道德判斷,比如選擇保護年輕人或者年長者,而且在車禍不可避免時,也不能夠選擇性地“犧牲”行人,不論行人是否違反交通規則。

第七條背后體現的是對人類生命權的保護和人道主義精神,具有普世意義,值得未來其他法案的借鑒。而第九條則要求自動駕駛系統不能在意外來臨時做出道德判斷,比如選擇保護年輕人或者年長者,而且不能夠選擇性地“犧牲”行人。本條法案排除掉了很多“電車難題”,但是在自動駕駛系統的實際運行中缺乏一定的指導意義。

在道德難題之外,《準則》還對自動駕駛的其他方面進行了規定;

第十二條規定,公眾有權充分了解自動駕駛領域的新技術和自動駕駛技術在不同駕駛情況下的應用;

第十五條規定,車輛所有者和駕駛者有權決定是否要將本車產生的自動駕駛數據分享或者給第三方使用等。

這兩條規定規范了公眾的知情權和數據決定權等基本權利,《準則》中還有針對模糊情況的規范,本文暫不贅述。

《準則》為各國的自動駕駛立法提供了一個有效參考,但是依然沒有能夠具有法律效力,并且沒有得到全球的普遍認可。

意外來臨時,自動駕駛系統會怎么做?

在各國立法尚不完善的情況下,開發自動駕駛系統的公司已經在悄無聲息地在算法中寫入了一些偏好,而這些偏好就將涉及到上文提及的道德判斷。

早在2014年時,Google就表示,Google的自動駕駛原型車會在撞擊中選擇“較小的物體”;在2016年,Google又表示,Google的自動駕駛系統會先保護行人,然后再選擇撞“較小的物品”。同在2016年,奔馳的高管曾表示,公司會“不惜一切代價的保護乘客安全”,這個表態引起了軒然大波,公眾認為公司無權做出生命抉擇;后來奔馳公司又表態,他們的目標是“百分之百的避免事故”而不是做出道德選擇,風波才逐漸平息。

可想而知,公司普遍不愿意回答媒體或者大眾提出的關于自動駕駛系統道德選擇的提問,因為首先,大家擔心為時尚早;現在的系統還只能夠在行人、動物和騎車者之間進行判斷,甚至還不具備事故發生時迅速判斷個人特征的能力(比如:年齡、社會地位等);其次,沒有公司愿意搬起石頭砸自己的腳;在類“電車難題”中的任何判斷都將引起公眾地指責和質疑,并且會直接影響到消費者的看法。

自動駕駛系統道德選擇背后涉及的是極大的倫理問題。在兩難問題中對任何一方的偏袒都會涉及到對另一方的歧視。比如:當自動駕駛系統優先選擇男性時,女性還敢選擇自動駕駛汽車嗎?行走在馬路上的女性能夠安心嗎?如果武斷的對自動駕駛倫理問題做出判斷將帶來極大的社會影響,并且剝奪某些群體的合法權益。

在自動駕駛飛速發展的時代,各家自動駕駛系統的最終目標還是從技術上消除交通事故或者將交通事故對人類的傷害降到最低。關于交通事故不可避免時的道德判斷標準,沒有公司或者個人有權力或者愿意決定處于危急關頭時任何一個人的性命,畢竟每個人都只有一次生的機會,而沒有一條生命是能被放棄的。

低速無人駕駛產業綜合服務平臺版權與免責聲明:

凡本網注明[來源:低速無人駕駛產業綜合服務平臺]的所有文字、圖片、音視和視頻文件,版權均為低速無人駕駛產業綜合服務平臺獨家所有。如需轉載請與0755-85260609聯系。任何媒體、網站或個人轉載使用時須注明來源“低速無人駕駛產業綜合服務平臺”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。

關注低速無人駕駛產業聯盟公眾號獲取更多資訊

最新新聞