去年3月18日在美國亞利桑那州坦佩市發(fā)生了一起比較嚴(yán)重的車禍?zhǔn)鹿剩谶@起事故中,Uber的一輛自動駕駛汽車撞上了一名行人,并致其死亡。發(fā)生事故的車輛屬Uber公司新研發(fā)的正處于測試階段的無人駕駛汽車,一時間,無人駕駛汽車的公共安全與法律責(zé)任問題備受關(guān)注。
近日,針對這起撞車事故,美國檢方宣布涉事汽車所屬的Uber公司對該事故不承擔(dān)刑事責(zé)任。該事故作為全球首例自動駕駛汽車致人死亡的案件,不得不讓人們對人工智能時代的到來增添了新的疑慮。
這個案件中,生產(chǎn)自動駕駛汽車的Uber公司之所以無責(zé),是因為由其公司研發(fā)、設(shè)計的自動駕駛系統(tǒng)在撞人前已發(fā)現(xiàn)受害者,但因系統(tǒng)設(shè)置的原因,在該計算機控制模式下車輛無法自動開啟緊急剎車,剎車的控制權(quán)由隨行的安全駕駛員享有。所以,監(jiān)控這輛車的司機可能要為此次事故買單,因為在事故發(fā)生前,司機一直在用手機觀看電視節(jié)目,如果駕駛員克盡審慎義務(wù),該事故“完全可以避免”。但問題是,讓司機擔(dān)責(zé),司機會不會感到冤枉呢?因為這是“無人駕駛”的汽車,他的責(zé)任至少不同于日常的普通汽車吧,否則還叫什么“無人駕駛”。所以,對“無人駕駛”汽車的司機追究交通肇事犯罪的刑事責(zé)任就必然受到了阻力。
隨著人工智能化的進一步發(fā)展,自動駕駛技術(shù)的終極目標(biāo)是徹底取消駕駛員的位置,以期做到完全性的無人駕駛。到那時,如果產(chǎn)生類似今天的交通事故,法律又將如何追責(zé)?
無人駕駛技術(shù)必然會要求人工智能在適當(dāng)時刻超出設(shè)計和編制的程序規(guī)范并做出決策,以處理瞬息多變的交通狀況,這就使其具備了與人相似的辨認和控制能力,也就可能造成一定的法益侵害結(jié)果,因而依然存在刑事追責(zé)的可能性。
然而,人工智能所做出的行為,主要屬于技術(shù)而非法律、道德范疇。單純從刑事責(zé)任產(chǎn)生的依據(jù)和目的來看,人工智能難以成為刑事責(zé)任主體。譬如,道義責(zé)任論認為法律人格的必備要件是意志自由,如果犯罪主體不具有意志自由,不具備人腦的認識和意志功能,對交通法規(guī)等規(guī)范并不能完全理解,那么無法在道義層面上對其予以譴責(zé),刑罰手段對其就毫無意義,更沒有教育感化的可能。
另外,刑罰的種類主要包括人身刑與財產(chǎn)刑。對于智能機器人來說,因為不存在實體和生命,人身刑對其并沒有什么影響;而且智能機器人不同于自然人或單位,不需要也不享有財產(chǎn)權(quán),財產(chǎn)刑也無法適用。
不過,隨著人工智能不斷升級發(fā)達,人工智能終究會具備類似于人類的辨認、控制能力,而辨認、控制能力與犯罪故意、過失的產(chǎn)生息息相關(guān)。故意由認識因素和意志因素組成,在認識上要明知自己的行為必然或者可能會產(chǎn)生危害社會的結(jié)果,“可能會”在自動駕駛技術(shù)中是常常會遇到的情境。在意志因素方面,人工智能攝像、捕捉系統(tǒng)能夠識別駕駛過程所面臨的危險,而且能夠通過方案推演模型做出相應(yīng)的決策,如果人工智能已經(jīng)認識到自己的行為會產(chǎn)生危害結(jié)果,仍然選擇做出操作,就構(gòu)成了刑法上要求的“希望”或者“放任”的心態(tài),也就產(chǎn)生了相應(yīng)的“故意”和“過失”。
比如,人工智能自動駕駛車輛到分岔路口,發(fā)現(xiàn)近路上有一群人,如果為了準(zhǔn)時將乘客送達目的地而選擇撞上人群,就屬于直接故意;如果認識到可能撞上人群,依然選擇走近路,就構(gòu)成間接故意。又如,人工智能自動駕駛車輛到路口,因為處理識別紅綠燈等其他數(shù)據(jù)而忽略到闖紅燈的行人,則屬于疏忽大意的過失;如果智能機器人已經(jīng)預(yù)測到可能會撞到行人,但通過一般性計算,相信自己不會撞到,而實際上發(fā)生了撞傷行人的后果,就屬于過于自信的過失。
但即使人工智能具備了類似刑法規(guī)定的責(zé)任條件,如何處罰“自動駕駛”的犯罪主體,恐怕還是離不開人類自身這一主體。
針對可能出現(xiàn)的自動駕駛肇事帶來的法律責(zé)任問題,追究設(shè)計者、監(jiān)管者或者使用者的責(zé)任更為現(xiàn)實。不可否認,人工智能可以替代越來越多人類實行的操作行為,在一定程度上就可擁有獨立的法律人格,如果因最初設(shè)計缺陷引發(fā)交通事故,造成了嚴(yán)重危害社會的結(jié)果,就應(yīng)當(dāng)追究設(shè)計者的責(zé)任;如果是管理或者使用者監(jiān)管失職或者操作使用不當(dāng),則要追究監(jiān)管者或者使用者的責(zé)任。不過,相關(guān)的罪名和責(zé)任形式可能需要進行新的補充修改和完善。
我們不妨再做一點想象,如果機器人時代發(fā)展到了機器人與人類共同在大街馬路上行走,到那時,法律和規(guī)則恐怕就要人類與機器人共同制定修改了。刑法也必將邁入“科幻”時代,交通與犯罪問題也勢必會發(fā)生巨大的改變。(作者系同濟大學(xué)法學(xué)教授)