
這就是為什么我們有必要總結(jié)人工智能的失敗之處:這篇文章的目的不是貶低或嘲笑研究和開(kāi)發(fā)結(jié)果,而是看看哪里出了問(wèn)題,以便下次能做得更好。
所以,讓我們來(lái)總結(jié)一下2018年的10大人工智能失敗案例。
1
中國(guó)著名企業(yè)家被誤識(shí)為交通違紀(jì)人員
中國(guó)的主要城市目前已經(jīng)在使用人工智能來(lái)解決亂穿馬路的問(wèn)題。交通警察部門(mén)在十字路口部署了使用面部識(shí)別技術(shù)的智能攝像頭,以檢測(cè)和識(shí)別亂穿馬路的人,這些人的部分名字和面孔會(huì)被模糊地顯示在公共屏幕上。
然而,中國(guó)南方城市寧波的人工智能系統(tǒng)最近上演了尷尬一幕,因?yàn)樗e(cuò)誤將一位亂穿馬路的人“識(shí)別”成了中國(guó)著名企業(yè)家董明珠。這一錯(cuò)誤迅速傳遍了中國(guó)各大社交媒體,寧波警方為此道歉。但董明珠并不擔(dān)心,還在微博上寫(xiě)道:“誤拍是小事。平安重要。”
CloudWalk深度學(xué)習(xí)研究員Zhou Xiang告訴Synced,問(wèn)題可能出在缺乏實(shí)時(shí)檢測(cè)上。“在這個(gè)距離的情況下進(jìn)行實(shí)時(shí)檢測(cè)還是有一定困難的,雖然將圖像識(shí)別為真人現(xiàn)在非常普遍。”
2
Uber的自動(dòng)駕駛汽車(chē)肇事致行人死亡
2018年3月28日,美國(guó)亞利桑那州Tempe市,一輛Uber自動(dòng)駕駛SUV撞倒一名女性行人,導(dǎo)致其死亡。Uber的車(chē)輛當(dāng)時(shí)處于自動(dòng)駕駛模式。
Uber發(fā)現(xiàn),自動(dòng)駕駛軟件在汽車(chē)傳感器檢測(cè)到行人后決定不采取任何制動(dòng)。美國(guó)國(guó)家運(yùn)輸安全委員會(huì)(US National Transportation Safety Board)對(duì)這起事故的初步調(diào)查報(bào)告顯示,Uber的自動(dòng)駕駛模式使Volvo工廠安裝的自動(dòng)緊急制動(dòng)系統(tǒng)失效。
這場(chǎng)悲劇發(fā)生后,Uber暫停了在北美城市的自動(dòng)駕駛測(cè)試,Nvidia和Toyota也停止了在美國(guó)的自動(dòng)駕駛公路測(cè)試。事故發(fā)生8個(gè)月后,Uber宣布計(jì)劃恢復(fù)匹茲堡的自動(dòng)駕駛公路測(cè)試,不過(guò)該公司未來(lái)的自動(dòng)駕駛愿景仍不確定。
3
IBM的Watson 系統(tǒng)在醫(yī)療方面力有不逮
根據(jù)Stat獲得的內(nèi)部文件,佛羅里達(dá)州Jupiter醫(yī)院的一名醫(yī)生在談到IBM的旗艦人工智能程序Watson時(shí)表示:“這款產(chǎn)品簡(jiǎn)直就是一坨屎。”IBM最初將Watson作為答錄機(jī)開(kāi)發(fā),后來(lái)也探索其在包括醫(yī)療在內(nèi)的廣泛應(yīng)用。2013年,IBM開(kāi)發(fā)了Watson在癌癥推薦療法方面的首個(gè)商業(yè)應(yīng)用程序,過(guò)去5年里,該公司與多家醫(yī)院和研究中心建立了合作關(guān)系。但Watson的AI能力并沒(méi)有給醫(yī)生留下深刻印象。一些人抱怨它在癌癥治療方面給出的錯(cuò)誤的建議可能會(huì)導(dǎo)致嚴(yán)重甚至致命的后果。
據(jù)報(bào)道,IBM在這個(gè)項(xiàng)目上花費(fèi)了數(shù)年時(shí)間,卻沒(méi)有取得重大進(jìn)展,現(xiàn)在該公司正在精簡(jiǎn)Watson醫(yī)療系統(tǒng),裁減該部門(mén)一半以上的員工。
4
亞馬遜的人工智能招聘軟件存在性別歧視
據(jù)報(bào)道,亞馬遜人力資源部在2014年至2017年期間使用了一款支持人工智能的招聘軟件,幫助審查簡(jiǎn)歷并提出建議。然而,該軟件被發(fā)現(xiàn)對(duì)男性求職者更有利,因?yàn)樗哪J绞歉鶕?jù)過(guò)去10年提交給亞馬遜的簡(jiǎn)歷進(jìn)行設(shè)計(jì)的,當(dāng)時(shí)亞馬遜聘用了更多的男性求職者。
據(jù)報(bào)道,該軟件會(huì)對(duì)簡(jiǎn)歷中含有“女性”字樣或暗示申請(qǐng)者是女性的簡(jiǎn)歷進(jìn)行降級(jí)。亞馬遜后來(lái)放棄了這款軟件。該公司沒(méi)有否認(rèn)使用該工具來(lái)提供推薦,但表示從未將該工具用于評(píng)估求職者。
5
DeepFakes暴露出人工智能不得體的一面
2017年12月,Reddit網(wǎng)上出現(xiàn)了一些國(guó)際頂級(jí)女星的色情視頻,原因是“DeepFakes”將明星的臉與色情視頻中女性的臉進(jìn)行了交換。雖然面部交換技術(shù)已經(jīng)發(fā)展了很多年,但DeepFakes的方法表明,任何擁有足夠多面部圖像的人,現(xiàn)在都可以制作出非常有說(shuō)服力的假視頻。
2018年,逼真的名人假視頻依舊充斥著互聯(lián)網(wǎng)。雖然從技術(shù)上講,這種方法不算“失敗”,但其潛在的危險(xiǎn)是嚴(yán)重而深遠(yuǎn)的——視頻證據(jù)不再可信可能會(huì)進(jìn)一步鼓勵(lì)虛假新聞的傳播。
6
Google Photo出現(xiàn)了bug
Google Photo可以自動(dòng)檢測(cè)具有相同背景或者場(chǎng)景的圖像并將它們合并成一張全景。今年1月,Reddit用戶(hù)“MalletsDarker”發(fā)布了三張?jiān)诨﹦俚嘏臄z的照片:兩張是風(fēng)景照,另一張是他朋友的照片。當(dāng)Google Photo將這三張照片合并在一起時(shí),就出現(xiàn)了下面這張搞笑的圖片。
社交媒體贊揚(yáng)了谷歌算法對(duì)圖像的巧妙混合,同時(shí)嘲笑了它在構(gòu)圖基礎(chǔ)方面的愚蠢。
7
LG的機(jī)器人Cloi遭遇滑鐵盧
LG的物聯(lián)網(wǎng)助手Cloi本應(yīng)于2018年1月8日在拉斯維加斯的國(guó)際消費(fèi)電子展(CES 2018)上大顯身手的。Cloi本來(lái)應(yīng)當(dāng)能夠識(shí)別控制家電的語(yǔ)音命令。然而,當(dāng)這款可愛(ài)的機(jī)器人進(jìn)行現(xiàn)場(chǎng)演示時(shí),觀眾們發(fā)現(xiàn)它沒(méi)有回應(yīng)LG營(yíng)銷(xiāo)總監(jiān)的指令,氣氛一度變得十分尷尬。
8
Boston Dynamics的機(jī)器人“意外”時(shí)刻
軟銀行旗下的機(jī)器人制造商Boston Dynamics今年不止一次在互聯(lián)網(wǎng)上出風(fēng)頭了——該公司生產(chǎn)的機(jī)器狗SpotMini可以用身上的機(jī)械臂靈活地開(kāi)門(mén);它的人形機(jī)器人Atlas也能做到跑酷了——順利地跳過(guò)一段圓木或者一系列40厘米的臺(tái)階卻不用減速。
但Boston Dynamics也有“糟糕”的時(shí)刻——在未來(lái)科學(xué)家和技術(shù)專(zhuān)家大會(huì)(Congress of Future Scientists and Technologists)上首次亮相時(shí),Atlas在一次演示中舉起了盒子,但正當(dāng)表演救贖準(zhǔn)備離開(kāi)時(shí),這個(gè)可憐的機(jī)器人被簾子絆倒了,笨拙地從舞臺(tái)上摔了下來(lái)。不過(guò),它摔倒的樣子倒也挺像人類(lèi)的。
9
人工智能對(duì)世界杯結(jié)果的預(yù)測(cè)幾乎全部錯(cuò)誤
2018年世界杯期間,高盛(Goldman Sachs)、德國(guó)多特蒙德理工大學(xué)(Technische University of Dortmund)、Electronic Arts、Perm State National Research University等機(jī)構(gòu)的人工智能研究人員利用機(jī)器學(xué)習(xí)模型預(yù)測(cè)了多階段比賽的結(jié)果。然而,大多數(shù)預(yù)測(cè)都完全錯(cuò)誤,只有EA正確地預(yù)言了冠軍是法國(guó)隊(duì)。EA游戲引擎由許多機(jī)器學(xué)習(xí)技術(shù)支持,這些技術(shù)旨在使玩家的表現(xiàn)盡可能逼真。
SQL Services數(shù)據(jù)科學(xué)家Nick Burns對(duì)此做出了解釋?zhuān)?ldquo;不管你的模型有多好,它們也只是建立在你數(shù)據(jù)的基礎(chǔ)上罷了……而近期的足球數(shù)據(jù)還不足以預(yù)測(cè)世界杯的表現(xiàn),有太多的信息缺失和未定義的影響存在。”
10
一家創(chuàng)業(yè)公司聲稱(chēng)可以從面部圖像預(yù)測(cè)智商
以色列一家機(jī)器學(xué)習(xí)領(lǐng)域的創(chuàng)業(yè)公司Faception聲稱(chēng)其人工智能技術(shù)可以分析面部圖像和骨骼結(jié)構(gòu),從而揭示人們的智商、個(gè)性,甚至暴力傾向。數(shù)據(jù)科學(xué)家Ben Snyder在Twitter上譴責(zé)該公司的技術(shù)說(shuō):“這是顱相學(xué)和種族歧視”。這條推文已經(jīng)被轉(zhuǎn)發(fā)了6500多次,點(diǎn)贊17000次。