同時,在這一年,人工智能也闖了不少禍,我們需要對這些錯誤給予更多的關注,以免在未來重蹈覆轍。雷鋒網了解到,近日路易斯維爾大學網絡安全實驗室(Cybersecurity Lab) 的主任 Roman Yampolskiy 發表了一篇論文,名為《Artificial Intelligence Safety and Cybersecurity : a Timeline of AI Failures》 ,其中列出了人工智能在過去的一年里表現不太好的例子。 Yampolskiy 表示,這些失敗都可以歸因于 AI 系統在學習階段以及表現階段中犯的錯誤。
2016 年 AI 十大失敗案例有哪些?微軟 Tay、特斯拉車禍上榜
以下是依據 Yampolskiy 的論文以及諸多人工智能專家的意見,國外媒體 TechRepublic 整理而成的名單,排名不分先后。由雷鋒網編譯:
1. Pokémon Go 讓游戲玩家集中在白人社區
7 月份,風靡全球的 Pokémon Go 游戲發布之后,多個用戶注意到極少的 Pokémon 位于黑人社區。 Mint 的首席數據官 Anu Tewary 表示,原因是因為這些算法的發明者并沒有提供多樣的訓練集,而且并沒有花費時間在黑人社區上。
2. 特斯拉半自動駕駛系統的車禍
今年,特斯拉的事故在全世界范圍內層出不窮。5 月份,在佛羅里達的一條高速公路上,一輛開啟了 Autopilot 模式的特斯拉發生了車禍,駕駛員致死。這是特斯拉全球首例死亡事件。之后,特斯拉對 Autopilot 軟件進行了重大更新,其 CEO 馬斯克在接受采訪時表示這種更新可以防止事故再次發生。此外,在中國等其他國家和地區也出現了多次特斯拉事故。不過,其中一些事故并不能說是 AI 直接導致的。
3. 微軟聊天機器人 Tay 散布種族主義、性別歧視和攻擊同性戀言論
今年春天,微軟在 Twitter 上發布了一個人工智能驅動的聊天機器人 Tay,希望它能和網絡上的年輕人相處愉快。起初,Tay 是為了模仿十幾歲的美國青少年女孩而設計的,但在推出后不久卻被人帶壞了,變成了一個“熱愛希特勒、諷刺女權主義”的壞蛋。最終微軟不得不將 Tay “殺死”,并宣布將會對相關的算法進行調整。
4. 谷歌的AI 阿爾法狗 AlphaGo 輸了與人類圍棋大師李世石的一局
今年 3 月 13 日,谷歌阿爾法圍棋與李世石的人機大戰五番棋第四局在韓國首爾四季酒店戰罷,圍棋大師李世石中盤擊敗阿爾法,扳回一局。雖然最后人工智能還是以 1 比 3 的比分獲得了勝利,但是輸了的一局顯示目前的 AI 系統仍然不是很完善。
“或許李世石發現了蒙特卡洛樹搜索(MCTS)的弱點。” 新南威爾斯大學的人工智能教授 Toby Walsh 說道。不過,雖然這被看做是人工智能的失敗,但是 Yampolskiy 認為這種失敗是在可接受范圍內的。
5. 視頻游戲中,非玩家角色創造出了制作者意料之外的武器
今年 6 月份,一個配備了 AI 的視頻游戲“Elite: Dangerous ” 出現了一些游戲制造者計劃之外的狀況:AI 竟然造出了游戲設定之外的超級武器。一家游戲網站對此評論:“人類玩家或許會被 AI 創造的奇怪武器打敗。”值得一提的是,隨后游戲開發者就將這些武器撤銷了。
6. 人工智能審美也有種族歧視
在首屆“國際人工智能選美大賽”上,基于“能準確評估人類審美與健康標準的算法”的機器人專家組對面部進行評判。但由于未對人工智能提供多樣的訓練集,比賽的獲勝者都是白人。就像 Yampolskiy 說的,“美人在模式識別器中”。
7. 用 AI 預測犯罪,涉及種族歧視
Northpointe 公司開發出了一個用來預測被指控的罪犯二次犯罪幾率的人工智能系統。這個被稱為“少數派報告”的算法被指責帶有種族偏見傾向。因為在測試中,黑人罪犯被標注的概率遠遠高于其他人種。此外,另一家媒體 ProPublica 同時指出 Northpointe 的算法“即使除去種族歧視的問題,在大多數情況下正確率也并不高。”
8. 機器人導致一個兒童受了傷
Knightscope 平臺曾打造出了一個號稱是“打擊犯罪的機器人”。今年七月份,這個機器人在硅谷的一家商場里弄傷了一個 16 歲的少年。洛杉磯時報援引該公司的話稱這是個“意外的事故”。
9. 中國用面部識別技術來預測罪犯,這被認為是有偏見的
中國上海交大的兩名研究人員發表了一篇名為“Automated Inference on Criminality using Face Images”的論文。據國外媒體 Mirror 報道,研究人員對一半是罪犯的 1856 張面部圖片進行分析,并且用一些可識別的面部特征來預測罪犯,比如唇曲率 ( lip curvature ) 、眼內角距 ( eye inner corner distance),甚至還有口鼻角度 ( nose-mouth angle ) 等等。對于該項研究,許多業界人士質疑測試結果,并提出涉及了道德問題。
10. 保險公司利用 Facebook 大數據預測事故發生率
最后的這個案例來自英格蘭最大的汽車保險商 Admiral Insurance ,該公司今年計劃使用 Facebook 用戶的推文數據來測試社交網站和優秀司機之間的關聯。
這是對人工智能的濫用。Walsh 認為“ Facebook 在限制數據方面做得很出色”。由于 Facebook 限制該公司獲取數據,這項被稱作“first car quote”的項目并沒有開啟。
從上述案例中,雷鋒網的讀者可以看出,AI 系統是很容易變得偏激的。因此人類更需要在多樣化數據集上對機器學習算法進行訓練,避免 AI 產生偏見。同時,隨著 AI 的不斷發展,保證相關研究的科學檢測,確保數據多樣性,建立相關道德標準也變得越來越重要。