當前位置:
首頁 > 科技 > 2016年人工智慧十大失敗:從種族主義到致命車禍

2016年人工智慧十大失敗:從種族主義到致命車禍

自動駕駛汽車、語音識別、機器翻譯……2016 年是見證機器學習研究和應用突飛猛進的一年,但與此同時,人工智慧也在這一年裡做出了一些可笑乃至可恨的事情。TechRepublic 今日發表了一篇文章《Top 10 AI failures of 2016》,總結了 2016 人工智慧十大失敗事件,機器之心對該盤點進行了編譯整理,並稍微進行了一點擴展。希望這篇文章能給你帶來對人工智慧的更為立體的了解。



2016年人工智慧十大失敗:從種族主義到致命車禍


圖:人工智慧選美比賽的獲勝者,該結果表現出了對非白人面孔的歧視(來源:Beauty.AI)


過去一年,可以說我們親眼見證了人工智慧的爆發:無人駕駛汽車上路、語音識別屢屢突破、機器翻譯更上層樓、人工智慧甚至還掌握了古老複雜的圍棋……看起來似乎人工智慧很快就將無所不能了。


但是,雖然人工智慧取得了如此之多的成功,但同時它也鬧出了很多笑話,其中一些事件更是冒犯了一些群體和個人。了解這些人工智慧的「失敗」案例,能夠幫助我們防微杜漸,預防未來可能出現的更嚴重的人工智慧失誤。路易斯維爾大學 Cybersecurity Lab 主任 Roman Yampolskiy 近日的一篇論文《Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures》概述了人工智慧「與這樣的系統被設計所表現的智能直接相關的」失敗的歷史。


據 Yampolskiy 表示,這些類型的失敗都可歸因於這些人工智慧系統在學習階段的錯誤或在表現階段的錯誤。

這裡 TechRepublic 所列舉的人工智慧十大失敗事件是根據 Yampolskiy 的論文和多位人工智慧專家的意見整理而成的。


1. 為預測未來犯罪所打造的人工智慧是種族主義的


Northpointe 公司開發了一個設計用來預測被指控的罪犯再次犯罪的幾率的人工智慧系統。這個被 Gawker 稱為「少數派報告類型」(借鑒自 Philip K. Dick 的一篇小說和衍生電影)的演算法被指控帶有種族偏見,因為相比於其它種族,黑人罪犯被標註為未來可能再次犯罪的概率要大得多。而另一家媒體 ProPublica 還發現 Northpointe 的演算法「即使不管種族上的問題,也通常不能有效地預測。」


2. 一個視頻遊戲中的非玩家角色創造出創造者規劃之外的武器


今年 6 月,一個加入了人工智慧的視頻遊戲 Elite: Dangerous 表現出了一些其創造者計劃之外的能力:該人工智慧有能力創造出超出遊戲設定之外的超級武器。據一家遊戲網站表示:「玩家會遭遇那些裝備有能將他們的戰艦粉碎的可笑武器的戰艦。」這些武器後來被該遊戲的開發者撤下了。

3. 機器人使一個兒童受傷


今年 7 月份,一個由 Knightscope 平台所創造的一個所謂的「打擊犯罪機器人(crime fighting robot)」在矽谷的一家商場里使一個 16 月大的男童受傷。洛杉磯時報援引該公司的話稱這場意外是一個「奇怪的事故(freakish accident)」。


4. 特斯拉 Autopilot 模式下的死亡


今年五月份,在佛羅里達的一條高速公路上,Joshua Brown 駕駛著一輛開啟了 Autopilot 模式的特斯拉與一輛拖車發生了碰撞並最終隕命。這是涉及該公司的第一例死亡事件。事故發生後,特斯拉已經發布了對其 Autopilot 軟體的重大更新,Elon Musk 聲稱該更新可以防止這樣的碰撞發生。此外今年也還出現了其它一些與 Autopilot 相關的死亡事故,包括發生在中國的一起,但這些其它事故並不與人工智慧的失敗直接相關。


5. 微軟的聊天機器人 Tay 發布種族主義、性別歧視和攻擊同性戀言論

為了和年輕的消費者搞好關係,今年春季的時候微軟在 Twitter 上發布了一個人工智慧驅動的聊天機器人 Tay。Tay 原本是為模仿一個十幾歲的美國青少年女孩而設計的,但在和用戶開放對話後不到一天的時間裡,它就變成了一個「熱愛希特勒、譏諷女權主義」的噴子。微軟很快就下線了 Tay,並宣布將會對 Tay 的演算法進行調整。另外提一點,近日微軟新的英語聊天機器人 Zo 又在 Kik 平台上線了(https://earlyaccess.zo.ai/),希望這一次它會表現更好吧。


6. 人工智慧評美有種族歧視


據大賽網站稱,在「首屆國際人工智慧選美大賽」上,基於「能準確評估人類審美與健康標準的演算法」的機器人專家組對面部進行評判。但由於未對人工智慧提供多樣的訓練集,比賽的獲勝者都是白人。就像 Yampolskiy 說的,「美人在模式識別器中」。


7.Pokémon Go 使得遊戲玩家集中到白人社區

7 月份,Pokémon Go 發布之後,多個用戶注意到極少的 Pokémon 位於黑人社區。據 Mint 的首席數據官 Anu Tewary 說,這是因為演算法的發明者沒有提供多樣的訓練集,在黑人社區上沒有花費時間。


8. 谷歌人工智慧 AlphaGo,敗給了李世乭一局


在 3 月份的圍棋大賽中,谷歌的人工智慧系統 AlphaGo 4 比 1 擊敗了韓國李世乭。失敗的一局表明人工智慧演算法如今還不完美。


新南威爾斯大學的人工智慧教授 Toby Walsh 說「看起來,李世乭發現了蒙特卡洛樹搜索中的一個弱點。」雖然被視為人工智慧的一次失敗,但 Yampolskiy 說此次失敗「可認為在正常操作規範之內。」


9. 中國的面部識別學習預測罪犯,有偏見


上海交通大學的兩個研究人員發表了一篇名為「Automated Inference on Criminality using Face Images」的論文。據 Mirror 報道,他們「將 1856 張面部圖片(一半是罪犯)饋送進電腦並進行分析」。在此研究中,研究人員總結說「有一些可識別的結構特徵來預測犯罪,比如唇曲率(lip curvature)、眼內角距(eye inner corner distance),以及所謂的口鼻角度(nose-mouth angle)。」領域內的許多人質疑這些結果和道德問題。


10. 保險公司使用 Facebook 數據觀察出現問題的概率,有偏見


今年,英格蘭最大的汽車保險商 Admiral Insurance 打算使用 Facebook 用戶的推文數據觀察社交網站與好司機之間的聯繫。


雖然這不是一次直接的失敗,確是對人工智慧的濫用。Walsh 說「Facebook 在數據限制上做的很好」。這一被稱為「first car quote」的項目未能落地,因為 Facebook 限制該公司獲取數據,援引條款稱國營企業不能「使用來自 Facebook 的數據做關於資質的決策,包括支持或反對一項應用,以及貸款利率應該提多少等。」


在以上案例的證明下,人工智慧系統極其傾向於有偏見。在多樣的數據集上訓練機器學習演算法,從而避免偏見變得極其重要。隨著人工智慧能力的增加,確保研究的適當檢測、數據多樣性和道德標準也更為重要。


機器之心編譯


請您繼續閱讀更多來自 機器之心 的精彩文章:

Science:實用量子計算機已近在咫尺
你是如何識別人臉的?MIT科學家用機器學習再現了其中的神經過程
好機器人是什麼樣的?為機器人評估設定統一標準
技術:斯坦福科學家無線操縱小鼠
為何機器人無法理解諷刺?

TAG:機器之心 |

您可能感興趣

100天里100萬人被殺的1994年盧安達種族大屠殺
15個種族少於50人的部落
慘絕人寰的盧安達大屠殺,100萬人死亡,一個種族的滅絕
非洲神奇種族,女人8歲生子,20歲當外婆或奶奶,30多歲死亡
世界上最聰明的種族,0.3%人口拿22.35%諾貝爾獎,厲害
800多歲是老龜近年繁殖力爆表,成功挽救其種族
建立在屠殺上的國家:實行種族滅絕政策,2500萬人被屠殺
美國弗州白人種族主義者集會爆衝突 已致1死34傷
美國要完!7500萬美國人支持種族分裂
即將消失的種族,全球10大稀有人種
近14000人簽名抵制《死亡筆記》電影 因種族歧視?
她走過30個國家拍下300多種照片,只為消除種族歧視
2017年俄羅斯漫展 種族天賦,真棒啊!
將近14000人簽名抵制《死亡筆記》電影 因種族歧視?
13歲的黑人女孩 衝破種族歧視勵志成為世界名模
100年後,《亂世佳人》因種族歧視,被美國人下映了!
美國12年扔67顆核彈 毀滅一個種族 為做紀念 發明了比基尼
這隻表情包界最知名的青蛙,年僅12歲就死於「種族歧視」
患老年痴呆的16歲日本柴犬,和它5歲真命天貓的「超種族愛情」