當前位置:
首頁 > 科技 > 2016年十大AI敗筆:人工智慧選美、AlphaGo敗局上榜

2016年十大AI敗筆:人工智慧選美、AlphaGo敗局上榜

2016年十大AI敗筆:人工智慧選美、AlphaGo敗局上榜



【AI世代編者按】過去一年,人工智慧技術正在復興。無人駕駛、語音識別,以及成為圍棋大師的AlphaGo都反映了人工智慧的快速發展。然而我們也要注意到,人工智慧可能會出現問題。我們需要從中吸取經驗,避免未來更多的錯誤。

近期,路易斯維爾大學信息安全實驗室主任羅曼·雅博爾斯基(Roman Yampolskiy)在一篇論文中總結了人工智慧遭遇的失敗,這些問題與「人工智慧系統設計帶來的問題直接相關」。


雅博爾斯基表示,這些問題可以歸因於人工智慧系統學習或應用階段的失誤。


根據雅博爾斯基和其他多名專家的介紹,TechRepulice網站總結了2016年人工智慧的10大敗筆。


1、用於預測犯罪的人工智慧變成了種族主義者

2016年十大AI敗筆:人工智慧選美、AlphaGo敗局上榜



Northpointe開發了一款人工智慧系統,能預測有案底的罪犯再次犯罪的可能性。這被認為存在種族歧視傾向:系統一般認為,黑人罪犯再次犯罪的風險更高。


另一家名為ProPublica的媒體評論稱,無論罪犯是什麼種族,Northpointe的軟體「通常都不能實現有效的預測」。


2、電子遊戲中的NPC製造出了突破原計劃的武器

2016年十大AI敗筆:人工智慧選美、AlphaGo敗局上榜



今年6月,一款名為《Elite: Dangerous》的電子遊戲發生了出乎意料的事件。人工智慧在遊戲中開發出了超級武器,突破了遊戲設計。根據一家遊戲網站的報道,「玩家被拉進戰鬥中,而對方的艦船配備了可笑的武器,會將玩家撕成碎片」。遊戲開發者隨後將這些武器下線。


3、機器人誤傷幼童

2016年十大AI敗筆:人工智慧選美、AlphaGo敗局上榜


今年7月,Knightscope平台開發的「打擊犯罪機器人」在矽谷一家購物中心撞上了一名16個月大的幼童。


根據《洛杉磯時報》的報道,該公司表示,這是一起「奇怪的事故」。


4、特斯拉Autopilot模式引發的事故

2016年十大AI敗筆:人工智慧選美、AlphaGo敗局上榜



今年5月,在佛羅里達州高速公路上,特斯拉Model S車主約書亞·布朗(Joshua Brown)在啟用Autopilot模式時撞上了一輛半掛卡車而身亡。這是Autopilot引發的首起致命事故。


在這起事故發生後,特斯拉宣布了對Autopilot的軟體升級,而特斯拉CEO伊隆·馬斯克(Elon Musk)宣布,這將避免未來的碰撞事故。


特斯拉隨後還發生了多起與Autopilot相關的事故,包括一起在中國的事故。不過,這些事故並非直接由於人工智慧系統的缺陷。


5、微軟聊天機器人Tay發表了種族歧視和性別歧視言論

2016年十大AI敗筆:人工智慧選美、AlphaGo敗局上榜



為了吸引年輕用戶,微軟今年春季在Twitter平台上推出了基於人工智慧的聊天機器人Tay.ai。Tay模擬了十幾歲的年輕女孩。


然而在上線幾天後,Tay開始發表「支持希特勒,存在性別歧視」的言論。


微軟隨後將Tay下線,並表示將對其演算法進行優化。


6、基於人工智慧的選美大賽出現了種族歧視

2016年十大AI敗筆:人工智慧選美、AlphaGo敗局上榜



在「首次由人工智慧評判的國際選美大賽」中,一個機器人小組對參賽者面部進行評判。


根據大賽網站的介紹,「這些演算法能基於對人類容貌和健康的感知進行準確評判」。


然而,由於未能給人工智慧提供多元化的訓練數據,大賽的勝出者全部是白人。


雅博爾斯基指出,「選美已變成了一種模式識別」。


7、《Pokemon Go》讓遊戲玩家更多地前往白人社區

2016年十大AI敗筆:人工智慧選美、AlphaGo敗局上榜



在今年7月發布後,多名用戶注意到,很少有口袋妖怪會出現在黑人社區。


Intuit的Mint首席數據官安努·特維里(Anu Tewary)表示,這是由於演算法的開發者未能提供多元化的數據集,也沒有在這些社區花時間。


8、谷歌AlphaGo在第四盤棋中輸給李世石

2016年十大AI敗筆:人工智慧選美、AlphaGo敗局上榜



2016年3月,在五盤三勝的圍棋比賽中,谷歌人工智慧系統AlphaGo在第四盤中輸給了18次圍棋世界冠軍李世石。儘管AlphaGo最終贏得了系列比賽,但李世石贏下一盤也表明,人工智慧演算法還不是無懈可擊。


新南威爾士大學人工智慧教授托比·威爾斯(Toby Wales)表示:「李世石似乎找到了蒙特卡洛樹搜索中的弱點。」儘管這或許可以算作人工智慧的一次失敗,但雅博爾斯基指出,這樣的失敗「可以被認為是正常發展過程中的一部分」。


9、中國的面部識別研究成果能預測罪犯,但出現了歧視現象

2016年十大AI敗筆:人工智慧選美、AlphaGo敗局上榜



上海交通大學的兩名研究人員發表了題為「利用頭像照片對犯罪進行自動推理」的研究。根據《鏡報》的報道,他們向計算機輸入了1856人的頭像照片(其中一半是罪犯的頭像),並進行分析。


研究人員總結稱,計算機識別了「一些特定的結構化特徵,例如嘴唇弧度、雙眼內側間距,以及鼻子和嘴的角度,從而對犯罪進行預測」。許多人對這一研究結果及其道德意義提出質疑。


10、保險公司利用Facebook數據判斷業務,但出現了歧視現象


今年,英國最大車險公司Admiral Insurance嘗試利用Facebook數據去判斷,用戶在社交媒體網站上留下的記錄與駕駛行為之間是否存在關聯。


儘管這並不是人工智慧的失敗,但實際上是對人工智慧的誤用。這一項目並未得以推進,因為Facebook阻止Admiral Insurance獲取其數據。


Facebook的政策顯示,企業不得「利用從Facebook獲得的數據去做合格性決策,包括是否批準保險申請,以及貸款利息是多少」。


以上案例表明,人工智慧系統很可能出現歧視的傾向。因此,我們必須向機器學習演算法提供足夠多元化的數據,以避免這種現象的出現。


隨著人工智慧越來越強大,確保適當的檢查、多樣化的數據,以及研究中的道德標準將非常關鍵。(編譯/陳樺)


請您繼續閱讀更多來自 大河網 的精彩文章:

中國國家博物館藏戰國龍虎紋盤賞析
廣東一企業捐贈2500萬助力翰墨薪傳全國中小學書法師資培訓項目
英國盜賊扮成假人模特 待商店關門後大肆搜掠
英國女子為買時髦嬰兒車欲拍賣項鏈 不知竟是古董
「構造」與「外力」:盆地形成原因大探秘

TAG:大河網 |

您可能感興趣

德隆轟35+7+9+10哈登維斯附體? 超神3+1難挽敗局
Lumia宣告終結 微軟想用Surface Phone扭轉敗局
3分鐘向高空爬行10000米,日本這架戰鬥機差點扭轉了戰爭敗局
人生的10大敗局(希望你不在列)
日本手游廠商Gumi拆分VR新公司挽回敗局
大敗局21:中國差點出了個卡內基一樣的鋼鐵大王
天津女排發扣輸10分攔網贏7分 四人上雙難挽敗局
NBA小牛負灰熊遭4連敗,蘭多夫砍22分諾維茨基兩雙也無法挽回敗局!
魅族PRO7預約量不到堅果PRO一半,黃章敗局初顯?
殲20性能優異價格公道實在:美軍重啟F22生產線也難挽回敗局
諾基亞打出復古王牌 3310復刻版能否挽回敗局
日本經濟敗局已定,80%的石油運輸線路途經中國!
日本人看敗局已定,11萬日本女人連忙嫁給中國人,如今滿口東北話
晉江30年之敗局調查:還記得德爾惠、喜得龍、金萊克這些名字嗎?
中國女排0-3輸日本有冤屈!敗局早定?朱婷師妹怒吼隊友提氣
三百年的一個強盛國家 人口過億,皇帝的一句話註定敗局
敗局已定!詹姆斯恐將「NBA第一人」拱手杜蘭特
此國拖住美軍長達10年!武器裝備輪番上場終究難掩敗局
中東大國棋局,美國敗局已定!