當前位置:
首頁 > 科技 > 原來人工智慧機器人和人類一樣可以產生偏見

原來人工智慧機器人和人類一樣可以產生偏見

本文由騰訊數碼獨家發布

不僅僅是人類和動物能夠對外界和環境存有偏見,來自麻省理工學院和加的夫大學的心理學和計算機科學研究人員發現,人工智慧機器人同樣可以通過相互學習來產生偏見。

人工智慧常常與種族主義和性別歧視有著複雜的關係,我們已經看到以前的人工智慧表現出這種偏見,就像過去幾年裡我們看到的微軟聊天機器人所作所為一樣。然而根據這項研究表明,人工智慧其實本身就有可能形成偏見。研究人員表示:「一組自動機器人可以通過簡單地識別、複製和學習這種行為來表現出偏見。」

這些學者們建立了一個模擬遊戲,每個人工智慧機器人都根據每個機器人的聲譽和捐贈策略,選擇在自己的團隊或另一組中投票給另一個機器人。研究人員發現,機器人對來自其他群體的機器人出現越來越多的偏見。

在成千上萬的模擬實驗中,機器人通過在自己的群體中或在整個人群中相互複製來學習新的策略。研究發現,這些機器人在短期內會給它們帶來更好的回報,這表明高認知能力並不一定需要長時間的培養偏見。

「通過我們的模擬測試顯示,偏見是一種強大的自然力量,通過進化,它很容易在虛擬人群中受到激勵和刺激,從而損害與他人的更廣泛的聯繫,」該研究的共同作者之一、加的夫大學教授Roger Whitaker寫道。「保護不受審判前群體的保護,會在無意中導致個人形成更多的偏見意識,導致數量和觀點的分裂,而這種普遍的偏見很難逆轉。」

對於那些可能會問「為什麼我們不能和睦相處」的人來說,這是一種希望。在某些情況下,包括在一個群體中有更多不同的子群體,偏見程度較低。

「隨著更多的亞群體,非司法組織的聯盟可以在不被剝削的情況下進行合作。這也降低了他們作為少數群體的地位,減少了對偏見的敏感性。然而,這也需要一些情況,在這種情況下,代理人在團隊之外的互動中有更高的傾向,」Whitaker說。

在本周向美國國會發表的證詞中,Twitter首席執行官傑克·多爾西談到了人工智慧開發者在減少意外偏差方面的問題。除非開發人員和計算機科學家能夠弄清楚如何保持人工智慧,讓我們只希望機器人不會突然決定不喜歡我們人類面孔的外觀,尤其是當它們變得更加自主的時候。

來源:engadget


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 犀利懟數碼 的精彩文章:

能自動駕駛的伐木電動卡車 連四家駕駛艙都沒有
小米發布通用快充版無線充電器 可同時為多款設備充電僅售69元

TAG:犀利懟數碼 |