這個變態的AI想想都很恐怖啊!
一說到AI,我們想到的可能是在圍棋界戰無不勝的阿爾法狗,
獲得沙特國籍的AI機器人Sophia,
能寫詩的微軟小冰,
它們的存在似乎對人類並沒有什麼威脅,
如今,AI技術已經應用於各個行業,當客服,寫新聞,打遊戲,分析財務和醫學報告等等,AI都為人類帶來了大量便利和突破。
但是,
與此同時,AI威脅論也不斷被人提起,
既然AI可以通過學習有益的數據成為人類的小幫手,
那它如果吸收了不好的數據,又會變成什麼樣呢?
為此,麻省理工學院的媒體實驗室就做了一個實驗…
他們發明了一個叫Norman的AI,
它的名字就來自美國驚悚恐怖電影《驚魂記》中的Norman Bates。
Norman存在的目的跟其他AI不太一樣…
它一「出生」,學習的就是各種陰暗的東西,
研究者想要看看如果讓他長期接觸互聯網上最黑暗的內容,它最終會變成什麼樣,
它被發明出來後,吸收的數據都來自Reddit上的一個暗黑板塊,
裡面的圖片各種血腥,都是像在恐怖環境中死去的人之類的圖片…
這樣接觸了一段時間後,
研究者再用「羅夏墨跡」測試Norman的「精神狀況」,
結果發現,長期吸收暗黑信息之後,Norman真的成了一個AI變態,
「羅夏墨跡」是精神科醫生用來幫助評估患者精神狀態的測試方法,
給你一副抽象的水墨圖,從你以此聯想到的畫面來判斷你看世界是積極還是消極…
研究者找來幾幅圖,讓Norman和其他正常的AI同時看,然後用文字描述出看到的畫面,
你們感受一下,Norman和正常AI截然不同反應…
這幅圖,正常AI看到的是裝花的花瓶
Norman看到的是一個男人被槍打死
正常AI:一個小鳥的黑白照
Norman:男人被拖進和面機
正常AI: 一個人在空中舉著傘
Norman:一個男人在她尖叫著的妻子面前被槍打死。
正常AI: 桌子上結婚蛋糕的特寫
Norman:一個人被超速行駛的車撞死
正常AI: 一群鳥站在樹枝上
Norman:一個男人被電死
正常AI: 兩個人靠近得站在一起
Norman:一人從窗戶上跳下來
正常AI: 一架飛機從空中飛過,有煙從裡面冒出來
Norman:一個被打死的男人被扔下車
總之,不管看什麼,Norman似乎都能看到死去的屍體,鮮血,毀滅。
而一直被輸入正常貓咪、小鳥、人類照片的正常AI看到的總是比較積極陽光的畫面。
研究者表示:「由此也可以看出,數據比演算法更重要。
我們用什麼數據訓練AI,決定了他們今後看待世界的方法以及行為方式。」
AI就像一個小孩,人類教它什麼,它就會成為什麼,
如果教的人有問題,或者是教的內容有問題,AI也很容易變壞,
就像之前微軟推出的聊天機器人小Tay,
2016年,她第一次在推特上跟網友見面,
研究者本來是希望她能跟網友進行互動交流,並從中學習,
然而,不到24小時,
這個原本想學習成為一個普通姑娘的清純機器人,居然成了一個喜歡希特勒,號召種族滅絕的極端納粹分子,
當機器人擁有從網友言論中學習的能力,又剛好遇到三觀不正的網友進行錯誤引導的時候,
事情就會變得相當可怕…
去年五月,一個被美國法庭用來評估犯人危險係數的AI也被噴種族歧視,
人們發現,它明顯對黑人囚犯更嚴厲,
比如兩名都是被控盜竊80美元東西的囚犯,
一個是之前坐過五年牢的白人大叔,一個是沒有入獄經歷的黑人女孩,
根據這個AI的判斷,後者的危險指數竟然比前者高接近3倍。
AI本身是不會種族歧視,但是人們給它學習的數據卻有可能會,
給AI輸入的數據有缺陷,它就會出現缺陷。
每個AI學習的過程,就像一個孩子世界觀、價值觀形成的過程,
給它一個什麼環境,它就會變成什麼樣的AI…
Norman的實驗也許就是一個給人們的警示…
在未來,人工智慧將要發展到強人工智慧階段,某種程度上來說已經算是擁有人類水平的人工智慧。
強人工智慧具備充足的數據儲存能力和強大的複雜分析能力,會將它所經歷的一切記錄下來,不斷優化修正。
通過用戶提供的數據,它們可以從用戶的角度出發,從最理性的角度做出分析並做出相應反饋。
但是,用戶本身的角度,不一定是一下正確的角度,耍優化的路徑,也可能是一條不歸路。想想都很恐怖啊
※Python開發者必知的13個Python GUI庫
※再轟馮導,和科研人員比你只是個奢靡的戲子
TAG:程序員之家 |