當前位置:
首頁 > 最新 > 谷歌擬通過AI欺騙人類來讓機器學習從錯誤中吸收經驗

谷歌擬通過AI欺騙人類來讓機器學習從錯誤中吸收經驗

據外媒報道,讓機器人看到不存到的東西或完全讓其將圖像歸類錯誤也許是一場有趣、好玩的遊戲,但如果一套汽車的自動駕駛系統將一輛白色卡車錯認成一朵白雲時,這一切就跟好玩沒有任何關係了。

為了避免這樣的悲劇發生,谷歌的AI研究人員決定想辦法改變這種情況。據了解 ,這家公司正在對人類大腦和神經網路同時展開研究。

到目前為止,神經科學已經通過神經網路的建立來顯示其在AI領域上取得的進展。

現在,來自谷歌的一個研究團隊刊登了一份名為《欺騙人類和計算機視覺的對抗性例子(Adversarial Examples that Fool both Human and Computer Vision)》的白皮書。該項研究指出,用來欺騙AI的方法對人類大腦沒用。這意味著研究人員可以將人類大腦的這種更富彈性的特質應用到神經網路中。

去年,MIT研究人員對Google AI實施了抗性攻擊,他們要做的只是往一張圖像里嵌入一些簡單的代碼。為了達到這個目的,研究團隊讓神經網路相信它看到的是一把步槍,而實際上是海龜。估計年齡在3歲以上的孩子都知道這兩者的區別。

而之所以會出現這種情況其背後的原因並非來自Google AI本身,而是所有計算機的一個簡單缺陷,即沒有眼球。機器人無法「看到」世界,而只在處理圖像,這使得它們變得非常好欺騙。

為了解決這一問題,谷歌試圖弄明白人類對特定圖像處理形式擁有對抗性的原因。也許更重要的是搞明白究竟怎樣才能欺騙到人類的大腦。

白皮書寫道:「如果我們確切地了解到人類大腦能夠抵抗某種特定類型的對抗性例子,那麼這將成為機器學習中類似機制安全提供一個存在證明。」


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器學習 的精彩文章:

ARM公布機器學習新平台Trillium的更多細節
Martech Focus:2018年人工智慧和機器學習將成為CMO的必需品

TAG:機器學習 |