當前位置:
首頁 > 科技 > Goodfellow新研究:對抗樣例讓機器與人類雙雙上當

Goodfellow新研究:對抗樣例讓機器與人類雙雙上當

安妮 編譯自 arXiv

量子位 出品 | 公眾號 QbitAI

俗話說的好,耳聽為虛。但眼見……也不一定為實。

機器學習模型很容易受到對抗樣例的影響,一個圖片中的微小變化可能會讓模型將之認錯。

例子數不勝數。熊貓圖加上擾亂被判定為長臂猿,MIT研究讓谷歌AI將烏龜識別城步槍,香蕉圖上貼張貼紙就被識別成烤麵包機。

熊貓變長臂猿(上),烏龜變步槍(左下),香蕉變麵包機(右下)

在此之前,對抗樣例只能讓計算機上當。可怕的是,在Ian Goodfellow等人的最新研究中,對抗樣例也能騙過人眼了。

在下面這張圖像中,左邊是原圖,右邊是生成的對抗樣例。

計算機和被測試人類均認為左圖為一隻貓,而右圖的對抗樣例看起來更像一隻狗。

騙過機器騙人類,這是項什麼畫風奇特的研究?

在論文Adversarial Examples that Fool both Human and Computer Vision中,來自谷歌、斯坦福和UC伯克利的Gamaleldin F.Elsayed、Shreya Shankar和Ian Goodfellow等五人想調查計算機視覺模型中強遷移對抗樣例對人類視覺感知的影響,並藉助3種主要方法檢測對抗樣例對人類視覺系統是否存在明顯作用。

首先,研究人員用最近的黑盒對抗樣例構建技巧,在無法獲取模型體系結構和參數的情況下為目標模型創建對抗樣例。

之後,他們調整機器學習模型,模仿視覺處理過程,讓對抗樣例更有可能從模型轉移作用到人類。

最後,研究人員讓人類在時限性環境中對對抗樣例分類,因此即使人類感知的微小影響也可被檢測到。之後,研究人員評估結果是否準確。換句話說,當人類能在分類任務上準確度較高時,行為的細微變化可能並不與可測量的準確度變化對應。

在原圖為貓(最右)的情況下,隨著攻擊目標數量的增加,產生的圖像看起來更像狗

研究人員發現,在計算機視覺模型中傳遞的對抗性例子成功影響了被測試人類的感知。這似乎揭示了一種計算機視覺模型和人腦之間共享的新錯覺。

最後,附論文地址:

https://arxiv.org/abs/1802.08195

加入社群

量子位AI社群13群開始招募啦,歡迎對AI感興趣的同學,加小助手微信qbitbot5入群;

此外,量子位專業細分群(自動駕駛、CV、NLP、機器學習等)正在招募,面向正在從事相關領域的工程師及研究人員。

進群請加小助手微信號qbitbot5,並務必備註相應群的關鍵詞~通過審核後我們將邀請進群。(專業群審核較嚴,敬請諒解)

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 量子位 的精彩文章:

谷歌這個大殺器要讓英偉達慌了,實戰評測:TPU相比GPU簡直又快又省

TAG:量子位 |