當前位置:
首頁 > 最新 > 騙過機器學習的對抗樣本,竟然連人也不放過

騙過機器學習的對抗樣本,竟然連人也不放過

星爺這個「好像」,用得實在太好了。

2017 年科學家終於解開了靈長類動物能夠識別面部的「代碼」,推翻了對於「大腦黑箱」的假設。

獼猴實驗表明,面部識別是由大腦中 200 多個不同神經元共同「編碼」合作完成,每個神經元對同一個面部的不同特徵參數進行處理組合。不過,科學家仍然不知道這一切是如何聯繫起來的。大腦依舊是迷。

我們反觀受到神經科學啟發的人工神經網路在機器學習中扮演了重要角色,突出的成就難掩演算法時不時犯一些低級錯誤的尷尬。

對抗樣本:AI 刺客

過去幾年人工智慧學者取得了巨大的突破,深度學習更是讓冷冰冰的機器「耳聰目明」,不僅能夠從視頻中認出貓,還能識別路上的行人和交通信號燈。

GIF

但是就像時間是人類的致命弱點,「對抗樣本」對機器學習而言,也是刺客一般的存在。

對抗樣本(adversarial example)是指通過添加干擾產生能夠導致機器學習模型產生錯誤判斷的樣本。舉個例子:

原圖為大熊貓,經過處理後的對抗樣本被識別為長臂猿。

忽悠 AI 的相似案例專家已經揭示過很多,我們也曾分享過圖像識別系統錯識道路指示牌:

GIF

谷歌圖像分類器把模型龜當成來複槍:

GIF

錯把行動的小貓當成顯示器等等。

GIF

最近研究者構造出連人能騙過的對抗樣本圖像:愚弄人類恐怕只要一瞬間。

騙人的演算法

GIF

上圖中的是貓是狗,似乎很容易判斷。那我們提高難度:

左邊是一隻貓的原圖,右邊是經過干擾(很像狗)的圖像,出自谷歌大腦 Ian Goodfellow 等人的最新論文《Adversarial Examples that Fool both Human and Computer Vision》。(地址見文章結尾)

機器學習模型很容易受到對抗樣本的愚弄,現在看來,連人都會受對抗樣本的影響。

論文中闡述了其中原理:研究者將對抗性從計算機視覺現有的模型及參數,遷移到新的模型中,對模型進行修改以接近人類視覺系統原理。

下圖中的狗就被用於生成新的圖像,誤導人進行判斷。

結果發現,通過人為遷移生成的對抗性圖片,能夠在有限時間內對人類識別產生影響。也就是說,這些對抗性圖片不僅對能騙過機器,同樣也會誤導人的判斷。

雖然對抗樣本欺騙人類的危害難以估量,不過可以肯定的是,機器學習的「坑爹技能」已經上線了。

論文地址 https://arxiv.org/pdf/1802.08195.pdf


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器學習 的精彩文章:

人工智慧及機器學習與深度學習揭秘
機器學習——歸納偏好

TAG:機器學習 |