當前位置:
首頁 > 新聞 > 98%都認錯,圖像識別AI遇上對抗性圖像竟變「瞎子」

98%都認錯,圖像識別AI遇上對抗性圖像竟變「瞎子」

新智元報道

來源:theverge

編輯:張佳、大明

【新智元導讀】在視覺方面,AI和人類的差距有多大?來自UC Berkeley等高校的研究人員創建了一個包含7500個「自然對抗實例」的數據集,在測試了許多機器視覺系統後,發現AI的準確率下降了90%!在某些情況下,軟體只能識別2%-3%的圖像。這樣的AI若用在自動駕駛汽車上,後果不敢想像!

近幾年來,計算機視覺有了很大的改善,但仍然有可能犯嚴重的錯誤。犯錯如此之多,以至於有一個研究領域致力於研究AI經常誤認的圖片,稱為「對抗性圖像」。可以把它們看作計算機的光學錯覺,當你看到樹上有一隻貓時,人工智慧看到了一隻松鼠。

AI把爬上樹的貓誤認為松鼠

研究這些圖像是很有必要的。當我們把機器視覺系統放在AI安全攝像頭和自動駕駛汽車等新技術的核心位置時,我們相信計算機和我們看到的世界是一樣的。而對抗性圖像證明並非如此。

對抗性圖像利用機器學習系統中的弱點

但是,儘管這個領域的很多關注點都集中在那些專門設計用來愚弄AI的圖片上(比如谷歌的演算法把3D列印的烏龜誤認為是一把槍),但這些迷惑性圖像也會自然的出現。這類圖像更令人擔憂,因為它表明,即便不是我們特意製作的,視覺系統也會犯錯。

谷歌AI誤認為這隻烏龜是槍

為了證明這一點,來自加州大學伯克利分校、華盛頓大學和芝加哥大學的一組研究人員創建了一個包含7500個「自然對抗實例」(natural adversarial examples)的數據集,他們在這些數據上測試了許多機器視覺系統,發現它們的準確率下降了90%,在某些情況下,軟體只能識別2%-3%的圖像。

下面就是一些「自然對抗實例」數據集的例子:

AI眼中是「沉船」,其實是蟲子爬在枯葉上

AI眼中是「火炬」

AI眼中是「瓢蟲」

AI眼中是「日晷」

AI眼中是「棒球運動員」

AI眼中是「人開卡丁車」

這些數據有望幫助培養更強大的視覺系統

在論文中,研究人員稱這些數據有望幫助培養更強大的視覺系統。他們解釋說,這些圖像利用了「深層缺陷」,這些缺陷源於該軟體「過度依賴顏色,紋理和背景線索」來識別它所看到的東西。

例如,在下面的圖像中,AI錯誤地將左側的圖片當作釘子,這可能是因為圖片的木紋背景。在右邊的圖像中,它們只注意到蜂鳥飼養器,但卻錯過了沒有真正的蜂鳥存在的事實。

下面的四張蜻蜓照片,AI在顏色和紋理上進行分析後,從左到右依次會識別為臭鼬、香蕉、海獅和手套。我們從每張圖片中都可以看出AI為什麼會犯錯誤。

AI系統會犯這些錯誤並不是新聞了。多年來,研究人員一直警告說,利用深度學習創建的視覺系統是「淺薄」和「脆弱」的,它們不會像人一樣靈活地理解世界上的一些幾乎相同的細微差別。

這些AI系統在成千上萬的示例圖像上進行了訓練,但我們通常不知道圖片中的哪些確切元素是AI用於做出判斷的。

一些研究表明,考慮到整體形狀和內容,演算法不是從整體上看圖像,而是專註於特定的紋理和細節。本次數據集中給出的結果似乎支持這種解釋,例如,在明亮的表面上顯示清晰陰影的圖片,會被錯誤地標識為日晷。

AI視覺系統真的沒救了?

但這是否意味著這些機器視覺系統沒得救了?完全不是。一般這些系統所犯的錯誤都是小錯,比如將排水蓋識別為沙井,將貨車誤認為豪華轎車等。

雖然研究人員說這些「自然對抗性的例子」會騙過各種各樣的視覺系統,但這並不意味著可以騙過所有系統。許多機器視覺系統非常專業,比如用於識別醫學掃描圖像中的疾病的那些專門系統。雖然這些系統有著自己的缺點,可能無法理解這個世界和人類,但這並不影響它們發現並診斷癌症。

機器視覺系統有時可能會很快且有瑕疵,但通常都會產生結果。這樣的研究暴露了機器成像研究中的盲點和空白,我們下一步的任務就是如何填補這些盲點了。

論文地址:

https://arxiv.org/pdf/1907.07174.pdf

代碼和數據集:

https://github.com/hendrycks/natural-adv-examples

https://www.theverge.com/2019/7/19/20700481/ai-machine-learning-vision-system-naturally-occuring-adversarial-examples

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

超強平衡!雙足機器人Cassie玩轉高難度漂移板
MIT校長勇發全校公開信:為華裔成員的處境深感心碎

TAG:新智元 |