當前位置:
首頁 > 最新 > 教你兩種黑掉「人工智慧」的方法

教你兩種黑掉「人工智慧」的方法

翻譯 | AI 科技大本營

參與 | shawn

編輯 | Donna

近期,微軟(Microsoft)和阿里巴巴(Alibaba)先後宣布,其人工智慧系統在一項閱讀理解測試上打敗了人類。他們進行的是基於「標準問題回答數據集」(Stanford Question Answering Dataset ,SQuAD)的測試,用於回答維基百科的問題。

這一消息再度引起人們關於「 AI 搶走人類工作」的擔憂。AI 系統不僅可以識別圖像或音頻,還可以快速閱讀文本並回答相關問題,準確度已經達到人類水準。

不過,這些智能系統並不總是那麼「聰明」。開發深度學習網路和其他 AI 系統的專家發現,一旦嘗試檢驗系統是否擁有真正的認知能力,他們創造的系統幾乎全線潰敗。例如,在自動駕駛汽車還沒有裝上壓力檢測軟體之前,汽車完全無法避免一些嚴重的失誤。

據來自 MIT 的研究團隊 LabSix 的最新發現,研究人員只需略動「手腳」,就可以讓一個基於深度學習的圖像識別系統「失明」,比如將人當成狗,或者將烏龜認作步槍。

論文鏈接:

https://arxiv.org/pdf/1712.07113.pdf

https://arxiv.org/pdf/1707.07397.pdf

團隊成員 Anish Athalye 說:「在某些領域,神經網路擁有超越人類的能力。但是奇怪的是,我們仍然可以輕易地騙過它們。」

另外,谷歌的 AI 研究團隊——谷歌大腦(Google Brain Team)在去年12月發表的一篇論文中,描述了另一種可以使系統將香蕉識別為烤麵包機的方法。

論文鏈接:https://arxiv.org/abs/1712.09665

兩種讓機器「犯錯」的方法

LabSix 的方法是用演算法輕微修改圖像中每個像素的顏色和亮度。雖然這些修改並不明顯,但是卻可以使系統將圖像中的內容誤認為是另一種完全不同的東西。

Athalye 表示,偽裝對圖像的修改是為了「使其更像是現實中的攻擊」 。

「如果你在現實生活中看到有人在路上安了一個讓人產生幻覺的路標,你可能會認為那邊有問題,然後你會進行調查。更可怕的情況是,你認為你看到的是限速標誌,但你的自動駕駛汽車卻認為不是。」

谷歌大腦團隊則採用了另一種方法。他們創造出了一種可以迷惑深度學習系統並讓其無法注意其他對象的特殊圖像——對抗圖像(adversarial patch)。相比 LabSix 修改像素的方法,這種技術幾乎適用於任何場景。

「由於對抗圖像只能控制其所處的小圓圈中的像素,因此欺騙分類器的最佳方法是讓對抗圖像變得非常醒目。傳統的對抗攻擊是小幅修改某一張圖像中的所有像素。而我們的方法是大幅修改對抗圖像中的少數幾個像素。」谷歌員工 Tom Brown 在一封電子郵件中寫道。

對於烤麵包機來說,其對抗圖像必須可以從其他圖像中凸顯出來,而不是與其他圖像融合在一起。

在實驗中,研究人員將對抗圖像(adversarial patch)——看上去像是可以引起幻覺的烤麵包機——放在香蕉圖像旁,谷歌圖像識別系統將圖像中的香蕉誤認為是烤麵包機。(Adversarial Patch, 作者:Tom Brown 等人, arXiv:1712.09665v1)

為了適應實驗室外的環境,對抗圖像還必須能夠快速適應實際環境中的視覺干擾。

如果用先前一種方式,改變修改過後的圖像的方向或亮度,對抗圖像方法會變得完全不起作用。如果讓系統「從正面看」修改後的貓的圖像,它會將其識別為鱷梨醬;如果將圖像旋轉一些角度,系統又可以再次識別出貓。

相比之下,無論使用任何亮度或任何方向,谷歌的烤麵包機對抗圖像都可以騙過系統。「創造這種對抗圖像難度更高,因為它必須在很多不同的模擬場景中訓練對抗圖像,找出一個可以適用於所有場景的圖像。」 Brown 寫道。

仍然無法理解圖像的 AI

Athalye 和 Brown 進行的這項研究的目的都是為了找出人工智慧機器識別目前存在的缺陷。Athalye 猜想,對抗攻擊可能會讓自動駕駛汽車忽視停車標誌,也可能讓炸彈的X射線圖騙過機場包裹檢查系統。

其實,這兩項研究體現了機器識別的一個更嚴重的問題,那就是:它可以識別物體,但是無法理解這個物體是什麼,有什麼用處。

紐約大學心理學教授 Gary Marcus 長期以深度學習領域「打假者」的身份活躍在眾人視野中。在 AI 系統閱讀理解測試表現出色的新聞出來之後,他就在推特上進行了公開的批評:

「機器在測試中表現出的能力和真正的理解完全搭不上邊。SQuAD 測試表明機器可以標出文本中的相關內容,但是它無法理解這些內容。」

Marcus 還表示,機器被騙是因為「它不能全面地理解環境」。它也 「無法真正理解事物之間的因果關係,以及事物之間的相互作用及個中緣由」。

「我們需要開發出一種不同的 AI 架構,它不僅可以進行模式識別,還要擁有解釋能力。」

Marcus 建議,研究人員應該從認知心理學中獲取靈感,開發擁有更深層次理解能力的軟體,而不是用成百上千的示例來訓練 AI 系統。

不過,對於我們人類,這種 AI 系統沒有出現前,我們還是安全的——至少暫時是安全的。

作者 | Dana Smith

原文| https://www.scientificamerican.com/article/how-to-hack-an-intelligent-machine/

熱文精選


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI科技大本營 的精彩文章:

DeepMind科學家:AI對戰《星際爭霸》勝算幾何?

TAG:AI科技大本營 |