當前位置:
首頁 > 新聞 > 神經網路可以被劫持?谷歌大腦研究員演示AI黑客行為

神經網路可以被劫持?谷歌大腦研究員演示AI黑客行為

本文由人工智慧觀察編譯

譯者:Sandy

計算機視覺演算法並不完美。上個月,研究人員證明了一個流行的對象檢測API可能會被愚弄,在一些情況下,演算法可以將貓識別為「瘋狂的被子」,「迷彩」,「馬賽克」和「拼湊圖」。當然,這還不是最糟糕的情況:它們還有可能被劫持,執行本不該做的任務。

谷歌的人工智慧研究部門Google Brain的研究人員在一篇名為《神經網路的對抗重組》的論文中,描述了一種本質是重新編程機器學習系統的對抗方法。這種轉移學習的新形式甚至不要求攻擊者指令輸出。

對此,研究人員表示:「我們的研究結果首次證明了針對神經網路重新編程的敵對攻擊的可能性。這些結果表明,深層神經網路帶有令人驚訝的靈活性和脆弱性。」

其工作流程是這樣的:攻擊者獲得了一個參與對抗神經網路的參數後,這個神經網路正在執行一個任務,然後以轉換為輸入圖像的形式引入干擾或對抗數據。當敵對的輸入被嵌入到網路中,他們就可以將其學習的特性重新設計為另一項新的任務。

科學家們在6個模型中測試了這個方法。通過嵌入來自MNIST計算機視覺數據集的操作輸入圖像,他們成功獲得了所有六種演算法來計算圖像中方塊的數量,而不僅僅是識別像"白鯊"或"鴕鳥"這樣的物體。在第二個實驗中,他們強迫其對數字進行分類。之後第三次測試,他們使用了識別來自cifar 10的圖像的模型,這是一個對象識別資料庫,而不是他們最初接受的ImageNet語料庫。

攻擊者可以利用此類攻擊進行計算資源竊取,舉個例子,在雲託管的照片服務中重新編程計算機視覺分類器,以解決圖像驗證碼或者挖掘加密貨幣。儘管論文作者並沒有在一個反覆出現的神經網路(一種通常用於語音識別的網路)上展開測試,但他們假設一個成功的攻擊可能會導致此類演算法會執行「大量的任務」。

研究人員表示:「對抗程序也可以被用作一種新的方式來實現更傳統的計算機黑客行為。」比如,隨著手機逐漸成為人們的AI助手,通過將手機暴露在敵對的圖像或音頻中,或許可以重新編輯某人的手機也是很有可能的。由於這些數字助理可以訪問用戶的電子郵件、日曆、社交媒體賬戶和信用卡等,這類攻擊產生的後果也會非常嚴重。

但幸運的是,這也不全然是一個壞消息。研究人員注意到,隨機神經網路似乎比其他神經網路更不容易受到攻擊,反而針對機器學習系統,這種敵對攻擊會更容易進行重新設計,並且更靈活、更高效。

即便如此,他們還是提醒到:「未來的研究應該解決敵對變成的特性與局限性,甚至是潛在的防禦方法。」

(文中圖片來自網路)

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 人工智慧觀察 的精彩文章:

對標亞馬遜!微軟推出無人商店自動結賬技術,欲與沃爾瑪合作
中國智能音箱爭奪戰,國外巨頭缺席BAT各有心思

TAG:人工智慧觀察 |