當前位置:
首頁 > 新聞 > 視頻解讀 | 對抗攻擊:騙過神經網路,改變一個像素就夠了

視頻解讀 | 對抗攻擊:騙過神經網路,改變一個像素就夠了

?每周一條油管頻道 Arxiv Insights 視頻

雷鋒網:原標題"How neural networks learn" - Part II: Adversarial Attacks,視頻、文章由雷鋒字幕組編譯。

翻譯 | 劉寧 校對 | 凡江 整理 | 吳璇

當下的圖像識別技術看似愈發成熟了,但神經網路還是會犯錯,特別是碰到人為偽造圖片時,神經網路基本識別無能:

比如你只要帶上這幅特製3D眼睛,在神經網路的眼裡,你就算已經化成灰了,他根本識別不出來你是誰。

視頻解讀  | 對抗攻擊:騙過神經網路,改變一個像素就夠了

再比如你偽造個車牌,神經網路直接就懵了,基本上全世界的交通攝像頭都識別不出來你是真是假。

視頻解讀  | 對抗攻擊:騙過神經網路,改變一個像素就夠了

想要騙過神經網路,也不要什麼超高伎倆,隨便動動手腳,在原圖上增加一點噪音,或是更改一些像素點就成了。但是想騙過人類就難了,我們通常都能知道某張圖是偽造的或是人為製作出來的。

假如我們輸入一張熊貓的圖片,通過卷積神經網路的計算,它被歸類為是熊貓。神經網路的運作過程是:在神經網路輸出層中隨機選擇輸出神經元(並非代表熊貓的神經元)→將梯度下降法運用於輸入熊貓圖片的像素點→最大限度地激活目標神經元。但是,如果我們採用調整輸入圖片像素值,就能騙過神經網路,從而得到錯誤的分類。

對抗樣本不僅可以用於計算機視覺領域,還可以用於自然語言處理領域。像在Amazon,booking,TripAdvisor等網站的信息,大多源於用戶在網站上反饋的評價,評價通常會用感情分析來處理和匯總。僅僅修改評價中的幾個字,就能完全反轉模型對情感的判斷。

本視頻將介紹對抗攻擊及其防禦的相關知識,並從以下幾個方面介紹:

  • 什麼是對抗樣本?

  • 對抗樣本出現在哪些場合?

  • 對抗樣本有什麼特性?

  • 如何防禦對抗樣本?

視頻講解通俗易懂,有興趣鑽研的童鞋可以參考 產生和防禦對抗樣本的新方法 | 分享總結。

雷鋒網提供視頻原址:https://www.youtube.com/watch?v=4rFOkpI0Lcg&t=902s

更多文章,關注雷鋒網,雷鋒字幕組(leiphonefansub)精選YouTube視頻編譯,帶大家用碎片時間閱覽前沿技術,了解 AI 領域的最新研究成果。

視頻解讀  | 對抗攻擊:騙過神經網路,改變一個像素就夠了

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

如何在Keras中開發神經機器翻譯系統?

TAG:雷鋒網 |