視頻解讀 | 對抗攻擊:騙過神經網路,改變一個像素就夠了
?每周一條油管頻道 Arxiv Insights 視頻
雷鋒網:原標題"How neural networks learn" - Part II: Adversarial Attacks,視頻、文章由雷鋒字幕組編譯。
翻譯 | 劉寧 校對 | 凡江 整理 | 吳璇
當下的圖像識別技術看似愈發成熟了,但神經網路還是會犯錯,特別是碰到人為偽造圖片時,神經網路基本識別無能:
比如你只要帶上這幅特製3D眼睛,在神經網路的眼裡,你就算已經化成灰了,他根本識別不出來你是誰。
再比如你偽造個車牌,神經網路直接就懵了,基本上全世界的交通攝像頭都識別不出來你是真是假。
想要騙過神經網路,也不要什麼超高伎倆,隨便動動手腳,在原圖上增加一點噪音,或是更改一些像素點就成了。但是想騙過人類就難了,我們通常都能知道某張圖是偽造的或是人為製作出來的。
假如我們輸入一張熊貓的圖片,通過卷積神經網路的計算,它被歸類為是熊貓。神經網路的運作過程是:在神經網路輸出層中隨機選擇輸出神經元(並非代表熊貓的神經元)→將梯度下降法運用於輸入熊貓圖片的像素點→最大限度地激活目標神經元。但是,如果我們採用調整輸入圖片像素值,就能騙過神經網路,從而得到錯誤的分類。
對抗樣本不僅可以用於計算機視覺領域,還可以用於自然語言處理領域。像在Amazon,booking,TripAdvisor等網站的信息,大多源於用戶在網站上反饋的評價,評價通常會用感情分析來處理和匯總。僅僅修改評價中的幾個字,就能完全反轉模型對情感的判斷。
本視頻將介紹對抗攻擊及其防禦的相關知識,並從以下幾個方面介紹:
什麼是對抗樣本?
對抗樣本出現在哪些場合?
對抗樣本有什麼特性?
如何防禦對抗樣本?
視頻講解通俗易懂,有興趣鑽研的童鞋可以參考 產生和防禦對抗樣本的新方法 | 分享總結。
雷鋒網提供視頻原址:https://www.youtube.com/watch?v=4rFOkpI0Lcg&t=902s
更多文章,關注雷鋒網,雷鋒字幕組(leiphonefansub)精選YouTube視頻編譯,帶大家用碎片時間閱覽前沿技術,了解 AI 領域的最新研究成果。
TAG:雷鋒網 |