研究人員開發了一副反人臉識別的眼鏡,戴上它你就是另外一個人!
小明評測智能家居網訊:關心圖像識別研究的朋友可能知道,為了評估和改進AI的識別能力(魯棒性),研究人員會設計一些「對抗性」圖像,它們主要被用來欺騙機器視覺系統。
之前就介紹過麻省理工大學的一項研究,他們用演算法生成 「對抗性」圖像並將其附加到了3D列印模型上,之後用這些模型去騙谷歌的圖像分類AI。
測試的結果有多誇張呢?3D列印的烏龜玩具被認成了步槍,AI眼中的棒球竟然是一杯濃縮咖啡。
AI對3D物品的錯認足以引起我們對諸如自動駕駛、智能監控等系統的擔憂,因為這些都很依賴AI的圖像識別能力。而如果當下正受追捧的人臉識別技術也被「對抗性」圖像攻破,那麼我們日常生活中類似刷臉支付、刷臉過檢等行為豈不是存在著巨大的安全風險?
新的研究證明,這份擔心非常有必要。因為現在,能欺騙人臉識別系統的眼鏡已經出現了。
與一些浮誇的偽裝面具不同,它們看上去還比較普通。 圖片來源:Carnegie Mellon University(下同)
這副反面部識別眼鏡由美國卡耐基梅隆大學和北卡羅來納大學的研究人員合作開發,一共有五種。使用者戴上眼鏡後能夠成功騙過面部識別系統的「眼睛」。
一名男性在佩戴後被識別成了女演員米拉 · 喬沃維奇。而他的女同事則成功扮演了一個中東男人。
研究人員兼聯合開發者Mahmood Sharif在接受Vice採訪時說,眼鏡被設計用來誤導基於神經網路學習的面部識別系統,它成功騙過Face++的概率為90%。Face++是一款專註人臉檢測、分析和識別的軟體。
該面部識別軟體的神經網路是基於對人臉像素顏色的分析來猜測一個人的身份的,被測者臉上任何輕微的變化都會影響到整個識別系統。
Sharif表示,他們 通過優化演算法找到了可以躲過系統識別的眼鏡顏色,並且保證顏色可以平滑過渡(類似於自然圖像)。這些圖案會擾亂面部識別系統的感知,影響AI讀取它們的準確性。
研究人員透露,這種眼鏡可以由用戶自行列印出來。
目前,這些反面部識別眼鏡已經針對 VGG 和 OpenFace 深度神經網路系統進行了測試,結果顯示欺騙成功。
我們的研究表明,基於深度神經網路的面部識別是一種特殊的演算法, 可以被一個不做任何改變只是簡單戴了一副眼鏡的人所誤導。
也就是說,面部識別系統非常容易受到攻擊,試想如果反面部識別眼鏡被犯罪分子戴著的話,他們就能輕而易舉地逃過公共系統地監控或者以別人的身份進入某家公司。
不過,對這副眼鏡的評價很大程度上也取決於我們如何看待面部識別技術。一方面,注重隱私的人會對眼鏡的前景感到興奮, 因為它可以幫我們繞過公共場合的眾多監控。一個數據是,如果我們生活在一個城市地區,平均每天會被拍到70次, 並且還可以被面部識別技術認出來。
另一方面,面部識別也經常被用來保障我們的安全, 比如國內機場正在大量應用人臉識別系統進行安檢,以識別潛在的危險人物。
出於安全考慮,兩個大學的研究人員已經將他們的研究結果遞送給了自己國家的運輸安全管理局(TSA) , 並建議TSA考慮在未來安檢時,檢查乘客身上看似普通的物品, 比如眼鏡和珠寶等。因為這些小玩意兒可以被用來當作欺騙面部識別系統的工具。
"隨著社會對面部識別技術的依賴越來越強, 我們有時會忘記它可能失敗。在安全性要求高的場合里部署深度神經網路,我們需要更好地理解如何讓人臉識別在惡意干擾面前變得更強大。"研究人員在他們的論文中寫道。
論文最近發表在了arxiv.org上, 題目是《對抗性生成網路:對最先進人臉識別技術的神經網路進行攻擊》。


TAG:小明評測 |