當前位置:
首頁 > 新聞 > 多倫多大學開發反人臉識別系統,識別成功率降至 0.5%

多倫多大學開發反人臉識別系統,識別成功率降至 0.5%

多倫多大學開發反人臉識別系統,識別成功率降至 0.5%

「刷臉」,作為一種個人身份鑒別技術,在深度學習等技術的護持下精度得以大幅提升,在LFW上,各大玩家在無限制條件下人臉驗證測試(unrestricted labeled outside data)中提交的成績普遍能夠達到99.5%以上。

人臉識別技術日益成熟的背後,作為自帶AI落地基因的安防行業(數據大、高試錯容忍度),這幾年,天網工程廣泛鋪開、智能系統全局應用,城市秩序得到了更為高效的管理和防護,民生需求得到了更為及時的處理和反饋,違反亂紀的行為能被精準識別和處罰。

與此同時,人臉識別系統的應用也頗受爭議。

在大洋彼岸的美國,亞馬遜因向美國執法機構提供人臉識別技術而遭到某聯盟的譴責。該聯盟表示,「亞馬遜以十分低廉的價格向美國警方提供人臉識別服務,可能會導致美國公民的私人數據被濫用及隱私遭到侵犯」。

在他們看來,將人臉識別技術應用到前端視頻監控攝像機上,可能會打破隱私及實用性之間的平衡。假設美國警方有若干台這樣的安防攝像機,同時擁有可疑人員的「黑名單」照片庫,那麼其他任何人如果與這些可疑人員有一些相像,一旦進入警察的安防攝像機的鏡頭之內,都有可能受到警務人員的盤問。而大多數美國人不希望生活在那樣的世界裡。

從這來看,技術應用的雙刃劍在人臉識別的落地上就得以體現,且不說人臉識別技術發展對於人類來說優多(安全)還是劣多(隱私),硬幣拋下落地的可能性還是得到了平衡。

近日,多倫多大學教授Parham Aarabi和他的研究生Avishek Bose開發了一種演算法,通過對圖像進行「光轉換」,可以動態地破壞人臉識別系統。

與上述聯盟控訴亞馬遜的理由一樣,這位大學教授也考慮到了隱私問題,「隨著人臉識別技術越來越先進,個人隱私成為了一個真正急需解決的問題,這就是反人臉識別系統被研發的原因,也是該系統的用武之地。」

根據Aarabi的說法,他們主要採用了對抗訓練(adversarial training)技術,使得兩個神經網路相互對抗,一個神經網路從數據中獲取信息(人臉數據),另一個神經網路試圖去破壞第一個神經網路執行的任務。

據悉,他們的演算法是在包含不同種族,不同光照條件和背景環境下的超過600張人臉照片的數據集上進行訓練的(業界標準庫),兩個神經網路相互對抗會發形成一個實時的「過濾器」,它可以應用到任何圖片上。因為它的目標——圖像中的單個像素是特定的,改變一些特定像素,肉眼是幾乎無法察覺的。比如說檢測網路正在尋找眼角,干擾演算法就會調整眼角,使得眼角的像素不那麼顯眼。演算法在照片中造成了非常微小的干擾,但對於檢測器來說,這些干擾足以欺騙系統。

「此前多年,這些演算法必須由人類去定義,現在的神經網路可以自主學習。目前我們的演算法將人臉識別系統中被檢測到的人臉的比例降低到了0.5%。我們希望在APP或網站上提供這種神經網路系統,這是一個非常有意思的領域,有著非常大的潛力市場,」Aarabi教授說道,「另外研究報告也將在2018年IEEE國際多媒體信號處理研討會上發表」。

其實,破壞人臉識別產品識別率的產品並不少見。早在2016年,卡內基梅隆大學的研究人員就設計了一種眼鏡框,可以誤導面部識別系統,使其產生錯誤的識別。

該類軟體在學習人臉的模樣時,它非常依靠於特定的細節,如鼻子和眉毛的形狀。卡內基梅隆大學打造的眼鏡並不只是覆蓋那些臉部細節,還會印上被計算機認為是人臉細節的圖案。雷鋒網雷鋒網

來自VentureBeat,雷鋒網編譯

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

自動駕駛新創公司拿錢到手軟,但它們真能拗過科技巨頭們的大腿嗎?
P2P的冰火兩重天:資管新規下的增資和雙降

TAG:雷鋒網 |