當前位置:
首頁 > 科技 > 在暴露人臉識別技術的深層問題上,有一群很拼的人……

在暴露人臉識別技術的深層問題上,有一群很拼的人……

他們要做的,就是不斷擾亂技術預期,讓潛在問題充分暴露在公眾視野下。

作者 | Thomas McMullan

來源 | Medium

編譯 | 探險家 微胖

「它能實時識別數百萬張人臉,並從海量照片中精準檢測出多達 100 張。」

亞馬遜這樣描述自己的人臉識別軟體 Rekognition Technology。

但是幾個月之後,它就捲入了美國警方監控糾紛。

美國人權聯盟披露的文件顯示,亞馬遜把這個強大的人臉識別軟體授權給了佛羅里達州奧蘭多市和俄勒岡州華盛頓縣的警方,讓他們來監控人群。

以奧蘭多市為例,軟體能夠實時追蹤和分析全市幾個攝像頭的監控數據。另外,Rekognition 的推銷內容中還特別提到,監控系統能連上警方的隨身攝像頭。

文件披露後,奧蘭多市的警察局局長 John Mina 試圖緩解公眾的擔心,他強調:

「我們永遠不會把這項技術用於追蹤普通市民,移民,社會活動者或者有色人種,」Mina 在一次記者招待會上保證。

「這是個實驗項目,我們只是在測試這項技術是不是管用。」

然而,全世界都開始擔心這種監控技術的濫用了。

人工智慧和監控的結合在實際應用層面和道德層面都會帶來問題,這引發了高層對這些帶有原罪的科技公司的警惕。

與此同時,民間的反擊戰也打響了。

就像法國著名哲學家 Paul Virilio 說的那樣:有了船隻,就會有海難。有了燈塔,就會有海盜。

人臉識別軟體的人種偏差

現實表明,人臉識別的有效性並不夠。

位於英國的人權組織 Big Brother Watch 的一份報告發現,倫敦市警察局的人臉識別配對結果有 98% 的錯誤率。

南威爾士警方在演唱會、節日慶典和皇家訪問等場合的相似試驗在 91%的時間裡都識別錯了人。

考慮到白人的人臉識別結果誤差要小很多,這種失准又多了一層含義。

根據紐約時報的報道,微軟,IBM 和 Face++ 聯合進行的演算法研究發現,淺膚色男性的性別識別錯誤率只有 1%,淺膚色女性為 7%,而深膚色男性的到了 12%,深膚色女性的甚至高達 35%。

「雖然很敏感,但是從根本上說,當我們討論人臉識別的時候,我們在解決身份政治,」一家國際有色女性技術專家聯合組織 Hyphen-Lab 通過郵件告訴我們。

新興技術「中立」的假設,掩蓋了它們會放大潛在的人種和性別誤差的事實。這創造了一種加大歧視的機器,隨身攝像頭從可信賴的工具轉變成了看不見的監控引擎。

對於 Hyphen-Lab 來說,有一些事情需要被測試,詢問,以及顛覆。

「公眾隱私權真的需要拓展到有色人種社區,」這家組織說道。

「除此之外,對身份和形象的控制已經成了一種對那些歷史上被集體邊緣化的人群進行自由壓迫的方式,無論是美國還是全球其他國家。」

「我們想要掌控自己的身份,命運和形象。」

Hyphen-lab 開展了一個由 Ece Tankal,Ashley Baccus Clark 和 Carmen Aguilar Wedge 領導的項目。

該項目展示了在一個實時識別和追蹤人臉的社會裡,如何反擊監控。

一個 HyperFace 面具原型,它可以迷惑人臉識別軟體。

藝術家兼研究者 Adam Harvey 和這個團隊一起設計了並創造了一條擾亂計算機視覺演算法的圍巾,它的紫色的材料布滿了奇怪斑點——一種 21 世紀的迷彩偽裝,可以發送潛在配對以迷惑攝像頭。

「如果我們對機器的輸入了如指掌,我們就能欺騙,誘導和利用它們來解決我們過分依賴它們而產生的問題,」Hyphen-Lab 解釋到。

這條圍巾是 Hyphen-Lab 的更宏大的 NeuroSpeculative AfroFeminism 項目的一部分,這個項目還包括了內嵌攝像頭的耳環和一個 Afrofuturist「神經美容術」沙龍,它們全都在探索黑人女性在科技行業的角色和形象。

當討論到人臉識別的時候,這條圍巾可以吸引人們的注意力,讓大家注意到新型監控技術的不完美,基於缺陷演算法搭建的機器很可能會被欺騙、規避和劫持。

如何擾亂一個計算機系統

Hyphen-Lab 承認這條圍巾的實際效用還不明確,因為它是基於開源人臉識別軟體的,演算法更容易過時。

另外,這個項目是為了揭露隱私問題和政治監控。

「這讓人生氣,未經允許就利用我們周圍的攝像頭捕捉我們的一舉一動,」這家組織解釋到。

當 Hyphen-Lab 正嘗擾亂交互時,其他人正嘗試在技術層面擾亂人臉識別。

這種眼鏡架能夠欺騙臉部生物識別系統。

舉個例子,來自卡耐基梅隆大學的研究員們開發了一種特製的鏡架來擾亂計算機系統,這意味著穿戴者能夠避免被認出,而且最讓人印象深刻的是,甚至可以偽裝成一個完全不同的人。

這次研究中,一個系統把一個人錯認成了既是女演員 Milla Jovovich,也是男演員 John Malkovich。

在另一個斯坦福研究員 Jiajun Lu 領導的項目里,他創造了「對立示例」來欺騙圖像識別工具,包括人臉認證系統和識別紅綠燈以及交通情況的自動駕駛汽車系統。

對於前者,Lu 和他的團隊創造了一個看起來很像 Google DeepDream 噩夢之一的偽裝面具。

「通過使用我們的偽裝,人臉在各種視覺條件下都不會被檢測出來:角度,距離,燈光等等,」Lu 說。

一個 DeepDream 式的偽裝面具,覆蓋在一個人的臉部錄像上。

然而,這項研究中的偽裝是覆蓋在一個人的臉部錄像上的,Lu 告訴我們「製作紋身貼紙,放在一個人的臉上是小菜一碟。」

他建議試驗「活紋身」,它由基因編程過的活細胞製作而成,可以用來達到試驗目的。

這種活紋身的好處是,面具能夠被設計成在特定條件下才會顯現,紋身里的細胞被程序設計成只有在收到命令時才會顯露它們的顏色,或者其他特定的環境條件被滿足。

考慮到這個偽裝面具會讓你看起來像一個行走的致幻劑,它能夠隨你心意關閉是很有用的。

中國的監控技術實驗平台

然而,Lu 並不是在為示威者,黑客或者間諜開發這些「對立示例」。他說,這項研究背後的想法是推動神經網路的設計者們去改進他們系統里的演算法。

「深度學習領域裡的人正變得對網路安全越來越擔心,即使這些網路取得越來越多的成就。我們承受不住安全隱患。毫無疑問會有越來越多的人嘗試攻擊這些系統。」

把船打翻,缺陷會暴露出來,也就會有改進的地方。這提醒了我們,即使倫敦市警察局最近的試驗結果不夠準確,令人發笑,但是這項技術是在不斷進化的。

如果你想得到下一個十年它會走向何方的線索,朝東邊看。

雖然英國和美國在發展人臉識別系統上面臨著技術上和政治上的全方位阻礙,在中國,則是另一番景象。

商湯的監控系統在運行。

商湯科技,得益於公司的圖像識別能力,這家處在中國 AI 熱潮核心地位的公司的估值最近達到了 30 億美元。

商湯的客戶是一大堆政府相關的代理商,它們給公司提供了數量巨大的數據,這能讓很多西方國家的 AI 公司垂涎三尺。

在與 Quartz 的對話中,商湯的 CEO 徐立指著一個超過 20 萬張圖片的訓練資料庫說到:

「如果你能拿到政府數據,你就有了全部中國人的數據。」

作為交換,商湯提供它的 Viper 監控系統,這個系統能把來自 CCTV,ATM 攝像頭和辦公室人臉掃描儀的影像資料收集起來,能夠同時處理 10 萬在線視頻流數據。

在這些技術的核心地帶,身份政治問題再次出現了。畢竟,在過去的幾年裡,這項高端監控技術的實驗平台大多都放在邊遠省份,也是因一連串恐怖主義活動而備受指責的地方。

商湯強調 AI 圖像識別可以用來做好事,比如可以用來幫助尋找丟失的小孩。這種看法在亞馬遜的 Rekognition 系統上也有共鳴。

在美國人權聯盟公開這家科技巨頭與執法機關的合作關係細節之後,亞馬遜發表了一份聲明爭辯到,Rekognition「在現實世界有很多用途,」包括在遊樂園尋找丟失兒童。

毫無疑問這是事實,毫無疑問這也不是故事的全部。

圖像識別的適用範圍和能力在不斷擴大,無論攝像頭是在我們的手機里,在遊樂場,還是在警察的胸部,我們的身份都是目標。

也許會有停止智能圍巾和眼鏡來欺騙系統的改進,但是一旦你發明船隻,海南就會出現,海盜也會出現。

「我們知道會更新,」Hyphen-Lab 說。

「我們的手機,電腦,汽車都會更新,隨著人臉識別技術的發展,我們仍然會堅持推出可能的手段來擾亂它的預期用途。」

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之能 的精彩文章:

這家自動駕駛公司競標成功,證明場景利益最大化才是競爭規則
資本正在流向AI哪些領域,自動駕駛與AI晶元又發生了什麼?

TAG:機器之能 |