谷歌高管:人臉識別技術存在巨大社會風險
在最近發布的一篇博文中,谷歌公司全球事務高級副總裁Kent Walker寫道:谷歌將不會通過Google Cloud提供「通用型」的人臉識別API。除非相關「挑戰」得到明確「認定與解決」。
Walker解釋稱,「與其它一些公司不同,谷歌正在努力解決與人臉識別技術相關的一系列重要技術與政策性問題。與眾多具有多種用途的新技術一樣,人臉識別的應用同樣需要被慎重考量,從而確保其使用方式符合我們的原則與價值觀,同時避免濫用與可能出現的危害性結果。」
最近,谷歌公司似乎對新技術的使用表現出了與業界不同的謹慎態度。不久之前,谷歌方面正式決定中止為美國國防部提供對無人機拍攝內容進行分析的人工智慧方案。
事實上,除了谷歌之外,還有不少科技巨頭一直在廣泛關注人臉識別技術中的種種不成熟跡象,以及可能由此造成的危害影響。日前,由布魯金斯學會在華盛頓舉辦的一次活動當中,微軟公司總裁Brad Smith就建議人們應當考慮到人臉識別技術當中可能存在的「高風險場景」,例如該技術可能被用於限制人身自由。他認為,利用人臉識別技術的團隊應遵守關於性別、種族以及民族的反歧視法,並且各企業都應對自家人工智慧方案的局限性保持高度「透明」。
對此,Smith還進一步指出,微軟公司已經得出其中可能存在人權風險的結論,並且一直在拒絕客戶提出的部署人臉識別技術的要求。據透露,今天6月微軟公司撤銷了一份合約,合約內容要求微軟方面為美國移民與海關執法局(簡稱ICE)提供數據處理與人工智慧類工具
Smith解釋稱:「人臉識別技術的出現正在催生出一種新的可能性,即實現大規模監控體系。對於政府來說,這項技術將幫助其在任意位置追蹤任意目標。如果我們不充分考慮到這些可能性,那麼這一切有可能在2024年突然降臨到我們自己身上——就如同《一九八四》(《一九八四》(Nineteen Eighty-Four)中刻畫了一個令人感到窒息的恐怖世界,在假想的未來社會中,獨裁者以追逐權力為最終目標,人性被強權徹底扼殺,自由被徹底剝奪,思想受到嚴酷鉗制,人民的生活陷入了極度貧困,下層人民的人生變成了單調乏味的循環。)一書中描述的可怕景象一樣。」
Salesforce公司首席科學家Richard Socher也抱有同樣的焦慮情緒。在本月於蒙特利爾召開的NeurlPS 2018大會期間,他在接受VentureBeat採訪時表示,正是由於存在這些顧慮,Salesforce公司目前才決定不通過Einstein圖像識別API為Einstein Vision提供人臉識別功能。
他指出,「一旦我們開始根據某人的面部做出各種重要的決策,那麼由此引發的後果有可能非常可怕。人工智慧在決策層面的實際表現,完全取決於其用於訓練的數據質量。」
人工智慧的失誤
然而,並非每一家公司都有同樣的審慎態度。
今年夏天,亞馬遜公司將Rekognition(一種基於雲的圖像分析技術,通過Amazon Web Services事業部正式對外開放)交付至佛羅里達州奧蘭多市以及俄勒岡州華盛頓縣警長辦公室作為執法工具。奧蘭多市隨後決定續簽相關協議,並試行人臉識別監控計劃——此項計劃覆蓋該市警察隊伍中的眾多志願者;此外,華盛頓縣還決定利用該項功能構建一款應用程序,利用一套包含30萬人臉信息的資料庫對可疑犯罪分子的照片進行掃描比對。
在一項測試當中(亞馬遜公司對其準確性提出了質疑),美國公民自由聯盟證明Rekognition從某「公共來源」處獲取到25000張照片,並在將其與國會議員的官方照片進行比較時誤將28人視為罪犯。而更令人震驚的是,大多數錯誤判斷(佔比38%)與有色人種相關。
AWS公司總經理Matt Wood於今年6月對上述結論提出了質疑,認為Rekognition有助於「保護兒童權益,並可用於為兒童構建教育類應用程序」,同時還能夠「通過多因素身份驗證機制增強安全性,降低圖像的識別難度,從而用於防止包裹被盜等問題。」
在今年8月發布的另一篇博文當中,亞馬遜公司指出以Marinus Analytics公司為代表的眾多AWS客戶正在利用Rekognition幫助尋找落入人販子手中的受害者,並幫助其與家人團聚。此外,非營利性組織Thorn等人權機構也在利用這項技術尋找並營救遭受性虐待的兒童。
他在博文中寫道:「根據報道,目前並沒有出現任何與亞馬遜Rekognition相關的執法濫用行為。選擇利用這些新型技術的組織必須採取負責任的態度,否則將面臨受到法律處罰以及公開譴責的風險。對此,AWS一直抱以嚴肅的態度和責任。」
但必須承認,很多參與方並非如此。
今年9月,The Intercept網站發布的一篇報告顯示,IBM公司與紐約市警察局合作開發出一套系統,允許執法方根據膚色、頭髮顏色、性別、年齡以及各種面部特徵進行人物搜索。利用紐約警察局提供的來自約50台攝像機的「成千上萬」張照片,該人工智慧方案學會了如何識別服裝顏色以及其它體貌特徵。
IBM公司的一位發言人指出,這套系統僅被用於「評估性目的」。但於2017年發布的IBM智能視頻分析2.0產品確實提供一種與此相似的攝像頭監控功能,可以通過「亞洲人」、「黑人」以及「白人」等標籤對拍攝目標進行自動標記。
偏見的可能性
除了Socher所提到的道德原則之外,也有越來越多的研究對於人臉識別技術的整體準確度持懷疑態度。
於2012年進行的一項研究表明,供應商Cognitec公司提供的面部演算法在識別非裔美國人方面的表現要比識別白種人低5%至10%;2011年,還有研究人員發現中國、日本以及韓國開發出的人臉識別模型很難區分高加索人與東亞人種。今年2月,麻省理工學院媒體實驗室的研究人員們指出,微軟、IBM與中國廠商Megvii公司的人臉識別技術在識別淺膚色女性方面錯誤率高達7%,識別深膚色男性的錯誤率為12%,而對深膚色女性的錯判比例更是達到35%。
演算法出錯的例子還遠不止於此。最近調查結果顯示,倫敦大都會警察局部署的系統在每一次實際應用時都會產生最多49次的錯誤匹配。在去年眾議院監督委員會關於人臉識別技術的聽證會上,美國聯邦調查局承認,其用於識別犯罪嫌疑人的演算法存在高達15%的錯誤判斷率。此外,弗吉尼亞大學的研究人員正在進行的一項研究發現,兩大著名研究圖像集——ImSitu與COCO(COCO由Facebook、微軟以及初創企業MightyAI共同構建),在對體育、烹飪以及其它多種活動的描述當中,表現出明顯的性別偏見(例如購物圖像一般與女性有關,而教練圖像則往往與男性關聯)。
在這方面,最臭名昭著的案例之一,無疑是2015年一位軟體工程師提交的報告——其指出谷歌照片中的圖像分類演算法將非洲裔美國人判定為「大猩猩」。
即使是美國規模最大的車載攝像機供應商之一Axon公司的CEO Rick Smith,今年夏季也對此做出表態,指出人臉識別技術對於執法類應用而言還不夠準確可靠。
他解釋稱,「這類技術方案還沒有做好真正通過人臉識別做出行動決策的準備。在我們看來,因為其中可能出現的技術故障或將帶來災難性的後果,大家不應急於將其部署至實際場景當中。」
技術層面的進展
過去十年以來,眾多失誤和問題的出現似乎令人臉識別技術的前景蒙上了一層陰影。然而,必須承認的是,這項技術一直在準確度以及解決偏見問題等技術性層面取得可喜的進展。
今年6月,通過與人工智慧公平性專家們開展合作,微軟公司修改並擴展了其用於模型訓練的Face API數據集。Face API是一項微軟Azure API,主要提供用於檢測、識別及分析圖像中人臉內容的演算法。通過與膚色、性別以及年齡相關的大量新數據,Face API如今能夠將深膚色男性與女性的錯誤判斷率降低至原本的二十分之一,對女性的錯誤判斷率則降低為原先的九分之一。
與此同時,初創企業Gfycat公司也於今年表示,其將引入更為嚴格的檢測閾值,從而努力提高其人臉識別演算法在判斷亞裔人士面部方面的準確性。
另外,值得一提的是,一系列新型演算法偏見緩解工具的加速出現,也在有力提高人工智慧方案的公正性水平。
今年5月,Facebook公司發布了Fairness Flow,該工具會自動警告某種演算法是否根據檢測目標的種族、性別或者年齡,做出了不公平的判斷。另外,埃森哲公司也發布了一款工具包,能夠自動檢測AI演算法中存在的偏見,並幫助數據科學家降低這種偏見。微軟方面在今年5月同樣推出了自己的解決方案。谷歌公司也於今年9月發布了What-If工具,這項由TensorBoard網路儀錶板提供的偏見檢測功能,主要面向谷歌的TensorFlow機器學習框架。
IBM公司同樣緊跟這股時代潮流,其於今年秋季發布了AI Fairness 360——這是一款基於雲的全自動化套件,能夠為AI系統「提供洞察見解」以,確保對其決策與推薦進行調整,例如通過演算法調整或數據平衡等方式緩解偏見對結果造成的影響。最近,IBM Watson與雲平台小組的研究重點,也開始放在緩解AI模型中的偏見,特別是與人臉識別相關的偏差方面。
不過根據Smith的說法,這方面的發展道路還相當漫長。
他在今年早些時候發布的一篇博文中寫道:「即使解決了偏見問題,即人臉識別系統能夠以對所有人都公平公正的方式運作,其中仍然存在著潛在的失敗風險。與眾多其它人工智慧技術一樣,就算徹底排除到偏見性因素,人臉識別方案通常都會存在一定程度的誤差。一切工具都可用於善途或者惡途,而工具本身越強大,其可能帶來的收益或者損害也就越明顯。人臉識別技術給我們提出了一系列新問題,特別是在與隱私以及言論自由等基本人權保護核心相關的層面,因此,必須始終對此保持謹慎的心態。」


※谷歌論文詳解AlphaZero:為國際象棋、將棋與圍棋帶來新曙光
TAG:科技行者 |