當前位置:
首頁 > 最新 > 數據時代的陰暗面:AI看照片就能識別同性戀

數據時代的陰暗面:AI看照片就能識別同性戀

本文系網易新聞-智能工作室出品

聚焦AI,讀懂下一個大時代!

我們在很多事情上都依賴機器學習系統,從創建播放列表到駕駛汽車都是如此,但就像任何工具一樣,它們也可以被扭曲成危險的、不道德的目的。今天,斯坦福大學的研究人員發表了一篇新論文,闡述了這一事實。他們發明了一種機器學習系統,他們聲稱可以從一些圖片中分辨出一個人是同性戀還是異性戀。

這項研究令人驚訝,同樣也令人不安。除了將本已脆弱的群體暴露於一種新的系統化濫用形式之外,它還直接觸及了平等主義的觀念,即我們不能(也不應該)通過外表來判斷一個人,也不能從簡單的快照或一兩個簡單的事物中推測出一個人的性取向。但是,論文中所報告的系統準確性似乎沒有考慮到上述的層面:這不僅是可能的,而且已經實現了。

它依賴的線索顯然比大多數人所能感知到的更加精細——而這些線索很多人都覺得是不存在的。它還顯示了一種對隱私的威脅,這種威脅對於即將到來的計算機視覺時代來說是獨一無二的。

在討論系統本身之前,我們應該清楚地表明,這項研究的出發點是好的。任何人在評論這個話題時都應該閱讀作者的一組筆記,Michal Kosinski和Yilun Wang兩位作者解決了各種各樣的異議和問題。最相關的或許是他們關於報紙發布時間的回答:

我們對這些結果感到非常不安,花了很多時間考慮是否應該公開這些結果。我們不想讓我們所擔心的風險真正發生。控制透露自己性取向的時間和對象是至關重要的,這不僅對一個人的健康有好處,而且對一個人的安全也是如此。

我們認為,有必要讓政策制定者和同性戀群體(LGBTQ)意識到他們面臨的風險。我們並沒有創建侵犯隱私的工具,而是展示了那些得以廣泛使用的基本方法會帶來嚴重的隱私威脅。

當然,這只是眾多試圖獲取私密信息的系統之一,這些私密信息包括性行為、情緒狀態或醫療條件等。但這是一個特別令人擔憂的問題,原因有以下幾點。

這篇論文將發表在《人格與社會心理學》雜誌上,它詳細描述了一種相當普通的監督式學習方法,目的是能夠從他們的面部識別出是同性戀者或異性戀者。(註:這篇論文仍在草案階段。)

通過一個面部圖像資料庫(來自一個可以公開其數據的約會網站),研究人員收集了14776人的35326張照片,其中有(自我識別的)同性戀和異性戀男性和女性數量都是相同的。他們的面部特徵被提取和量化:從鼻子、眉毛的形狀到毛髮和面部表情。

一個深度學習網路分析了所有這些特徵,發現這些特徵往往與特定的性取向有關。研究人員並沒有對同性戀或異性戀者的長相有任何先入為主的概念,也就是說,並沒有提前「植入」某種概念;該系統只是將某些特徵與性取向和識別模式聯繫起來。

由數千張個人資料照片組合的合成臉,顯示出系統所觀察到的細微差別。

這些模式可以在面部圖像中進行搜索,讓計算機推測該主體的性取向——事實證明,人工智慧系統在這項任務上明顯優於人類。

當我們向機器展示一張同性戀和一張異性戀的照片時,演算法多數情況下能準確判斷其性向,男性準確率高達91%,女性準確率也有83%。同樣的圖片,61%和54%的時間都是正確的,這比扔硬幣好得多。

在第二篇論文中描述了四組之間的差異,除了明顯的行為差異,比如一組梳理頭髮或化妝,總體趨勢是男同性戀者具有「女性化」特徵,而女同性戀者具有「男性化」特徵。

這張圖表顯示了哪些特徵可以預測性取向。

必須指出的是,這種準確性只是在系統的理想情況下所得出的,即在兩個人之間進行選擇,其中一人是同性戀。當該系統評估一組1000人的面孔時,只有7%的人屬於同性戀者(為了更能代表真實的人口比例),它的評估則相對較差。只有排名前10的公司才有90%的命中率。

數據中也存在偏見的可能性:約會網站可能會被某個種族的人所主導,其中包含的照片更能顯示出性取向,而不是這個人在Facebook上發布的照片,或者在Snapshots上的照片。這可能會影響系統在現實世界的有效性(如果要正式使用的話,它不會以這種方式使用)。我已經向研究人員詢問了關於這個話題的更多細節。

這項技術並不比「Phrenology2.0」更好,它是一種將不相關的物理特徵與複雜的內部過程相結合的欺騙鏈接,這是可以理解的,但並不完全正確。

研究人員在論文的前言中寫道:「相面術現在被普遍認為是迷信和種族主義偽裝成科學的混合物,這是正確的。(我理解它們指的是顱相學,而不是相面術)。」但偽科學是失敗的,因為它的從業者是在倒退。他們決定了誰在「犯罪」或「性變態」,然後決定這些人有哪些共同特徵。

事實證明,人們在這類任務上表現得很糟糕——我們在人身上看到的太多,所以我們根據本能進行行動和感知。但這並不意味著可見的特徵、生理或心理都是不相關的。沒有人會懷疑機器能否接收到人類沒有能力感知的東西,這些東西包括微小的炸彈或藥物的化學痕迹,到能夠提前檢測出癌症的核磁共振掃描模式。

這篇論文指出,計算機視覺系統正在研究同樣微妙的模式,包括人工的和自然的,但主要是後者;研究人員正在謹慎地關注那些無法輕易改變的特徵。它支持這樣一種假設,即性是由生理決定的,也就是說,性可能是由不同的胎兒激素所引起的,除了影響被吸引的人外,還可能導致輕微的生理差異。該系統所觀察到的模式與產前激素理論所預測的模式相似。

這一系統開始趨向於大範圍的社會和哲學爭論中,這些爭論有關於愛,性,決定論,情緒變化,以及純粹的生物學特徵。但這不是真正的時間或地點,老實說,我也不是真正的那個人。所以我要避開這個話題,轉向另一個主要問題,那就是隱私問題。

從少量照片中自動判斷一個人性取向的含義是巨大的,首先也是最重要的,因為它讓同性戀(LGBTQ)群體在全世界某些地方置於危險的境地,在那裡他們仍然是受壓迫的少數群體。系統濫用的可能性是巨大的,有些人可能會不同意研究人員創建和記錄這一系統的決定。

但也有爭議的是,最好是將這種可能性公開,以便實施相應的對策,或者讓人們為之做好準備。畢竟,通過分析Facebook或Twitter消息流,也可以確定性取向和許多其他個人特徵。

不同之處在於,你可以混淆或控制你在網上發布的信息;但在這個系統之下,你無法控制誰將會看到你的臉。這是一個我們所生活的監督社會,而且監督性會越來越高。

「在我們看來,即使是保護隱私最好的法律和技術,總有一天都會失敗,」研究人員寫道。「數字環境很難監管;數據可以很容易地跨越國界、被竊取,也可以在未經用戶同意的情況下被記錄下來。」

換句話說,秘密已經被泄露了。如果是研究人員對受影響最嚴重的人群表示同情,而不是聯邦調查局或其他一些人為了自己的目的而做這件事,這樣可能會更好。

這是一個極其複雜的問題,在很多方面都是非常複雜的,但它同時也頗具吸引力,證明人工智慧可以相對容易地做一些我們自己無法做到的事情。這一技術的含義一如既往地複雜,但有趣的是,這種研究將如何幫助定義和指導人類。

研究人員對這一結果的評估本身並不是樂觀的,但在這個科技被認為會扮演救世主的時代,他們是非常現實的,也可能成為反派。

他們寫道:「我們認為,隱私遭受進一步的侵犯是不可避免的,同性戀和其他少數群體的安全不取決於隱私權,而在於人權的執行,以及社會和政府的寬容。」「為了讓後隱私世界變得更安全、更宜居,居住的人必須接受過良好的教育,而這些人無法容忍苛刻的態度。」

科技不會拯救我們自己——我們可能不得不從科技行業中拯救自己。

選自:TechCrunch 作者:Devin Coldewey

編譯:網易見外智能編譯平台 審校:Simone

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 網易智能菌 的精彩文章:

自動駕駛行業素描(上):繁榮背後的暗流涌動
AI專家VS神學家:人工智慧可以挑戰上帝嗎
專家稱微軟聯姻亞馬遜恐難持久:進軍手機才是王道
撥開AI威脅論背後的神秘面紗!專家稱切勿隨波逐流
抱歉!技術愛好者:我真的不想要自動駕駛汽車

TAG:網易智能菌 |