當前位置:
首頁 > 知識 > 驚喜還是驚嚇?新的人工智慧可憑照片猜出你是gay!

驚喜還是驚嚇?新的人工智慧可憑照片猜出你是gay!

三男一宅中國式同志家庭

tommy的話

近日,美國斯坦福大學有關方面宣布一項研究成果:通過從3萬多張人臉圖像中提取出來的特徵,人工智慧識別出男同性戀的準確率最高可達到91%,女同性戀則為83%。研究認為,與產前激素理論一致,男同的長相更「女性化」,下巴更窄,鼻子更長,額頭更大,女同則相反。

這項研究有一定爭議性,在此不表。我把相關的英文報道拿給jack,讓他幫翻譯出來,以下便是他翻譯的內容。

新的人工智慧可以通過照片猜出你是同性戀還是異性戀

作者:Sam Levin 翻譯:jack

來源:theguardian

一種演算法推斷出社交網站上的人們的性取向,準確率高達91%,並提出一些棘手的倫理問題

根據一項新的研究,利用AI臉部識別科技可以準確地猜測人們是同性戀還是異性戀,這表明機器可以比人類擁有更顯著的「gaydar」。

斯坦福大學的一項研究發現,計算機演算法能夠正確區分同性戀和異性戀男性的比例為81%,而女性的這一比例為74%,這引發了人們對性取向的生物學起源和倫理道德的質疑,人臉檢測技術的倫理,以及這種軟體可能侵犯人們的隱私或被濫用於反同性戀的目的。

這一研究結果發表在《個性與社會心理學》雜誌上,並首次在《經濟學人》雜誌上發表。這是基於美國交友網站上的超過3.5萬張男性和女性的面部照片的樣本。研究人員Michal Kosinski和Yilun Wang,利用「DEEP NEURALNETWORKS」從圖像中提取出了一些特徵,這意味著一個複雜的數學系統,它可以根據一個大數據集來分析圖像。(不知道是啥黑科技反正看起來很牛逼——jack注)

異性戀(左)、同性戀(中)男女的複合面部圖像,最右為異性戀(綠色)、同性戀(紅色)男女的平均面部標記。 來源:澎湃新聞

研究發現,男同性戀和女同性戀傾向於「不典型」的特徵,表達方式和「打扮風格」,這基本上意味著男同顯得更加女性化,反之亦然。這些數據還確定了一些趨勢,包括男同的下巴、長鼻子和比直人更大的額頭,而與異性戀女性相比,女同擁有更大的下巴和更小的額頭。

人類法官(這個譯法似乎不準確——tommy注)的表現比演算法要糟糕得多,他只能確認61%的男性和54%的女性。然而軟體只要檢查一個人的5張圖片,它可以更加精確——確認91%的男性和83%的女性。總的來說,這意味著「臉包含的性取向信息要比人類大腦所能感知和解釋的多得多」,作者寫道。

這篇文章指出,這些發現為「性取向」在出生之前接觸特定激素的理論提供了「強有力的支持」,這意味著人們天生就是同性戀,而成為同性戀者不是一種選擇。雖然這台機器的成功率較低,但同時也可以支持女性性取向更加多變的觀念。

對美國交友網站上獲取的公開照片進行處理。 來源:澎湃新聞

然而這項技術有利亦有弊。雖然結果有明確的限制,性別和性——人們的膚色並不包括在這項研究中,也沒有考慮變性或雙性戀的人——人工智慧(AI)的影響是巨大且令人擔憂的。數十億人的面部圖像存儲在社會媒體網站和政府資料庫,研究人員建議,在沒有徵得同意的情況下,公共數據不可以用來檢測人們的性取向。

很容易想像配偶把這項科技用在自己的另一半身上,懷疑他們是未出櫃的,青少年也會使用演算法在他們自身或同齡人。更令人恐懼的是,政府將繼續打壓LGBT群體,假如他們對目標人群使用這項技術。這意味著構建這類軟體和宣傳它本身就是有爭議的,這可能會產生有害的作用。

但是作者認為,這項技術已經問世,和它的功能是很重要的,政府和企業可以用積極的態度考慮隱私風險和保障法規的必要性。

「這當然是令人不安的。就像是使用任意一件新工具,如果它進入錯誤的人手中,它就會被用於錯誤的目的。」Nick Rule說到。這位來自多倫多大學的心理學副教授發表了對同性戀行為的科學研究。「如果你能根據人們的外表剖析他們,然後確定他們是否為同性戀並對他們做可怕的事情,這是非常糟糕的。」

不過Rule認為它仍然是重要的開發和測試技術:「這裡作者所做的是一個非常大膽的聲明,關於這個力量有多麼強大。現在我們知道我們需要保護。」

兩位研究人員Yilun Wang(左)、Michal Kosinski(右)。 來源:澎湃新聞

Kosinski沒有立即對此事發表評論。但在周五他發表這篇文章,回應《衛報》的倫理研究和對同性戀權利的影響。(他舉例稱)劍橋大學的教授通過心理分析,包括使用Facebook的數據來得出關於人格的結論。唐納德·特朗普的競選和Brexit的支持者針對選民部署了類似的工具,這引發了人們對在選舉中擴大個人數據使用的擔憂。

在斯坦福大學的研究中,作者們還指出,人工智慧可以用來探索麵部特徵和一系列其他現象之間的聯繫,如政治觀點、心理條件或個性。

這種類型的研究進一步提高擔心潛在的場景,就像科幻電影《少數派報告》,人們可能會被逮捕而這完全建立在機器預測他們會犯罪。

「人工智慧可以告訴你任何一個人的任何事,只要你有足夠的數據,」Brian Brackeen說,他是一家面孔識別公司的首席執行官。「這個問題是社會性的,我們會想知道嗎?」

Brackeen說斯坦福的性取向數據研究是「驚人的正確」,還說這需要更加關注隱私,和防止機器學習的濫用,因為它變得越來越普遍和先進。

Rule推測,人工智慧正被用來根據機器對人臉的解讀來對人進行歧視:「我們都應該共同關注(這一問題)。」

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 三男一宅 的精彩文章:

TAG:三男一宅 |