當前位置:
首頁 > 天下 > AI可以通過照片檢測此人是否為同性戀,準確率高達91%,但該不該支持推廣呢?

AI可以通過照片檢測此人是否為同性戀,準確率高達91%,但該不該支持推廣呢?

據報道,斯坦福的兩名研究人員進行的有爭議的研究發現,他們訓練的人工智慧可以準確地確定男性和女性的性取向。毫不奇怪的是,這一發現引發了網路上人們的不滿,尤其是那些真正的同性戀者。

將一個人的臉部特徵與性格特徵掛鉤,比如善良、犯罪傾向,甚至是性行為,這都是一種被稱為面相的偽科學理論。這一領域在古代流行,直到文藝復興時期逐漸淡出人們的視線,例如擁有一個鋒利的下巴和薄薄的嘴唇通常是一個狡猾的潛在犯罪分子。這個領域和顱相學一樣,顱骨上的突起也可以用來判斷性格。

邁克爾·科辛斯基是這項備受爭議的研究的主要作者之一,他確實相信,有一些面部線索可以揭示內在的個人特徵。科辛斯基和他的同事Yilun Wang設計了一種基於邏輯回歸的預測模型的機器學習演算法。他們用35326個面部圖像的數據訓練了機器的人造神經網路。這些都是從約會網站提取的男女兩性的照片。所有參與者都是白人。

電腦通過一種「深度神經網路」的判斷模型,學習這些臉部特徵,最終,機器能夠判斷出一個人的性取向。其中,AI鑒定男性同性戀者的準確率高達81%,女性的準確度為71%。當給定的圖片上升到5張圖時,男性準確率達到了91%,女性同性戀準確率為83%。然而,同樣的照片給人類鑒別時,人類鑒別男女同性戀的準確率只有61%與51%。

GLADD(同性戀倡導組織)和HRC(人權運動)在研究公開前幾個月與斯坦福大學的研究人員進行了一次電話會議,他們對研究結果的有效性提出了嚴重的擔憂,並警告不要過度誇大結果或其重要性。

GLADD新聞主編德魯·安德森寫道:「媒體頭條宣稱AI可以根據一張照片判斷你的性取向,這實際上是不準確的。」GLADD概述了研究設計中的幾個缺陷,如研究樣本都是白人,或照片的來源僅僅來自於約會網站。倡導組織還提到這項研究沒有經過同行審核,也沒有對性取向、性行為或雙性戀身份做出任何區分。

GLAAD首席數字分析官吉姆·哈洛倫說:「技術不能確定一個人的性取向。他們的技術識別的是一種模式,他們只是發現了一小部分白人同性戀者在約會網站上看起來很相似。因此這兩個結果不應該混為一談。」

據了解,斯坦福大學的這項研究基於一個關鍵的假設,即「產前激素理論(PHT)」,指的是在胎兒時期,子宮裡的某些激素過高或過低會影響孩子們的性取向。

科辛斯基在最近發表的論文中寫道:「通常,異性戀男子的下顎較大,鼻子較短,額頭較小。然而,同性戀者往往擁有更狹窄的下巴,更長的鼻子,更大的額頭和更少的面部毛髮。相反,女同性戀者比異性戀女性傾向於擁有男性化的面孔,例如較大的下顎和較小的額頭。」

「與性取向的產前激素理論一致,同性戀男性和女性往往具有不典型性別的面部形態、表情和穿搭風格。」作者在論文中總結道。

然而,產前激素理論並沒有捕捉到同性戀行為的複雜性,最多只是部分地解釋了為什麼有些人在生活的後期發展成為同性戀。的確,GLADD對研究局限性的批判是有根據的。例如,研究表明,它使用了相當有問題的同性戀面部識別標記,例如「同性戀女性的笑容少於異性戀女性」或「女同性戀者通常有黑頭髮」。

除了科學本身,這項研究的倫理學也受到質疑。GLADD要求我們想像一種潛在的後果,如果這項技術被反對同性戀的政府應用,政府通過人們的臉判斷出誰是同性戀,進而對他們施加迫害。

科辛斯基在一份解釋性說明中寫道:「我們採用的是已經被公司和政府廣泛使用的現有技術,找這些照片也十分容易,所以我們想要提醒政府保護人們的隱私。」

科林斯基表示,儘管HRC和GLADD對他進行了批評,但他的文章是經過同行評議了的,預計會在《人格與社會心理學期刊》上發表。 然而,因抗議太多,該雜誌的編輯現在正在公開壓力下重新審查這份論文。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 全球那些事 的精彩文章:

夫婦倆收養的可愛男童,卻被生父領回殘忍殺害,最終獲賠325萬美元
美國航空奇葩不斷:空乘竟讓一男子在女乘客旁邊打 飛機,還不能換座位
哪裡是哥倫布發現了新大陸,最新考古發現2萬年前巴西就住人了
比太陽還大10萬倍 日本學者在銀河系中央發現巨大黑洞
亞瑟王還劍傳說湖泊 女童從湖裡撈出雙手長劍 難道亞瑟王傳說是真的?

TAG:全球那些事 |