可怕!斯坦福AI看臉即知性取向,國外媒體和網友都炸了
安妮 李林 編譯整理
量子位 出品 | 公眾號 QbitAI
事情開始於一項斯坦福大學的新研究。
研究人員Yilun Wang與Michal Kosinski用監督學習演算法創造出一種新模型,可以直接從面相判斷一個人的性取向,研究論文也即將發表在美國心理學學術月刊《Journal of Personality and Social Psychology》上。
納尼?!還能根據面相判斷性取向?確定我是在看科學期刊而不是誤入路邊看面相算命的小攤攤?
帶著眾多問號,我們翻看了實驗研究。
面相識「同」?
研究人員首先從交友網站的公開信息中收集了14776人的35326張照片,想在照片中提取面部特徵。從臉型、嘴型、鼻型、眉形到面部的毛髮,這些特徵全部被提取並量化。
研究人員先標記面部特徵,同時用傾斜度、轉動和偏轉角度等參數定位人臉
之後,研究人員用深度神經網路(DNN)從中提取與性取向有關的特徵。在此,他們引入VGG-Face DNN模型,想通過面部表情、背景、光線、圖像屬性(亮度或對比度等)等因素來表示圖像中的人臉。
系統識別的可以預測性取向的面部特徵
隨後,研究人員用預測模型、邏輯回歸等奇異值分解(SVD)等方法將圖像分類,判斷哪些圖像中的人為同性戀。
這是由數千張圖片組成的合成臉,展示了系統觀察到的面部特徵細微差別。右圖中的綠色/紅色線條分別代表男女異性戀者/同性戀者面部器官的位置形狀
最後,研究人員隨意挑選圖像,讓電腦猜測受試者的性取向,結果證明AI系統的表現明顯優於人類——
在沒有穿搭風格、人物動作等因素影響的情況下,就單一面部信息而言,分類器識別男女性取向的準確率分別達到了81%和71%。
研究人員還設計對照組讓人類判斷照片中人的性取向。實驗證明,人類對男女性取向識別準確率分別為61%和54%。對比看來,演算法的準確率明顯優於人類的直覺判斷。
如果通過5張以上照片讓系統識別人類性取向,則男女性取向準確率分別提高到91%和83%。
研究人員意外地發現,性取向與面部特徵存在些許關聯,一般情況下,男同有「女性化」特徵,女同有「男性化」特徵。比如,男同的下顎、鼻子和前額比直男大,與異性戀女性相比,女同的下顎更大,額頭更小。
作者簡介
這篇論文的作者是Yilun Wang和Michal Kosinski。兩個人一起收集了數據並進行分析,論文為Michal Kosinski執筆完成。
量子位經過查詢發現,Yilun Wang現在的身份是IDG資本駐舊金山灣區的投資顧問,投資領域專註於AI、機器人、機器學習、計算機視覺等。此前,Yilun曾在Google、百度深度學習研究院、格靈深瞳、微軟等公司實習。
Yilun Wang本科畢業於浙江大學,2016年在斯坦福獲碩士學位。
而Michal Kosinski博士是斯坦福商學院的助理教授。2014年,Kosinski在劍橋大學獲得心理學博士學位。先後供職於微軟研究院、劍橋大學,並有過創業經歷。
Kosinski還是一位活躍在各種活動和採訪中的學者。
今年初的CeBIT』17大會上,Kosinski發表了一場題為《The End of Privacy》(隱私的終結)的演講。(當然他在別的場合也經常講這個)
其實Kosinski的這個演講,跟上面的主題一脈相承。
在《隱私的終結》里,Kosinski指出人們已經在網上留下太多的數字足跡,只需要通過一個強大的演算法,把所有這些零散的足跡手機起來,就能描繪出你的真實樣貌。
我們本來製作了一個壓好字幕的視頻,不過兩次騰訊都沒審核通過。所以,直接放一個YouTube地址吧:
https://youtu.be/DYhAM34Hhzc
各方評論
對於這項研究,部分美國媒體「表示強烈譴責和極大的憤慨」,比如TechCrunch。
他們在標題上指責這項研究「顯示了數據時代的黑暗面」,還說這項研究「除了將一個已經很脆弱的人群暴露在新型的系統化虐待之下,還直接打擊了我們的平等觀念:不能以貌取人、也不能通過一兩張照片這麼簡單的東西來判斷性取向這樣的隱私。」
英國的《經濟學人》情緒穩定,不過《衛報》腦補了一些應用場景,比如懷疑自己形婚了,用這個AI gaydar來測一測自己的另一半,或者青少年用它來測自己、測同學……
《衛報》還」採訪了多倫多大學心理學副教授Nick Rule,這位學者曾經研究過gaydar背後的科學,而對於斯坦福的這項研究,他認為非常「令人不安」,擔心可能有人出於惡意來「根據人們的外表來分析他們、識別他們」。
reddit上網友的反應就淡定得多,量子位摘錄一些網友評論如下:
GIF/180K
「所以,他們造了一個Gaydar?」
「Stereotype的存在看來是有原因的」
「好吧……我覺得我還挺擅長通過長相判斷誰是同性戀。但如果我說「Joe看起來90%是gay」,是不是不道德?」
「可怕。」
「第一個數據集來自『一家美國交友網站』。我感覺這說的是OKCupid。」
「我真不明白這有什麼可怕的。這個研究可以非常有用,而且不違背道德。」
「我覺得這進一步增強了我們對於性別的認知,我之前不知道面孔中還包含了這麼多和性取向有關的信息。」
「很多判斷都是基於穿著打扮。如論文中的例子,面部毛髮較少常被歸為男同(訓練數據沒包括熊?)戴著棒球帽的常被歸為女同。」
「放在交友網站上的照片,可能會包括與性取向有關的隱藏信息。」
「我沒看得太仔細,有點疑惑是為什麼用預構建和預訓練的神經網路,而不是自己訓練?他們的確自己訓練了,而且表現更好,但他們擔心過擬合。我不知道為什麼。」
「DNN能夠進行純粹的面部特徵分離,不受面部表情、背景、光照、頭部方向、圖像屬性(亮度、對比度)等因素的影響。這能消除圖片雜訊帶來的過擬合風險。」
你怎麼看這件事?歡迎在下方留言給我們~
論文下載
—完—
活動報名
加入社群
量子位AI社群8群開始招募啦,歡迎對AI感興趣的同學,加小助手微信qbitbot3入群;
此外,量子位專業細分群(自動駕駛、CV、NLP、機器學習等)正在招募,面向正在從事相關領域的工程師及研究人員。
進群請加小助手微信號qbitbot3,並務必備註相應群的關鍵詞~通過審核後我們將邀請進群。(專業群審核較嚴,敬請諒解)
誠摯招聘
量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。
量子位QbitAI
? ? ? 追蹤AI技術和產品新動態
點擊展開全文


※還有什麼能擋住人工智慧的監視?戴上帽子蒙住臉,AI一樣能認出你
※Google正在北京組建AI團隊
※跨界時尚圈、代言奢侈品的斯坦福AI研究僧,是一個怎樣的小哥哥?
※谷歌與Verily發布新研究,可通過視網膜圖像用AI檢測心臟病
※Alexa與小娜結盟,智能語音助手該呼朋引伴還是獨自前行?
TAG:量子位 |