當前位置:
首頁 > 科技 > 暴露智商?AI也看臉,它不僅能看出你的性取向,還有思想和智商!

暴露智商?AI也看臉,它不僅能看出你的性取向,還有思想和智商!

暴露智商?AI也看臉,它不僅能看出你的性取向,還有思想和智商!

一些研究人員表示,不久之後,計算機程序就能準確地判斷出美國選民是自由派還是保守派。所需要的僅僅是他們面部的照片。

Michal Kosinski是斯坦福大學的教授,他因前不久的研究——表明人工智慧能夠根據照片檢測人們是同性戀還是異性戀而迅速出名。他說,性取向只是演算法能夠通過面部識別來預測的許多特徵之一。

通過照片,人工智慧將能夠識別人們的政治觀點,他們是否擁有高智商,他們是否有犯罪傾向,是否有特定的性格特徵,以及許多其他私人的個人信息,這些細節可能會給社會帶來巨大的影響,他說。

Kosinski表示,他預計在不久的將來,面部識別技術會引發了複雜的道德問題,即隱私受到侵蝕,以及可能會濫用人工智慧以攻擊弱勢群體。

他說:「面部是彙集了多種因素的可觀測指標,比如你的生活史、你的發展因素,以及你是否健康。」

面部包含大量信息,使用大型的照片集,複雜的計算機程序可以發現趨勢,並學習如何將關鍵特徵與較高的準確性區分開來。在Kosinski的「同性戀者」AI中,演算法使用在線約會的照片創建一個程序,可以在極高的正確率下識別人們的性取向(男性91%,女性83%),只不過是通過查看幾張照片而已。

Kosinski的研究極富爭議性,並面臨LGBT權利團體的強烈反對,他們認為人工智慧存在缺陷,反對同性戀的政府可以使用這種軟體來對付同性戀者並迫害他們。不過,Kosinski和其他研究人員認為,強大的政府和企業已經擁有這些技術能力,而在努力推動隱私保護和監管方面的保護措施方面,至關重要的是要揭露可能存在的危險,因為在這些保護措施與人工智慧的發展沒有同步。

Kosinski是教組織行為學的助理教授,他說他正在研究面部特徵和政治偏好之間的聯繫,初步結果顯示,人工智慧通過人們的面部特徵來猜測政治傾向是有效的。

他說,就像研究顯示的那樣,這可能是因為政治觀點似乎是可以遺傳的。這意味著,政治傾向可能與基因或發育因素有關,這些都可能會導致面部差異。

Kosinski說,之前的研究發現,美國保守派政客往往比自由派更有吸引力,這可能是因為長相好看的人有更多的優勢,更容易在生活中取得成功。

暴露智商?AI也看臉,它不僅能看出你的性取向,還有思想和智商!

Kosinski說,人工智慧在監測那些極度偏左或偏右的人的時候表現最好,對大量中立的美國選民來說,並不是那麼有效的。「一個較高的保守分數……會是一個非常可靠的預測,這個人是保守的。」

Kosinski也因其在心理測量方面的爭議性研究而聞名,包括使用Facebook的數據來推斷性格。數據公司Cambridge Analytica也用類似的工具為支持特朗普競選的選民提供支持,這引發了關於在競選中使用個人選民信息的辯論。

Kosinski說,面部識別也可以用來推斷智商,這表明未來學校招生時時可以考慮使用面部掃描的結果。這一應用引發了一系列倫理問題,特別是如果人工智慧正在研究某些孩子是否在基因上更聰明的時候,他說:「我們應該考慮如何做,來確保我們不會出現類似於『一個更好的基因,意味著更好的生活』的論斷。」

Kosinski的一些建議讓人想起了2002年的科幻電影《Minority Report(少數派報告)》,在這部電影中,警察在根據預測就把那些未來有謀殺可能的人給逮捕起來了。這位教授認為,社會的某些領域已經以類似的方式運作。

他說,當學校的輔導員在觀察那些表現出攻擊性行為的孩子時,他們會進行干預。他說,如果演算法可以用來準確預測哪些學生需要幫助和早期支持,這可能是有益的。「這些技術在表面上聽起來很危險,也很嚇人,但如果使用得當或合乎倫理,它們真的可以改善我們的生存。」

然而,越來越多的人擔心人工智慧和面部識別技術實際上是依賴於有偏見的數據和演算法,並可能對人們造成巨大的傷害。在刑事司法的背景下,這尤其令人擔憂。在刑事司法體系中,機器可以根據法庭和警察系統中的偏頗數據作出審判,比如刑期的長短,或者是否釋放某人的保釋。這些數據來自法院和警察系統,每一步都帶有種族偏見。

Kosinski預測,如果有大量的個人面部圖像,演算法就可以很容易地檢測出這個人是否是精神病患者,或者是否有較高的犯罪傾向。他說,這尤其令人擔憂,因為犯罪傾向並不會轉化為犯罪行為:「即使是有高度犯罪傾向的人也不太可能犯罪。」

他還引用了《經濟學人》中提到的一個例子,在人工智慧用於性取向研究被報道出來之後,夜總會和體育場館可能會面臨壓力,要求人們在進入之前掃描面部,以發現可能存在的暴力威脅。

Kosinski指出,在某些方面,這與人類安全警衛對他們認為危險的人做出主觀決定並沒有太大不同。

卡爾加里大學環境設計和計算機科學教授Thomas Keenan說,法律通常認為人們的面孔是「公共信息」,並指出法規並沒有跟上技術的發展:「當使用某人的面部來產生新信息時,沒有任何法律認為這是建立在侵犯隱私的情況上。」

Keenan說,可能需要發生一場悲劇來引發改革,比如一個同性戀青年被毆打致死,因為惡霸用一種演算法來攻擊他:「現在,你把人們的生命置於危險之中。」

即使人工智慧能夠做出準確的預測,也有一定比例的預測是不正確的。

Keenan說:「你正沿著一個非常滑的斜坡走下去,不管是二十分之一,還是一百分之一……預測都不是完全準確的。」

(36氪編譯組出品,未經許可禁止轉載。)

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 氪星情報局 的精彩文章:

iPhone X註定一機難求?享受最低價格的美國人卻不感冒!
飛機上能玩兒手機了?別高興太早,打局「農藥」是不可能的!
谷歌、蘋果都對AR下手了,離AR普及的那天還遠嗎?
網頁視頻總自動播放?Chrome正建設攔截器,連谷歌自己的廣告都敢攔!
無人駕駛離商用還有多遠?Waymo CEO揭秘汽車行業未來

TAG:氪星情報局 |