當前位置:
首頁 > 新聞 > 87個國家、750萬個面孔數據,『情緒識別機器』催生200億美元「財富夢」

87個國家、750萬個面孔數據,『情緒識別機器』催生200億美元「財富夢」

是否有一個程序可以通過讀取潛在的恐怖分子的面部表情和行為來發現他們?

這是美國交通安全管理局(TSA)於2003年提出的一個假設,當時它開始測試一個新的監控程序,稱為「通過觀察技術篩查乘客」,簡稱SPOT。

87個國家、750萬個面孔數據,『情緒識別機器』催生200億美元「財富夢」

在制定該計劃時,他們諮詢了舊金山加利福尼亞大學心理學榮譽教授Paul Ekman。幾十年前,Ekman開發了一種識別微小面部表情並將其映射到相應情緒的方法。這種方法被用來訓練「行為檢測人員」,以掃描面部是否有欺騙跡象。

但是當該計劃於2007年推出時,卻遇到了問題。官員們或多或少地隨意運用該技術對人進行審訊,而且少數逮捕行動是與恐怖主義無關。更令人擔憂的是,該計劃據稱被用來證明種族相貌的合理性。

Ekman試圖將自己與Spot保持距離,聲稱他的方法被誤用了。但其他人認為,該計劃的失敗是由於過時的科學理論支撐了Ekman的方法。

近年來,科技公司已經開始使用Ekman的方法來訓練從面部表情中檢測情緒的演算法。一些開發人員聲稱,自動情緒檢測系統不僅比人類更好地通過分析面部表情來發現真實的情緒,而且這些演算法將適應我們內心的感受,極大地改善了與設備的交互。

87個國家、750萬個面孔數據,『情緒識別機器』催生200億美元「財富夢」

但是,許多研究情緒科學的專家擔心這些演算法根據錯誤的科學理論會做出高風險的決定,也將可能再次失敗。

識別你的臉:一個200億美元的行業

情緒檢測需要兩種技術:

  • 計算機視覺,精確識別面部表情;

  • 機器學習演算法,分析和解釋這些面部特徵的情緒內容。

通常,第二步採用一種稱為監督學習的技術,通過這種技術,一個演算法被訓練來識別它以前見過的東西。基本的想法是,如果你在看到一張新的快樂臉譜圖時,用標籤「快樂」來顯示成千上萬張快樂臉譜圖的演算法,它會再次將其識別為「快樂」。

研究生Rana el Kaliouby是第一批開始嘗試這種方法的人之一。2001年,在從埃及搬到劍橋大學攻讀計算機科學博士學位後,她發現自己花在計算機上的時間比其他人更多。她認為,如果她能教電腦識別情緒並對她的情緒狀態做出反應,那麼她遠離家人和朋友的時間就不會那麼孤獨。

Kaliouby致力於這項研究,並最終開發出一種輔助阿斯伯格綜合症兒童閱讀和回應面部表情的設備。她稱之為「情緒助聽器」。

2006年,Kaliouby加入麻省理工學院的情緒計算實驗室,與實驗室主任Rosalind Picard一起繼續改進和完善該技術。然後,在2009年,他們共同創辦了一家名為Affectiva的創業公司,這是第一家營銷「人工情緒智能」的公司。

起初,Affectiva將他們的情緒檢測技術作為市場研究產品出售,為廣告和產品提供實時的情緒反應。他們找到了客戶,如Mars、凱洛格和哥倫比亞廣播公司等客戶。Picard於2013年離開了Affectiva,並加入了一家不同的生物識別創業公司,業務繼續增長,圍繞它的行業也是如此。

亞馬遜、微軟和IBM一直將「情緒分析」作為他們面部識別產品的主要功能進行宣傳,並且許多小公司,如Kairos和Eyeris已經出現,為Affectiva提供類似的服務。

87個國家、750萬個面孔數據,『情緒識別機器』催生200億美元「財富夢」

除了市場研究,情緒檢測技術現在被用於監測和檢測駕駛員損傷,測試視頻遊戲的用戶體驗以及幫助醫療專業人員評估患者的健康狀況。

Kaliouby看到情緒檢測從一個研究項目發展成為一個價值200億美元的行業,她對這種增長的持續性充滿信心。她預測,在不久的將來,當這項技術無處不在並融入我們所有的設備中時,能夠「利用我們的內心、潛意識做出瞬間的反應」。

來自87個國家的750萬個面孔數據

與大多數機器學習應用程序一樣,情緒檢測的進展取決於訪問更高質量的數據。

根據Affectiva的網站,他們擁有世界上最大的情緒數據存儲庫,來自87個國家的面孔,數量超過750萬,其中大部分是從人們收看電視或開車每天上下班的選擇性錄像中收集的。

87個國家、750萬個面孔數據,『情緒識別機器』催生200億美元「財富夢」

這些視頻由位於開羅的Affectiva辦公室的35名貼標人進行分類,他們觀看鏡頭並將面部表情轉化為相應的情緒。例如,如果他們看到低垂的眉毛、緊繃的嘴唇和凸出的眼睛,他們會附上標籤「憤怒」。這個被標記的人類情緒數據集然後將用於訓練Affectiva的演算法,該演算法學習如何將憤怒的臉、笑臉與幸福等聯繫在一起。

這種標記方法,被情緒檢測行業的許多人認為是測量情緒的黃金標準,它由Paul Ekman和Wallace V Friesen在20世紀80年代開發的一種叫「情緒面部動作編碼系統(Emfacs)」衍生而來。

這個系統的科學根源可以追溯到20世紀60年代,當時Ekman和兩位同事假設有六種普遍的情緒——憤怒、厭惡、恐懼、快樂、悲傷和驚訝——這些情緒與我們有著緊密的聯繫,並且可以通過分析面部肌肉的運動在所有文化中被發現。

為了驗證這一假設,他們向全世界不同的人群展示了面部照片,要求他們辨別他們所看到的情緒。他們發現,儘管存在巨大的文化差異,人類還是會將相同的面部表情與相同的情緒相匹配。一張眉毛低垂、嘴唇緊閉、眼睛凸出的臉對美國的銀行家和巴布亞紐幾內亞的半游牧獵人來說都意味著「憤怒」。

在接下來的二十年里,Ekman利用他的發現開發了一種識別面部特徵並將其映射到情緒的方法。潛在的前提是,如果一個人的普遍情緒被觸發,那麼一個相關的面部動作就會自動出現在臉上。即使那個人試圖掩飾他們的情緒,真實的本能的感覺也會「泄露」

87個國家、750萬個面孔數據,『情緒識別機器』催生200億美元「財富夢」

整個20世紀後半葉,這一理論被稱為「經典情緒理論」,開始主導著情緒科學。Ekman將他的情緒檢測方法作為專利,並開始將其作為培訓項目出售給CIA、FBI、海關和邊境保護局以及TSA。真實情緒在臉上可讀的觀念甚至滲透到大眾文化中,形成了「Lie to me」節目的基礎。

然而,許多研究情緒本質的科學家和心理學家質疑經典理論和Ekman的相關情緒檢測方法。

情緒檢測理論備受質疑

近年來,心理學教授Barret提出了一個特彆強烈而持久的批評。

Barret作為研究生首先遇到了古典理論。她需要一種客觀地測量情緒的方法,並且遇到了Ekman的方法。在回顧文獻時,她開始擔心潛在的研究方法有缺陷——特別是,她認為通過為人們提供與照片匹配的預選情緒標籤,Ekman無意中「準備」了他們給出的某些答案。

她和一組同事通過重演Ekman的測試來檢驗這個假設,而不提供標籤,讓受試者可以自由地描述他們所看到的圖像中的情緒。具體的面部表情和具體的情緒之間的關係直線下降。

87個國家、750萬個面孔數據,『情緒識別機器』催生200億美元「財富夢」

從那時起,Barret發展了她自己的情緒理論,這在她的書《情緒是如何產生的:大腦的秘密生活》中有所闡述。她認為,大腦中沒有由外部刺激觸發的普遍情緒。相反,每一次情緒體驗都是由更基本的部分構成的。

她寫道:


「它們是你身體物理特性的結合,是一個靈活的大腦,它將自己連接到它所處的任何環境中,以及你的文化和成長環境中。」

「情緒是真實的,但在客觀意義上不是分子或神經元是真實的。它們的真實性與金錢的真實性是相同的,也就是說,這不是幻覺,而是人類一致同意的產物。」

Barret解釋說,把面部表情直接映射到所有文化和環境中的情緒是沒有意義的。當一個人生氣時可能會皺眉,而另一個人可能會在策劃敵人倒台時禮貌地微笑。因此,評估情緒最好理解為一種動態實踐,包括自動認知過程、人與人的互動、具體經驗和文化能力。她說:「這聽起來像是很多工作,但確實如此。」


「情緒是複雜的。」

Kaliouby也同意情緒是複雜的,這就是為什麼她和她在Affectiva的團隊一直在努力提高他們數據的豐富性和複雜性的原因。除了使用視頻而不是靜止圖像來訓練演算法外,他們還嘗試著捕捉更多的上下文數據,比如聲音、步態以及人類感知之外的面部細微變化。她相信更好的數據將意味著更準確的結果。一些研究甚至聲稱機器在情緒檢測方面已經優於人類。

但據Barret說,這不僅與數據有關,而且與數據如何被標記有關。情緒檢測公司和其他情緒檢測公司用來訓練演算法的標記過程,只能識別Barret所說的「情緒刻板印象」,就像表情符號一樣,這些符號符合我們文化中熟悉的情緒主題。

87個國家、750萬個面孔數據,『情緒識別機器』催生200億美元「財富夢」

紐約大學人工智慧研究所的聯合主任Whittaker認為,基於Ekman過時的科學構建機器學習應用程序不僅僅是一種糟糕的實踐,它還轉化為真正的社會危害


「你已經看到招聘公司使用這些技術來衡量應聘者是否是一個好員工。」

她說:「在學校環境中,你也可以看到一些實驗性的技術被提出,以觀察學生在課堂上是積極的、無聊的還是憤怒的。」「這些信息可以用來阻止人們獲得工作或改變他們在學校的待遇和評估方式,如果分析不十分準確,那將是一種具體的物質傷害。」

Kaliouby說,她意識到情緒檢測可能被濫用的方式,並將認真對待她的工作道德。「與公眾就這一切的運作方式——在哪裡應用以及在哪裡不應用進行對話至關重要。」

Kaliouby過去戴過頭巾,她也敏銳地意識到建立不同數據集的重要性。她說:「我們確保當我們訓練這些演算法時,訓練數據是多樣的。」「我們需要代表白種人、亞洲人、膚色較深的人,甚至是戴頭巾的人。」

這就是為什麼Affectiva從87個國家收集數據的原因。通過這個過程,他們注意到在不同的國家,情緒表達似乎呈現出不同的強度和細微差別。例如,巴西人用寬而長的微笑來表達幸福,而在日本,微笑並不表示幸福,而是表示禮貌。

Affectiva通過在系統中添加另一層分析來解釋這種文化差異。彙編了Kaliouby所說的「基於種族的基準」,或編纂了關於不同種族文化中如何表達情緒的假設。

但正是這種基於種族等標記的演算法判斷,讓Whittaker最擔心情緒檢測技術暗示了自動化「相面」的未來。事實上,已經有公司對某人成為恐怖分子或戀童癖者的可能性進行了預測,同時也有研究人員聲稱,他們擁有的演算法能夠單獨從臉上檢測到性行為。

最近幾項研究還表明,面部識別技術會產生更可能傷害少數族裔群體的偏見。去年12月發表的一篇文章顯示,與白人相比,情緒檢測技術給黑人臉上的負面情緒更多。

Kaliouby表示,情緒系統確實有一個「種族分類器」,但是他們現在沒有使用它。相反,他們使用地理位置作為確定某人來自哪裡的基準。這意味著他們將巴西的微笑與巴西的微笑進行比較,而日本的微笑與日本的微笑進行比較。


「如果巴西有一個日本人呢?難道系統能識別出禮貌微笑和幸福微笑的細微差別嗎?「

Kaliouby承認,在這個階段,這項技術並不是百分之百的萬無一失。(雷鋒網雷鋒網)

Via:theguardian(雷鋒網)

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

金融風控的難題怎麼解?這裡有三份大咖的「答卷」
智能門鎖走向而立之年

TAG:雷鋒網 |