當前位置:
首頁 > 科技 > Facebook秘密文件泄露:賺錢是AI的使命

Facebook秘密文件泄露:賺錢是AI的使命

夏乙 李杉 發自 凹非寺

量子位 出品 | 公眾號 QbitAI

這家公司利用AI賺錢,有很特別的方式。當然,美國民眾聽聞之後,又是一陣緊臟。

賺錢利器

美國媒體The Intercept最新獲取了一份Facebook機密文件,其中透露了Facebook提供給廣告主的一項貼心服務:忠誠度預測

這是一項基於人工智慧的服務。

所謂忠誠度預測,簡單來說就是一句話:預測用戶的未來行為,作為廣告投放的依據。

在別的平台,廣告主能根據用戶現狀來精準投放廣告,而在Facebook,廣告主依據的,可能是用戶還沒做出的決定。

通過預測自己的20億用戶接下來面臨什麼選擇,Facebook做到了「比你更懂你」,幫廣告主「提升了營銷效率」。

比如說,有了忠誠度預測服務,Facebook完全可以說:親愛的蘋果,親愛的三星LG華為,我們的AI能預測出幾百萬iOS用戶有心轉投Android,你們要不要精準投放一下?

你接下來做出什麼決定,就在平台和廣告主一念之間。

相比之下,購物車裡放個高達就再送上一大波手辦的淘寶,根據搜索詞來分發廣告的Google百度,都太簡陋了。

因為Facebook所掌握的數據,詳細周全到任何一家同行都望塵莫及。

Facebook如何用AI來精準投放廣告。The Inception整理

從文件中可以看出,Facebook「忠誠度預測」依靠的數據有:用戶位置、設備信息、所連接Wi-Fi網路的情況、看了什麼視頻、親朋好友的各種細節……

甚至你和朋友聊天的內容,也是廣告投放的指路明燈。參議員Bill Nelson就遇到了:「昨天我在Facebook上跟朋友聊天時,提到喜歡某種吃巧克力,接著突然我開始收到各種巧克力的廣告。」

這位參議員遇到的,只是Facebook廣告服務的冰山一小角。

這就好像,你的一切,早已經被Facebook的AI看光光。

這就是上面提到的,AI比你更懂你。

這個技能,如果被「泛化」……應用在其他方面,或者被其他人所利用的話,想想還真是有點怕怕。這也難怪美國人民又有點炸鍋。

Facebook說,為保護用戶隱私,所有數據都聚合的、匿名的。當然,Facebook也不賣數據,他們出售,或者說出租的,是通過自己分析數據而實現的「預測」能力。

劍橋分析獲取的那點三手數據,都能用來實現千人千面推送政治廣告,手握20億用戶全方位信息的Facebook,要決定你下一部手機來自誰家只會更容易。

面對質疑,Facebook想扯上同行們。這家公司在回應中表示:

和很多其他廣告平台一樣,Facebook用機器學習技術,來向正確的人展示正確的廣告。我們並不宣稱知道人們所思所感,也不會將用戶個人信息分享給廣告主。

擋箭牌&背鍋俠

你以為AI只能用來賺錢?拿衣服。

Facebook最近還為AI開闢了又一大新功能:背鍋。

國會山10小時,人工智慧戲份不少。小扎反覆提起,似乎十分依賴,甚至寄予厚望。但深究起來,它一直是個擋箭牌背鍋俠

減少仇恨言論?AI能搞定。

恐怖主義招募信息?AI能搞定。

虛假帳號?還是AI。

俄羅斯干涉大選?AI。

種族歧視廣告?AI。

安全問題?AI。

那這個問題怎麼解決?靠AI吧。

問題為什麼還沒解決?AI還不夠好。

在內容審查問題上,Facebook的AI就一直在嘗試,從未被認可。

小扎在聽證會上反覆提到,Facebook的檢測系統在沒有任何人添加標籤的情況下就自動刪除了99%的「恐怖主義內容」。2017年,Facebook宣布「嘗試」用人工智慧來探測「可能支持恐怖主義」的言論。

99%的「恐怖主義內容」,很可能是以圖片和視頻形式為主。經過訓練的機器學習演算法,現在識別圖像的準確率在特定的數據集上甚至早已超越人類,各家公司也都投入了大規模的使用。

但是,更多的內容是以文字形態出現的。

但是,AI理解自然語言的能力甚至還達不到幼兒園水平。人類語言的一些細微差別,人工智慧識別起來表現堪憂,讓它來分辨真假新聞也是強AI所難。

小扎自己也承認,Facebook用來識別仇恨言論的AI,現在錯誤率實在是太高了。想要依靠AI審核內容,可能「還需要5-10年」。

到今年年底,Facebook打算雇2萬人來做安全和內容審查。

這種反覆用「人工智慧」做辯護的行為,也遭到了媒體的批評。

人工智慧這個詞太寬泛了,想要確切地定義它,寫進教材就是整整一章。它包含各種自動化、機器學習等等。The Verge發表的一篇文章說,「人工智慧」這個詞,讓小扎在一群外行人面前找到了一種託詞,畢竟他們沒有能力展開深入提問。

欺負我們不懂技術?有一位議員做出了反擊。

加里·彼得斯(Gary Peters)追問了一個關於人工智慧透明度的問題:「你知道,人工智慧並非沒有風險,你必須對這種演算法的構建方式保持極高的透明度。」

是的,你的擋箭牌:人工智慧,它本身就很有問題

扎克伯格承認這個問題非常重要,他還表示,Facebook有一整個人工智慧倫理團隊來解決這個問題。

只不過,就算不說人工智慧,Facebook以及它的同行們,對「透明度」的理解也只是基本等同於「模糊地寫在用戶協議里」。這似乎並不能解決什麼問題。

至於Facebook這一輪道歉的核心——數據泄露並被Cambridge Analytica濫用的問題,人工智慧也幫不上什麼忙。

而在真的需要人工智慧的時候,它雖然有著巨大潛力,卻也會因為使用了有問題的數據集而帶上偏見。傾向於將黑人認作罪犯、認為女性和科學工作不搭等等問題,在人工智慧的應用中層出不窮。

For Good

扎克伯格在聽證會上說:

Across the board, we have a responsibility to not just build tools, but to make sure those tools are used for good.」

打造工具,並確保這些工具用來做好事了。但願小扎和他的同行們真的相信這句話,還能記住它。

最後發個彩蛋,小扎這次的國會聽證,不少美國人看完之後,說扎克伯格是機器人……然後就有人出來惡搞了不少視頻。

這是其中一段。

說著說著短路了……

修吧修吧,修好了……

周末快樂~

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 量子位 的精彩文章:

今年又有AI提案!李彥宏建言AI開放平台,馬化騰獻策粵港澳建設
43歲的微軟大重組:肢解Windows,擁抱AI,20年功臣離職

TAG:量子位 |