當前位置:
首頁 > 最新 > Facebook深陷死亡危機,谷歌、亞馬遜、Instagram卻能「逍遙法外」?

Facebook深陷死亡危機,谷歌、亞馬遜、Instagram卻能「逍遙法外」?

本周Facebook遭遇了史上最嚴重的信任危機。一家「獨立」運行的社交科技公司怎麼會和「政治選舉」、「特朗普」、「干預美國大選」、「政治賄賂」、「民主的危害」這些刺眼的詞語糾纏在一起?根據英國《衛報》、《觀察家報》,美國《紐約時報》等媒體的披露,一家名叫Cambridge Analytica(劍橋分析)的公司「竊用」Facebook平台5000萬用戶數據,通過利用第三方APP非法的分析用戶心理特徵數據,影響了包括2016年美國大選在內的多國選舉,並在英國脫歐公投中發揮了巨大的作用。

3月19日,英國BBC電視4台(Channel4)播出專題報道,記者暗訪Cambridge Analytica(劍橋分析公司)高管CEO亞歷山大·尼克斯(Alexander Nix),揭露該公司如何不擇手段利用金錢和烏克蘭美女等骯髒手段,幫助選舉「用戶」上位。Cambridge Analytica及其母公司SCL(英國戰略交流實驗室公司)干預世界各國超過200場大選結果,包括捷克、烏克蘭、印度、奈及利亞、肯亞、墨西哥、巴西、阿根廷、馬來西亞等等國家。短短几天內時間事件持續發酵,Facebook遭到來自投資人,華爾街,美國政府,歐洲政府機構和官員的圍攻。

經過幾天的沉默,美國時間3月21日,Facebook首席執行官扎克伯格在個人Facebook賬號上承認錯誤,「犯了錯誤,需要做的更多」,稱「我們有責任保護大家的數據,如果做不到,那麼我們就不配為大家提供服務」,「亞歷山大·科根和劍橋分析公司對Facebook失信,也是Facebook對與我們分享並期望我們保護數據的人群失信」。

在同天扎克伯格接受美國有線電視新聞網(CNN)採訪時,再次道歉,「保護大家的數據是我們的基本責任」,辯稱劍橋分析公司沒有按照Facebook的要求刪除用戶的個人信息,是對Facebook的「違約」。承認劍橋分析公司涉嫌影響美國2016年大選,並願意就此事前往美國國會作證。

不僅僅是Facebook

技術社會學家Zeynep Tufekci在《紐約時報》發表社評指出,真正的醜聞主角不是劍橋分析公司,而是Facebook的基本業務模式。劍橋分析只是不湊巧的被媒體抓到,究竟還有多少類似數據公司的開發人員從Facebook上收集用戶信息,公眾並不知情。

Facebook旗下的Instagram,擁有大約8億月活量用戶。利用用戶的數據分析給用戶發廣告,從理論上來說,廣告主可以根據目標人群定向的利用造謠散布不實消息。舉個例子,2016年美國大選時,俄羅斯一些「壞蛋」通過喬裝成為「良民」來影響大選結果。

上圖的圖片廣告有「贊助」(Sponsored)兩個字。2016年11月,俄羅斯廣告買主通過大量購買美國眾議院特別情報委員會廣告,通過詳細的人口學統計數據分析,為Instagram的用戶提供符合用戶背景喜好的廣告,Instagram顯然在其中為這些不法分子提供了便利條件。

與之類似的還有谷歌和亞馬遜公司,它們很容易基於用戶簽訂的同意服務協定積累大量的用戶數據。當你使用谷歌搜索時,谷歌很容易通過識別用戶的IP地址知道用戶具體的物理位置。當你使用Android系統的手機,谷歌助手時,谷歌公司完全可以繪製出用戶一天的活動範圍。值得注意的是,谷歌一旦將觸角伸向個人健康領域,彙集用戶的個人健康數據,完全可以比保險公司更準確的預測用戶的壽命。即便你關掉Chrome,刪除瀏覽器cookies(儲存在用戶本地終端上的數據),谷歌仍然可以根據IP地址獲取數據。

當你在亞馬遜上購物時,不要忘記亞馬遜可以根據用戶姓名、年齡、地點、購物的喜好等等繪製出用戶精準肖像。

Facebook只是「數據壟斷巨頭」之一,不同的是Facebook比谷歌擁有更多的用戶在線生活數據,比如用戶的愛好和觀點。相關數據顯示,美國有大約68%的成年人使用Facebook,超過三分之二的用戶會每天通過網站或者APP查看Facebook。Facebook潛在無形的巨大人際社交網路已經使得人們沉浸其中無法擺脫Facebook的「監控」。

AI是潘多拉盒子?

數據智能是AI的一個重要研究領域,數據分析和數據挖掘是基礎,數據分析和數據決策是細分。也就是說人工智慧研究領域中很大一部分是開發數據並儘可能有效解決優化這些問題的演算法,以閉環的形式實現對某些現象的完全控制。

3月22日,谷歌研究員Fran?ois Chollet在推特上表示,Facebook事件的核心不僅僅是隱私泄露和缺乏信任,而是Facebook運用AI的能力,並陷入了「極權主義的困境」,他說:「我們正在研究一個強大的群體,即建立超過二十億人次,精細入微的心理圖譜,進而進行大規模的行為操縱試驗。最終是為了開發世界上最先進的AI技術,說實話,這件事真是讓我害怕」。

其實早在2013年,斯坦福研究員Michael Kosinski公布的白皮書就顯示,AI僅僅利用Facebook的數據就可以很好的預測一個人的人格特徵,比人類自己更加了解自己。

任何資料庫都有可能被濫用,資深計算機學家,GNU操作系統的創始人Richard Stallman曾說:「唯一不危險的資料庫就是永遠不收集數據的資料庫」。

目前來看,科技公司例如Twitter等高度重視AI的研究,特別是深度學習領域,在未來極有可能通過心理戰術的研究實現「大規模的人口控制」。因為社會媒體數據是心理學心理學、技術、商業和人文等眾多研究領域的豐富信息來源。如果完全通過法律禁止任何管理系統,無論是公司,非營利組織,還是公共機構使用收集數據,則可能從一個極端走向了另一個極端。

技術的發展是人類「生存發展需求」以及「社會性的需求」。谷歌CEO施密特曾經表示,技術本身是中立的,其作用發揮的如何取決於社會如何管理技術。準確的說就是取決於政府和人們如何使用技術。作為AI技術的使用者,背負著如何在「倫理道德」的框架下合理的應用AI。

數據監管一直是懸在各國管理者頭上的「達摩克利斯之劍」,2013年美國著名的「稜鏡門」事件敲響了各國數據保護的警鐘,事實上,如何確保數據有效,安全的流動一直是一個難題。在這個過程中我們需要建立一個政府和企業聯動,建立開放共生,利益邊界清晰的數據生態。

如果Facebook通過第三方數據公司,預測騷亂,比較青春期期間女孩子們身體的變化,社交網站能否降低緩解人們的壓力,是否能夠破壞人們良好的社會心理結構。或許,不會陷入今天這樣瀕臨生死抉擇,輿論公眾一致討伐的境地。

如何更好的人為干預監管Facebook、谷歌、亞馬遜、Instagram之類科技公司的數據,不給AI「作惡」的機會,才是關鍵。

編輯 / 趙晨希

圖源 / 網路


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 未來圖靈 的精彩文章:

推薦 8個飽受好評且功能獨特的開源人工智慧項目
克隆類人動物,預測死亡時間,製造機器伴侶……技術能讓你多不適?

TAG:未來圖靈 |