當前位置:
首頁 > 最新 > 濫用行為導致名譽崩塌,Facebook 還能洗乾淨自己嗎?

濫用行為導致名譽崩塌,Facebook 還能洗乾淨自己嗎?

編者按:在剛剛過去的一年,社交媒體巨頭 Facebook 可以說是經歷了最大的挑戰,遭到了「幫助假消息傳播、操縱美國大選以及加速極端主義」等多項指控。為此,這家社交媒體巨頭組建了一個專家團隊來應對濫用行為,保護公司聲譽,力求在問題出現之前發現問題。對此,安全專家們又有何看法呢?

科技公司一直津津樂道於自己的產品將會帶來怎樣積極的巨變,像 Facebook 以「賦予人創建社區的權力,讓世界聯繫更加緊密」為使命,Google 則是「將全世界的信息組織起來,使其能被普遍獲得和使用」,微軟則希望「賦予地球每一人、每一組織做出更大成就的權力」。即便是 Snapchat 這家以「Snap Inc 是一家相機公司」謙遜的形象作為自我介紹語的公司,也不禁自誇道:「我們的產品能夠讓人們更好地表達自我、活在當下、進一步了解這個世界並且共同享受這其中的樂趣,從而推動人類進步。」

通過以上這些說法,足看見其中的雄心壯志,而這也是科技領域大型企業的常態。但是,卻很少見這些企業投入時間或精力去應對這些世界一流的新技術所產生的預料之外的後果。

當然,這其中也有例外。Google 在 2014 年收購總部位於倫敦的人工智慧公司 DeepMind 之時,DeepMind 創始人的要求之一就是由 Google 成立一個道德委員會,以確保未來對該技術的任何使用方式與途徑都會受到嚴格道德準則的約束。一年後,埃隆·馬斯克帶頭成立了人工智慧研究小組 OpenAI,以「通過最有可能令整個人類受益的方式推進數字智能技術的發展,而不受財務回報的約束」為目標。

但有些時候,一些本意並非是想改變世界性事件發展進程的產品和功能,卻可能引發巨大的社會動蕩。2017 年,Facebook 決定測試一下將新聞報道放在一個單獨的部分,與 News Feed 分開是否會增加用戶參與度。在這過程中,Facebook 可能對一些包括Cambodia等在內的發展中民主國家的獨立生態媒體系統造成了嚴重的損害。

但要是拿這與 Facebook 所受到的「可能無意中造成了緬甸羅興亞少數民族種族清洗」的指責相比可以說就不算什麼了。在 Facebook 平台上,我們可以看到各種「假新聞」以及極度擁護各自所屬黨派的各種社區,這種情況下,如果該國的社會狀況不夠穩定,無法抵禦這種言論和分歧,那就會爆發暴力事件。

現在,Facebook 正努力避免此類事件的再次發生,並且希望能夠通過創建「調查行動團隊」(IOT)從公司合作商--Cambridge Analytica 用戶隱私醜聞一事的負面新聞報道中走出來,旨在防患濫用行為於發生之前。Facebook 商業誠信總監 LyndaTalgo 兩周前在接受 Buzzfeed 採訪時表示,由廣告人員、研究人員以及之前從事過偵查工作的人員組成的一個團隊正與公司進行合作「向前看,關注並找出即將發生怎樣的事情」。

但其實,即便你不是 Facebook 的內部工作人員,即便你並非身處其位於門洛帕克的辦公區內,你也能感受到 Facebook 在不久的將來必須要打一場硬仗。因此,我也組建了自己的「調查運營團隊」,團隊成員都是那些一直在遠遠觀察這個行業的人,他們也就矽谷當前所出現的問題給出了自己的警示意見。

來自比利時的道德黑客、安全研究員 Inti De Ceukelaire 發現了 Facebook 存在的多個疏忽和漏洞。上個月,他曾披露一款名為 NameTests 的第三方測驗應用令 1.2 億 Facebook 用戶面臨數據泄露風險,只要用戶註冊 Nametests.com 網站中的任何一款智力競賽應用,他們在 Facebook上 的個人數據就會被泄露。他表示這樣的問題在 Facebook 網站上其實很常見,雖然 Facebook 急於打擊各種不良及濫用行為,但在合作夥伴選擇方面似乎太過漫不經心。

Ceukelaire 說道:「整個問題的解決大約用了兩個月的時間,而在問題最終解決之前,Facebook 甚至從未阻止過 NameTests 這一應用,哪怕只是短期的停用也沒有。但是,當我創建了一款類似的工具之後,幾個小時之內就被停用了,之後與我相關的所有域名都被 Facebook 攔截了。」他補充道,同樣,這些合作夥伴「也擁有特殊的數據訪問許可權,能夠幫助 Facebook 形成更多的壟斷。」

Forrester 的首席分析師 Thomas Husson 認為這其中並不僅僅存在安全問題。他指出,雖然整個行業對於人工智慧問題表現出了足夠的關注度,但它仍然存在風險。「人工智慧的使用和自動化流程的能力將會引發更多的道德問題,像 Facebook 或 Google 等在內的數字平台必須確保自己能夠規避有害的偏見和歧視行為的發生。包括面部識別和生物特徵識別等在內的人工智慧技術將進一步增加消費者對於隱私問題的擔憂。」

來自非營利機構 Privacy International 的數據項目負責人 Frederike Kaltheuner 也同樣表達了對於面部識別技術的擔憂情緒,他提醒道,即便這些公司對於技術所帶來的負面結果有所擔憂,他們也往往會不當回事。「系統能夠反映出數據和社會中所存在的偏見,無處不在的面部識別技術將導致大規模的街道級別監控行為,而這對於那些本來就要面對各種日常歧視的人來說會造成很大的傷害。對於在閉路電視攝像機內部署大規模面部識別系統的行為,社會各群體必須繼續採取行動,與之抗爭。」

Kaltheuner 認為,這個由於太過麻煩所以大家都不願去解決的問題其實出在該行業的商業模式身上。「問題就在於數據利用本身成為了一種商業模式。要注意,我所說的並不是產品和服務需要數據來發揮作用這一事實,問題在於他們打著產品和服務的名義來進行數據挖掘。」

然而,該行業面臨的最大的一個風險可能就是讓 Facebook 當下不得不進行反省的那個問題:信任。De Ceukelaire 指出:「如果一家企業未能保護數百萬數據的數據隱私,那你就無法信任他們的公關團隊。我們現在正在朝著正確的方向前進,但我們的整體步調已經落後了。我們需要更快地行動起來、採取更透明的保護措施、省去那些冠冕堂皇的廢話。這不僅僅適用於 Facebook,也適用於該行業的每一家大型科技公司。」

Forrester 首席分析師 Husson 同樣表達了這一觀點,只是言辭相對平和一些。他說道:「Facebook 和Google 都是連接消費者和品牌的數字平台,能否得到客戶的信任是決定他們未來命運的關鍵所在。他們在這方面所面臨的挑戰將會變得日益嚴峻,這不僅僅是因為像《通用數據保護條例》(GDPR)這樣更為複雜的法律條例不斷湧現,而且也是因為消費者會越來越多地要求品牌依照價值觀來行事。」

對於 Facebook 和 Google 來說,信任是一個尤其重要的資源,因為他們與真實客戶—占其收入絕大部分的廣告客戶之間的關係同樣缺乏信任。Facebook 不得不一再由於報告給廣告商的指標存在過度誇大的問題而一再道歉,Google 旗下的 YouTube 也由於品牌安全問題(例如,臭名昭著的將客戶付費廣告投放到極端組織相關內容頻道之中)受到廣告商的攻擊。Husson 指出:「毫無疑問,亞馬遜在這方面做的比 Google 和 Facebook 都要好。」

成立一個調查團隊顯然是贏回信任的一個好方法,但也許是會引起別人猜疑的一個好方法。隱私維權者Aral Balkan 就表示根本不相信 Facebook 目前正在推行的「損失控制和公關行動」。他說道:「這就像是一個人類養殖場,之前曾因對待牲畜的方式而受到公開羞辱,現在正通過內部審計方式來規避未來的公關災難性事件。」當被問到如果他發現自己也身處類似的團隊會怎麼做時,Balkan 表示:「首先我絕對不會讓自己身處這樣的一個團隊,因為我根本無意幫助這些監控資本家去改善他們的公共關係。我只是想確保他們的濫用行為得到有效的監管,並幫助他們找到符合道德要求的替代解決方案。」

對於 IOT 團隊,我們真正的衡量標準並不在於他們能否發現問題,而是在於他們在直接耕地可能是最有利可圖的行動方案這一前提下,能否依然改變公司計劃來避開那些雷區。如果 IOT 能夠很好地完成他們的工作,那以後我們應該就不會再聽到這個名字了。對於 Facebook 來說,這可能是最好的結果。

編譯組出品。編輯:郝鵬程


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 36氪 的精彩文章:

聊天機器人沉浮錄:揚言要替代 APP,結果變得默默無聞
北京暴雨,VR看房或成最大贏家

TAG:36氪 |