當前位置:
首頁 > 科技 > 74%Facebook用戶對收集、分析信息的事實不知情

74%Facebook用戶對收集、分析信息的事實不知情

文章來源 | techcrunch

作者 | Natasha Lomas

編譯 | Kristen

2018年9月4日到10月1日,Pew調查了963位Facebook美國用戶,這些用戶年齡均在18歲以上,調研過程使用了GfK的KnowledgePanel。

Pew Research Center調查發現,大部分用戶對Facebook為定向廣告追蹤、收集並分析用戶信息的行為不知情。

具體數字如下: 74%的受訪用戶並不清楚Facebook會製作用戶興趣、特徵列表,以便定向廣告,當調查人員告知用戶存在廣告偏好頁面時,他們才意識到這件事。51%的Facebook用戶告訴Pew,他們對Facebook的行為感到不舒服。27%的受訪者認為Facebook生成的廣告偏好列表並不精準。研究人員還發現廣告偏好頁面為88%的受訪用戶生成了部分資料。

去年,Facebook創始人扎克伯格參加聽證會時表示,用戶對上傳至Facebook平台的信息和Facebook平台為定向廣告收集的數據具備絕對的控制權。

但問題的關鍵在於用戶根本不知道Facebook做了些什麼,如何「完全控制」這些信息。這是美國立法者在草擬完善的聯邦隱私法時需要仔細思考的問題。

Facebook通過用戶不了解廣告技術業務功能的特點,來「應付」用戶對演算法同身份連接在一起的信息控制權,也就是說用戶掌握的控制權實際上是微乎其微的。

Facebook一直標榜為社交平台,幫助人與人之間建立聯繫,而不是大型的監控用戶、分析信息的廣告投放機器。事實上,除非廣告技術行業的一份子,大部分用戶不清楚扎克伯格描述的服務的細微差別。

與此同時,用戶對Facebook收集並分析數據的行為並不知情,導致用戶禁止興趣愛好被分類用以廣告投放的比例降到最低,這不是Facebook的漏洞,只是其業務特點,憑藉這個特點,Facebook從中獲利。

去年四月,扎克伯格呼籲立法者制定一套簡單而又實用的方法解釋數據的用處,但這對Facebook提供的服務沒有任何限制。

從用戶的角度來看,即便清楚Facebook提供廣告管理設置,也不會花費大量時間閱讀條款。

很多用戶甚至都不會查看信息流中的舊日誌,更別說是專門查看廣告管理設置,弄清楚每個按鈕有什麼意義。

Facebook加大對廣告自助服務體驗的宣傳,強化廣告定向對用戶有價值的觀點。但Facebook對用戶和非用戶的背景監控——巨大隱私交易沒有對大眾進行詳細的闡述。

值得注意的是,Facebook沒有為用戶提供不再被追蹤、定製列表的選項,更沒有為用戶提供影響定向廣告的廣告設置。

無論扎克伯格在國會上承諾過什麼,「影響」不等同於控制。公司只允許用戶擺弄幾個小按鈕,而不是關閉整個監控系統,Facebook用戶是無法理解這些廣告選項的。

Facebook演算法侵犯用戶隱私

Facebook演算法不僅可以定製用戶列表,還包含用戶政治傾向、種族、所屬文化等信息。

Pew研究人員調查了兩個明確的類別,發現51%的受訪用戶被 Facebook列為偏好政治的特點,21%的受訪者則列為偏愛多元文化。

被 Facebook列為偏好政治的用戶中,73%的用戶認為Facebook對政治偏好的分類非常或部分準確;27%的受眾認為描述不準確。

37%的受訪者認為,Facebook對自己的政治偏好描述準確,14%受訪者認為Facebook的描述不準確。

Facebook使用個人數據操縱選舉成為一系列業務醜聞的導火索,劍橋分析公司在未經用戶允許的情況下,以競選為目的濫用用戶數據。

在其他選舉中,Facebook廣告避開了競選支出規則。如2016年英國脫歐公投中,大量廣告藉助Facebook平台非透明的定向到用戶。

為了干預選舉,針對民眾推送虛假政治新聞。例如,2016年,克里姆林宮操縱了美國大選。

去年,英國數據監管機構長期調查後出於對大規模數據應用的擔憂,呼籲各國在道德層面上,暫停在政治選舉活動中使用社交媒體數據,

雖然外界對Facebook操縱政治選舉的行為不滿,但其平台標記用戶政治傾向的事實卻被忽略。

劍橋分析公司利用Facebook數據給用戶標記政治標籤,用於定向廣告,該標籤也是 Facebook平台的核心功能——允許任何規模的廣告主根據演算法對政治傾向的定義,在未經授權的情況下有償定向用戶。(根據歐洲數據保護法,政治傾向屬於敏感信息,也就是說Facebook在該地區面臨越來越嚴格的監管。)

被標記為多元文化親和力的受訪者中,60%的受訪者認為他們對該群組具備較強偏好,37%的受訪者認為不符合。57%的多元文化親和力受訪者認為,Facebook對其種族偏好描述相符。

根據Facebook演算法,在「多元文化偏好」人群中,43%的受訪者感興趣非裔美國文化;43%的受訪者感興趣西裔文化;偏好亞裔美國文化的受訪者佔10%。

Pew指出,Facebook定向廣告工具不提供白人文化的親和力分類,這一定程度上體現了固有偏見。

近年來,Facebook演算法為用戶貼上了種族偏好的標籤,並推送歧視性廣告引起了爭議。

2016年末,為保護房屋租賃、信用卡相關廣告,Facebook將不再使用種族偏好標籤定向廣告。但一年之後,該公司的廣告審查系統未能阻止潛在的歧視性廣告。

從選舉事件到歧視性廣告我們可以看出,Facebook利用演算法給用戶定義標籤帶來了很多危機。大多數用戶意識到標籤之後會感到不舒服。

對Facebook而言,當立法者修改隱私條例,以有效的方式保護用戶個人數據才是Facebook最大的危機。

UCL機器學習和數據權研究員Michael Veale表示:「Facebook處理數據的手段沒有達到用戶的預期,除此之外,Facebook的行為違反了歐洲法律,這引起了他們的擔憂。如果Facebook承認推斷政治傾向和種族偏好屬於收集信息,那麼其必須得到用戶認可或用戶必須選擇拒絕,Facebook才不能進行下一步。」

Facebook表示,用戶要求「查看大量的網路和app追蹤數據,並將其同ID聯繫起來生成文件」的要求是不合理的,Veale表示,我曾和愛爾蘭數據保護委員會發起一項深度調查,Facebook對用戶和非用戶數據收集的程度讓人震驚。

Pew在2018年5月29日到6月11日展開了第二項調查,該調查使用Pew美國趨勢小組,樣本來自於使用社交媒體(Facebook、Twitter、Instagram)的美國成年人。Pew調查人員發現,社交媒體用戶認為社交媒體平台可以根據手機的數據和記錄輕而易舉的描繪用戶的關鍵特徵。

Pew調查發現,84%的受訪者認為社交媒體平台可以描繪用戶的種族特徵,79%的認為可以描述興趣愛好,71%的認為可以描繪政治偏好,65%的認為宗教信仰。不過28%的受訪者認為,社交平台無法得出用戶的政治觀點。

因此,即便用戶平時不關注社交媒體收集數據、分析用戶的行為,也能輕易推斷出社交媒體平台會根據用戶信息推出敏感結論。

Pew互聯網和技術研究主管Lee Rainie表示,本次研究的目的是為討論消費者隱私、商業政治活動廣告的微觀定向、演算法如何塑造新聞和信息系統等話題,提供更多參考數據。

本文由Morketing原創發布

申請轉載請在文末留言


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 Morketing 的精彩文章:

WPP「重寫戰略」
微盟集團今日上市,孫濤勇5年完成 「敲鐘」豪言

TAG:Morketing |