當前位置:
首頁 > 最新 > 臉書&油管透明度報告:引入用戶審核,能真正凈化平台內容嗎

臉書&油管透明度報告:引入用戶審核,能真正凈化平台內容嗎

塔爾頓·吉萊斯皮(Tarleton Gillespie)是新英格蘭微軟研究院的首席研究員,他是Social Media Collective的成員,也是康奈爾大學信息科學系的副教授。本文部分節選自他即將出版的書《互聯網的保管者:平台,內容審核,以及塑造社交媒體的秘密決定》,這本書將很快由耶魯大學出版社出版。

社交媒體平台一直以不透明的方式運作,現在,事情可能已經有了一些變化。

近期,好幾個社交媒體平台都在提高透明度方面採取了重大舉措,尤其是在內容審核和數據隱私方面。Facebook對社區標準作出重大修訂,明確規定平台用戶禁止發布的內容,這些改變如此地引人注目,並不是因為規則的轉變巨大,而是因為Facebook現在已經非常詳細地闡明了這些規定。

YouTube發布了最新的透明度報告,報告中首次公開YouTube如何進行內容審核,不再是只有政府的刪除要求。本周,數十個平台都在提醒用戶隱私政策有變化,因為通用數據保護條例(GDPR) 預計於5月25日起開始生效。

我們能從這些透明性舉措中學到什麼呢?這些措施對內容審核來說到底意味著什麼?我和許多人一樣一直在呼籲,社交媒體平台應該在內容審核方式上更加透明。因此,Facebook發布的內部規則和YouTube擴充的透明度報告都值得稱讚。從好的角度來看,Facebook下一個合乎邏輯的動作是發布內容審核新準則。關於色情內容、騷擾、真實姓名和自我傷害的規定已經就位,現在我們需要認真研究如何有效和公平地實施這些規定。

來源:YouTube 2017Q4透明度報告

雖然大多數平台多年來都在發布透明度報告,但是這些平台都只專註於滿足政府和公司的要求。YouTube的這次報告,似乎是大平台第一次系統性地公開標記從何而來,以及其他人是如何回應的,並且該公司承諾在未來的報告中將發布更多的標記資料。

但是坦率地說,所謂的透明度只是表象,看不到的東西總與已經看到的一樣多。與此同時,新規定本身也能揭示出我們所處的環境。下面帶來Facebook的新社區標準和YouTube新報告的分析,來看內容審核是如何實現的,以及用戶對於內容審核應承擔多少義務。

社交平台的極端恐怖時期結束

不同的平台以不同的方式詮釋他們的規則,但它們都有一些比「服務條款」這個法律術語更直白的聲明,表達著平台對用戶的期望以及禁止的內容。解釋規則只是平台審核的一小部分,很少有用戶閱讀這些社區標準,甚至許多人都不知道它們的存在,但是這些規定可能與實際執行情況有密切的關係。儘管如此,它們對規則的表述還是非常重要的,因為這給了平台一個最明顯的機會來證明其審核行為的合法性,相比於指導手冊,社區指南更像一部憲法。

上周,Facebook用直白甚至令人不適的細節闡述了它的規定,雖然此前它已經禁止了「性裸露」的圖像,但現在它重新定義禁止圖片的相關說法:「嘴或生殖器進入或接觸另一個人的生殖器或肛門,並至少有一個人的生殖器是裸露的。」而禁止的戀物癖現在包括以下內容:「可能導致人或動物死亡的行為,解體,嗜食同類,大便,尿,唾液,月經,嘔吐。」

雖然其中一些具體的規定可能只存在於理論上,但大多數都是真實的,因為Facebook已經遇到過類似情況,並且這些情況已經出現了數千次。這份文件很重要,因為它意味著用戶把社交媒體置於極端恐怖的歷史地位的時期已經結束:「非人性化的言語包括(但不限於)引用或比喻污穢物、細菌、疾病或糞便等」,「視頻內容顯示虐待兒童,包括用手腕/腳踝、胳膊/腿或頸部等拋起、旋轉或搖晃嬰兒(不能自主站立的)等」,「組織要為下列行為負責:賣淫、強迫/抵債勞動、奴役或摘除器官」。

標記機制已與過去不同

大多數平台主要或已完全轉向其用戶基礎,讓用戶幫助識別攻擊性的內容和行為,這通常依賴一種「標記」機制,即允許用戶向平台標記令人反感的內容。

利用用戶的確很方便,因為它將這個巨大任務分配給了人數眾多的用戶群,當有用戶接觸到這些內容的時候,平台就將識別攻擊性內容的任務交給了用戶,依託用戶社群使平台擁有合法性和覆蓋性,標記機制本身清楚地表明該平台正在傾聽用戶的聲音,並讓他們在受到傷害時尋求幫助提供了途徑。

2005年YouTube在其視頻中增加了標記機制,這是一項實質性改變。在此之前,YouTube只在網站底部有一個通用的「聯繫我們」的電子郵件。如今,在社交媒體平台上,用戶轉變為網路警察,更廣泛來說,這是一種是對公共信息資源的管理。這種機制越來越成為平台的必要組成部分,無論是希望平台更有響應能力的監管機構,還是希望避免更嚴格監管的平台管理者,都認可這樣的方式。

標記已經擴展成為在線介面辭彙的一部分,而不僅僅在於提醒平台遭受到攻擊:平台讓你標記你害怕具有自殺傾向的用戶,或者是標記虛假的新聞或評論。用戶被要求承擔的責任正在擴大。

另一方面,標記行為是自願的,這意味著那些代表自己進行內容標記的用戶是最有動力的。平台常常將標記行為描述為社區的一種表達方式,但是,這些用戶所作的標記是否代表了更廣大的用戶群呢,如果不能,那這個系統的合法性又在哪裡?應該由誰來進行舉報,以及為什麼他可以舉報?這些都很難弄清楚。

YouTube最新的透明度報告透露了很多信息,比如用戶標記結果如何影響其內容審核過程,但這些還不夠。顯然,已經有專門的自動化軟體用來檢測可能的違規行為,進行標記並審查。在2017年10月至12月的三個月期間,YouTube上共有820萬段視頻被刪除,其中80%都是由軟體標記,13%由專門的標記人員標記,只有4%由普通用戶標記。值得注意的是,在被刪除的視頻中,75%的視頻在觀看之前就已經消失了,這意味著用戶根本不可能看到它們。

另一方面,根據公開的數據可知,YouTube在三個月內收到了930萬個標記,其中94%來自普通用戶,但是這些標記的內容只有極少數被清除。報告中稱,YouTube處理這些標記內容是極具策略的:「用戶標誌對識別需要刪除的違規內容至關重要,但這些標記中也有很多好的內容,這就是為什麼訓練有素的審查員和系統,對於我們確保只刪違反政策的視頻是至關重要的。」

這裡的「至關重要」有點誇大了。雖然有些數據可以澄清這個事情,比如到底有多少自動標記的內容沒有被刪除,但用戶的標記確實是非常雜亂的。可以說,用戶標記除了對公共關係很重要(可以讓受騷擾的受害者知道他們正在被關注),其他價值很小。但這些標記的附加價值可能是值得注意的:用戶標記可以作為這些自動化標記軟體工具的培訓數據。然而,如果用戶標記不準確,那麼專業標記者的培訓作用更大。

平檯面對批評的透明化態度

Facebook和YouTube回應了日益增長的、要求平台對自己的系統運作承擔更大責任的呼聲,包括從內容審核,到數據收集,到廣告。但Facebook規則的改變,其實是一種對於批評的更具體的回應,儘管Facebook有公共規則,但它似乎又有一些不同的內部規定,比如那些決策團隊用來判決複雜案情的規定,比如用來訓練成千上萬的人工審核的規定,比如那些被編程到其人工智慧檢測演算法中的規定。

當2016年Facebook的培訓文件被泄漏給《衛報》時,這種批評變得尤為尖銳,這些文件是Facebook用來指導遠程內容審核團隊和第三方用戶工作者的,例如,如何區分強烈的情緒和種族歧視,如何區分可見的傷害和潛在的恐怖的傷害,以及如何區分恐怖襲擊報道和恐怖襲擊「慶祝」內容。

Facebook將這些新規定稱為「內部準則」,這些準則也向我們釋放了一些信號。

首先,它讓我們相信,這種形式的文件在這之前一直都存在,它們支撐著以前的社區標準,只不過為了用戶方便,這些標準用一種更通俗易懂的方式表達。

第二,我們應該把公布這些內部規定的看作平台關於透明化的一個態度:「好吧,我們將向你展示我們是如何審核的,不再耍把戲。」

第三,這意味著,未來Facebook的實際審核行為將和已發布的規定一致。

如果「內部」是指Facebook位於門洛公園(Menlo Park)公司總部的內容政策團隊,那麼他們暗示有內部指導方針有可能完全是真的。這說明,在為用戶編寫的寬泛標準背後,有更多被用於實際審核決策的版本。當然,我們很難知道這份文件是否已經成為了內部審核的標準,只是現在Facebook團隊作出了發布決定,又或者它只是為了提高透明度而設計的,又或者這份文件是由現在混亂的規定、指導、內情報告、定義、諮詢文件和政策草案組合起來而最終發布出來的。

然而,如果2016年《衛報》爆料的文件是一種暗示,Facebook也許會投入更多的人力到其內容審核中去,而遠不止是具體的規則。包括示例、測試和疑難案件,旨在指導審核人員如何考慮這些規則以及如何應用它們。在這種規模下,審核的挑戰不僅僅是找出違反行為並對其採取措施,也是如何訓練成百上千的人以同樣的方式,一次又一次,跨越令人震驚的一系列意想不到的變化和情境,來訓練以同樣的方法區分這些微妙的區別。

這些示例和測試案件,在幫助校準審核過程中起著非常重要的作用,它們也是內容審核非常容易出錯的地方。ProPublica組織對Facebook仇恨言論的審核調查發現,即使只是在少數幾個例子中,評論者們的態度也非常不一致,Facebook經常無法解釋為什麼做出這些具體決定。

改變方式,讓用戶參與平台管理

我們正處在一個極其奇怪的階段。

Facebook的社區準則清楚表明,監督大規模的全球性社交媒體平台所面臨的巨大挑戰。在過去的十年里,每個平台都面臨著各種各樣的爭議,並且所有社交媒體都共同走過了崎嶇不平的道路,它們揭示了社交媒體平台的管理者,是如何試圖理解並維護他們對用戶的權威。

在YouTube的透明報告中,顯而易見的是,儘管平台承諾會對用戶的需求做出回應,但內容審核機制正在遠離用戶,因為用戶需要做的遠比他們的要求更多。

以下兩點明確了平台創造者必須試圖調和,但卻永遠無法解決的核心矛盾:如果社交媒體平台想要網路自由,那麼任何形式的約束都與這個願景背道而馳,審核行為就要被否認。但如果平台承諾要終止混亂的網路環境,那麼監督和禁止是這一承諾的核心。

大部分情況下更多的透明度總是好的,在這個例子中它肯定是好的。Facebook還承諾擴大用戶申訴他們不同意的審核決定的能力,這點也很好。但是,即使他們對此更加開放,Facebook也在不斷深化其對內容審核平台的基本邏輯的承諾:一種被動的、客戶服務的方式,在這種方式下,審判權力幾乎完全掌握在平台的手中。即使這些準則現在已經長達8000字,並且已經對各種細節作出規定,但它們仍然是Facebook的規定,並且是以他們選擇的方式進行書寫,在規定被進行應用的時候,在決定審核結果應該是什麼的時候,在收到申訴的時候,最終都是他們在判決。

扎克伯格本人曾表示,他對這種做法感到非常矛盾。在3月份的一個採訪中,他說:

當坐在加州的辦公室的時候,我感覺很不舒服,我在想,怎樣為世界各地的人們制定內容政策?比如仇恨言論的底線在哪裡?是誰讓我擔起這樣的角色的?我又必須這麼做,因為是我在領導Facebook,但我又不想這麼做。

我和其他數以百萬計的人一樣,也有一種不舒服的感覺。扎克伯格在門洛公園的團隊也許只是給我們提供了更多的透明度,讓我們知道它是如何定義仇恨言論的,再加上一個更強有力的申訴過程,和更積極響應變革的承諾。但他們仍然坐在那裡,「在加州的辦公室里,為世界各地的人們制定內容政策」。

事實是,我們希望平台能夠緩和冒犯性內容和殘酷性內容。我們希望他們能解決這些難題,讓我們繼續分享笑話、談論政治、與我們關心的人保持一致的樂趣。作為用戶,我們要求他們審核,但又不過多審核。但正如羅傑·西爾弗斯通(Roger Silverstone)所指出的:「媒體太重要了,所以不能作為交流媒介。」但我們還能指望哪些權威渠道呢?作為公民,也許我們必須開始成為這個權威,成為監管者的監管人。

也許Facebook對公眾的責任包括與公眾共同承擔責任,需要它們提供判斷而不僅僅是體力勞動。我不只是指讓用戶標記內容,因為YouTube的數據表明用戶標記內容部分數量小且無效,我的意思是應該找到方法雙方共同制定規則,把優先事項放在一起,並一起判決疑難案件。與參與相伴而來的是責任,我們必須要求社交媒體共享集體管理的工具,而不僅僅是向我們解釋規則。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 全媒派 的精彩文章:

R.I.P#那些消失的資訊產品和功能,同樣值得紀念
Facebook開發者大會透露5大方向,傳媒業可以從中嗅到哪些未來趨勢?

TAG:全媒派 |