自殘、裸露、虐待動物…Facebook內部如何處理這樣的內容?
如果你在你的社交網路上看到下面這些內容,你覺得應該怎樣處理?
一些人自殘行為的直播;
一些沒有裸露的墮胎視頻;
一些非性虐待、但霸凌兒童、虐待動物的照片;
......
如果在國內,這些內容很有可能會被舉報或被屏蔽刪除,但在崇尚「言論自由」的美國,在有近20億用戶的Facebook上,這些內容卻在內部的管理員手冊中,被描述為「可以不被刪除」。
翻譯 | 喜湯
整理 | 郝鵬程 姜濤
來源 | 《衛報》
近期,《衛報》在一項調查中,首次曝光了Facebook對用戶發布動態有一些隱秘規定,這一結論激化了關於Facebook的角色和道德底線的大爭論。
《衛報》的調查顯示,Facebook大約有100多個內部培訓手冊、電子表格和流程圖,它們深度揭秘了Facebook在面對暴力、仇恨言論、恐怖主義、色情、種族主義、自殘行為、假球甚至食人的時候,是如何和諧這些內容的。
其中,可能有一些你聽都沒聽過的名詞,如「色情復仇」:
讓我們來看看對於上述提到的例子,管理員手冊是如何解釋為什麼「可以不被刪除」的:
場面凄慘的死亡視頻,雖然它們的標籤是「令人不安的」,但是可以不被刪除。因為它們可以提高人們對一些問題的認識,比如精神疾病;
虐待動物的照片可以分享,只有那些極度過分的照片才會打上「令人不安」的標籤;
允許直播人們的自殘行為,因為Facebook「不想檢查/懲罰處於痛苦中的人「;
管理員培訓手冊中充滿了上述案例。最大的作用,就是讓他們知道「真正的」暴力威脅和其他「只是嘴上說說」的暴力威脅之間的區別。
但即便如此詳細,而Facebook也有數千名管理員,但他們依然面臨巨大的挑戰。
許多Facebook管理員擔憂於那些互相矛盾、特殊的管理政策。比如涉及到性的內容,相關政策看上去那樣複雜、令人迷惑。對於一個有著20億用戶的平台,他們的工作量太大了,常常只有10秒的時間對某條內容的去留做決定。有文件顯示,Facebook每周會收到大約650萬個潛在虛假帳戶的舉報,而這都需要管理員們核查。
最新消息,Facebook承諾,將目前的4500名內容管理員增加至7500人。
讓我們繼續看看,這份手冊上還有哪些「內部規定」:
關於暴力威脅言論的政策
在這份泄露的文件當中,Facebook承認「人們通過網路語言暴力發泄心情」,他們覺得在網上「這麼做比較安全」。
「人們認為自己不會面臨網路暴力,並且對那些遭受網路暴力、受到威脅的人們沒有絲毫的同情。因為通過數碼設備的溝通交流完全不能激起類似面對面交流的同情心。」
Facebook關於暴力威脅的政策,對號指不會被刪除的言論,叉號指要被刪掉的言論
「我們認為暴力語言更多的只是發泄情緒,並不足信,除非某些特定語言讓我們覺得它超越了發泄情緒,可能轉變成一場謀殺。從這一點看,『我要殺了你』和『滾去死』這種話就是某種不高興、沮喪情緒的發泄。」
該文件還補充道:「人們大多用著那種毫無意義、毫不客氣的方式,來威脅或呼籲暴力,藉以表達對某人、某事的鄙視或不同意。」
Facebook承認「並非所有令人不快、令人不安的內容都會違反我們的標準」。
Facebook的全球政策管理負責人Monika Bickert表示,Facebook有將近20億用戶,很難完全達成共識。
Facebook關於暴力威脅的幻燈片,對號指該言論不會被刪除
她說:「Facebook遍布全球,是一個多樣化的社交網路,人們判斷某些內容適合分享的標準不同。無論我們定哪種標準,總會有一些灰色區域存在,比如諷刺和幽默以及不當內容之間的界限有時候就非常模糊,我們很難決定哪種言論應該留下、哪種應該被刪掉。」
「Facebook有責任維護平台安全,我們絕對有責任繼續貫徹這些方針,這是一個公司的承諾。我們將會繼續投資那些積極保持網站安全的演算法,我們也希望人們向我們舉報任何違反我們標準的內容。」
她表示,在某些場合下,冒犯性言論會違反Facebook政策,但在另一些場合則不會。
關於虐待兒童、動物影像的規定
關於非性虐待兒童,Facebook這樣規定:
「我們不自動刪除虐待兒童的影像,只把它們標記為『令人不安』的。如果影像當中有性虐待或慶祝因素,我們則要刪除它。」
有一張幻燈片說明,Facebook不會自動刪除非性虐待兒童的內容,並且這些內容可以被分享,以便「確認孩童身份,對其進行救助,但是我們會對觀眾進行保護」。即這些非性虐待兒童的內容都會被打上「令人不安」的標籤以示警告。
Facebook證實自己「確實允許某些狀況下的非性虐待兒童影像存在,但目的是為了幫助孩子。」
該幻燈片也說明了對待虐待動物的政策:
「Facebook允許虐待動物影像的存在,是為了讓人們警醒,我們為這種內容添加了觀眾保護政策,即給它們打上『令人不安』等標籤。」
Facebook關於虐待動物的規定
動物殘割,包括那些展示酷刑的照片,會被標記為「令人不安的」而不是直接被刪除。管理員也不用刪除人類踢、打動物的那種虐待照片。
Facebook說:「我們允許人們分享虐待動物的圖片,這是為了提高人們認識、譴責虐待,但是那些包含了慶祝的殘忍圖片還是會被刪除。」
對於具有新聞價值圖片的規定
Facebook在去年刪除了那張著名的越南戰爭照片,原因是圖片中的小女孩赤身裸體,這引發了強烈的抗議。目前披露的文件顯示,Facebook發布了關於裸露的新準則。
現在,Facebook允許「反戰」原則之下、「具有新聞價值」的裸露,但是還是禁止發布「大屠殺背景下的兒童裸體照片」
Facebook關於大屠殺相關照片的幻燈片
Facebook告訴《衛報》,目前Facebook正在使用一款軟體攔截某些圖片內容,讓這種圖片完全無法上傳到網站。但是「我們希望人們能夠就全球以及當前問題進行討論,所以某些具有暴力元素的圖片在一些時候是非常有必要的」。
Facebook一直努力評估暴力圖像的新聞/認識價值。儘管Facebook最近因為沒有刪除泰國一位父親殺死自己孩子的視頻而飽受批評,但它也積極傳播警方濫殺和其他政府濫用職權的視頻,發揮了重要作用。比如在2016年,Facebook刪除了一個視頻,內容是警察在沒有明顯原因的情況下,對黑人Philando Castile連開四槍殺死他的視頻,隨後Facebook恢復了視頻,並聲稱這是一次「誤刪」。而該視頻,最終也引發了美國民眾的強烈抗議。
Facebook的艱難處境
美國和歐洲的批評家們要求Facebook應當和廣播、出版商一樣被管理。
但是Bickert說Facebook是一個新型公司,並非傳統的技術公司,也不是傳統的媒體公司。「Facebook開發技術,也認為自己有責任對如何使用技術負責。我們並不發布新聞,只是新聞發布的平台。」
5月1日,一位英國議員發表報告指出:「這個全球最大、最富有的社交媒體公司應當感到恥辱,它完全沒有採取足夠的措施處理非法、危險內容,也沒能設立合適的標準,不能保護用戶的安全」。
內容審核專家Sarah T Roberts表示:「小型網路社區的原則和價值設定是一回事,但當一個社區已經擁有了世界很大一部分人口的時候,這時候你說『分享你自己』,社區就會完全混亂。」
然而,這些規定也讓自由言論倡導者擔憂。他們認為,Facebook可能已經成為了世界上最大的審查員,該事實敲響了言論自由的警鐘。一位消息人士說:「Facebook不能控制其內容,它的規模太大了,內容增長太快了。」
《衛報》指出:無論是應該「嚴格管理」還是適當「言論自由」,可能都要求Facebook的管理規則更加透明。
扎克伯格在他史詩般的宣言中,這樣描繪了他要建立的社區類型:
「過去十年中,Facebook一直專註於幫用戶連接家人和朋友。下一步我們要成為新的社會基礎設施,保證社區安全、提升每個人在社會事務中的參與度並提高社會的包容性。」
為了這個「社區的社會基礎設施」能夠實現,Facebook必須承認,它不僅僅要「連接朋友和家人」,還要在這個社區的言論和安全中,找到一個絕佳的平衡。
點擊展開全文
※為了吸引廣告大客戶,微信也要開始賣奢侈品了
※這5個共享行業,8年後,全球營收預計3000多億美元
※用了多年Mac之後,再用回聯想是怎樣的體驗?
※蘋果新總部修的怎麼樣了?從無人機上看Apple Park的建造歷程
TAG:36氪 |