當前位置:
首頁 > 最新 > 貼上AI標籤的評論區,正在剝奪我們平等言論的自由

貼上AI標籤的評論區,正在剝奪我們平等言論的自由

文 | 楊蘇穎

來源 | 智能相對論(ID:aixdlun)

自古站著說話都是不會腰疼的,在這樣一個鼓勵質疑的社會氣氛當中,戾氣彷佛成了最好的鼓勵。去中心化的時代,人人都有麥克風,網路發言的成本達到了歷史最低。

近日,知乎正用AI識別「答非所問」和「不友善」又被媒體反覆引用。前不久,羅永浩「精日沒啥」的言論相繼被北京日報和廣州日報點名批評,微博的評論區「錘粉」、「錘黑」的論戰比羅永浩本人的演講還「好看」,但是這種「好看」是靠著你來我往的火藥桶攻擊而炒起來的熱度。廣州日報官方微博下面,「小心錘蛆」評論排在熱評的第一位,「智障」、「走狗」、「SB」的字眼也屢見不鮮。微博的罵戰如此壯烈讓「路人」都不忍直視,更不談上不來理性的分析羅永浩是否是精日,精日是什麼的問題。微博距離中國言論環境下的「公共領域」還差得很遠。

內容管理,要從評論區覓得曲徑通幽處

評論區比內容本身還好看,現在已經不僅僅是個口上的噱頭了。各大社交和問答平台都開始注意到評論區的運營。此前,為了提高評論審核的效率,有效管理微博評論,微博也開始有所動作,面向頭部用戶和正式會員用戶開通評論審核的功能,在開放此功能之後,用戶可以對自己微博下的評論實現評論先審後放。

因此,如果把文章本身稱為「第一內容區」的話,那麼評論區儼然已經成為蓬勃發展的「第二內容區」,今天注重評論區的管理開始變得越來重要。在4月的GMIC大會上,知乎合伙人、高級副總裁李大海做了一個分享,稱知乎正在打造「智慧社區」,並透露出,在知乎的內容社區當中,AI已經可以開始進行語義識別和語境判斷。因為單單依賴人工的力量來管理內容,實在不是一個高效的選擇。

在知乎裡面,現在有一個2歲多的機器人叫「瓦力」,目前這個機器人可以在線上快速響應答非所問和不友善的內容,減少像歧視,惡意貼標籤,辱罵等等低質內容對用戶的干擾。但是目前受到NPL(自然語言處理)自身的局限性和平台運營存在的相應問題,這個智慧社區還存在著不少問題。

如果說人工智慧演算法能夠通過監測人們說話時的聲學特徵,比如發音頻率,聲音高低,以及語氣的變化,來識別人類說話的情緒類型是一項很了不起的技術。那麼直接通過NPL來鑒定人類的說話情緒則是更難上加難的操作。因為一個髒字不帶,一個敏感詞都沒有的句子,AI很難總結出它們的共同特徵從而有針對性的挑選出來作為負面言論的代表,真正成為評論區的「清道夫」。

另外,目前知乎的機器學習方式是利用知乎的中文語料庫,調動用戶積極對語料進行手動標註來訓練AI,這在機器的監督學習中是必不可少的一步。但新的技術正在湧現,比如強化學習和in-streamsupervision,數據可以在自然使用過程中獲得標註。或者,知乎還可以學習科大訊飛建立語音雲平台一樣,引入語料雲平台,這樣可以從其他更廣泛的渠道以更快的速度發現更新的語料。因為等到知乎中文語料庫中有足夠的新興語料可以讓機器進行學習時,代表這類語料的存在在平台上已經比較廣泛了,如果此種語料是惡性的,那麼則說明評論的內容生態已經遭到了一定污染。

在評論區,AI與人的關係還值得細嚼

把目光投到國外,國外的那些頂級媒體則更早就開始重視到評論區的重要性並開始用技術對評論區進行打理。紐約時報與Jigsaw(谷歌Alphabet旗下科研團隊)合作,並牽頭華盛頓郵報、Mozilla基金會成立了The Coral Project(珊瑚項目),研究如何改進在線評論,並孵化一系列開源工具為各大新聞編輯室提供技術支持。2015年時,紐約時報採用的評論體系會依靠演算法對不同用戶的評論進行優先順序排序,並且決定哪些用戶的評論可以不用經過較長時間的人工審查就可以發布。

但是,人工智慧到底是藍海還是深坑還需要時間的檢驗,智能相對論(aixdlun)分析師楊蘇穎還想在此提出利用人工智慧管理評論內容生態的兩個討論點:

1、AI的背後是人,如果人不想解決某個問題,那麼AI也只是噱頭和擺設。最近,在某草根公眾號中看到一篇文章,名叫《欲加之罪,何患無詞》,談論的是有關喜馬拉雅APP內容付費的問題,該公眾號的主人在喜馬拉雅上傳了自己解讀書籍《烏合之眾》音頻,後突然因版權投訴而被下架了。喜馬拉雅方面的客服稱因為已經有解讀該書的付費音頻存在,所以再上傳解讀該書的音頻就算作是侵權。對於某一個單一的知識付費內容能不能壟斷市場暫且不論,這個唯一被平台認可的《烏合之眾》付費音頻下面的評論卻顯示出這個付費的內容並不盡如人意。

但是平台不顧聽眾在評論區的反饋,完全沒有用心傳播優質內容的匠心。如今許多平台都嘗試使用AI進行評論區的管理,但是AI要執行的始終是人的想法,就算AI通過各種識別的功能發現了這個問題,如果人並不想解決這個問題,那麼AI的設立又還有什麼用處呢?

2、在評論區,AI通過識別用戶言論來給每一個用戶貼標籤,這一點很難說不是在將每個人的言論權利做一個高矮次序的排列。許多用AI來管理評論區的平台談到技術方面都會說到現在可以利用AI可以對用戶進行標籤,有點兒像所謂的社會信用體系。但這種看似合理的信用體系背後的問題是:爭了好幾百年來的平等言論權就這麼被AI再次剝奪了?

站在社會學的角度,我們常常在討論的是標籤對人性的壓抑以及標籤給人帶來的種種痛苦,並思索著如何才能讓社會環境進一步「去標籤化」。但我們沒注意到的是,AI正在利用我們在網路留下的數據對我們進行標籤化。如果,某個人曾經發布過一些負面言論,那麼經過AI的識別判定後,他的言論可能今後永遠只能在評論區的下游飄蕩。潛在地,這個人是不是相當於被間接削弱了言論權呢?你可以發言,但是不會有人看得到。這也代表了在網路社區當中話語權會被進一步中心化。所以,AI也應該該考慮一下去標籤化的問題,並建立去標籤化的機制。每個人都有被原諒的機會,但是數據會知道這一點嗎?

技術非但沒有使信息自由流動,反而建立了更加龐大的信息孤島。在微信當中,只有互為好友的人才能看到在同一個人朋友圈下面的評論互動,這樣的評論機制在微信當中建立起的無數個不同的小圈子,小圈子之間隔著高高低低的圍牆。微信雖然幫助我們連接了更多的人,但是卻把父母給隔離了起來。她/他能夠看到的評論區永遠只有自己一個人,想要通過你的朋友圈了解你的生活,了解你的朋友和外面的世界,但是技術卻阻斷了這麼簡單的念想,他不知道你平常是怎麼和朋友打趣,甚至不知道你說的佛系,在評論區看不到更多的解釋,還以為你要去出家,趕緊打個電話過來詢問。但為了避免你麻煩的解釋過程,技術還可以建立起更多「去麻煩」的機制,比如分組可見。對於我們而言我們是在提高自己的生活效率,更好地管理自己的生活,但是對於父母而言,他們只是被強制削去了知情權,這實際就是剝奪發言權的前一步。

在日常的信息獲取當中,剝奪話語權的方式是很隱晦。它通常會先剝奪你的知情權。今日頭條的人工智慧演算法推薦信息,過度迷信演算法的精準性,實則把用戶困在它製造的信息孤島。由互聯網所打破的信息壁壘,在今日頭條的作用下被重新建立起來,只是這背後更為深刻的是,同質信息的轟炸阻斷了那些沒有主動獲取信息能力的人上行的通道。在這樣龐大的信息社區當中,平台需要建立自己的人文價值觀和社會責任,一旦當它們的價值開始混亂,錢就會成為唯一的尺度。人工智慧是技術的又一次升級,但是人工智慧不能成為一切腐朽舊思想的避難所,不能包庇價值觀的混亂,也不能縱容技術平台對用戶話語權的剝奪。如何在保護話語權和保護平台社區環境之間尋求一個平衡點,是運用AI管理評論區需要思考的第一個問題。

評論區的「黃金屋」和「顏如玉」在今天是顯而易見的,但平台的內容運營者們想要在這上面使力則還需要繼續探索。AI幫助進行智能評論區管理是件好事,但在AI的背後還潛藏著太多未解的難題,管理者們一定要帶著問號去利用好AI,讓AI成為內容管理的福音。

【完】


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 金評媒 的精彩文章:

網貸去剛兌成趨勢 玖富引入太平、人保履約險服務
諮詢公司預測以太坊價格在2018年末可以到達2500美元

TAG:金評媒 |