當前位置:
首頁 > 科技 > 演算法驅動的資訊類平台為什麼讓人討厭?

演算法驅動的資訊類平台為什麼讓人討厭?

在王者榮耀之後後,今日頭條也遭到了人民日報的點名。批評的重點是以今日頭條為代表的演算法推薦資訊類平台,存在價值觀缺失、製造信息繭房、競爭手段無底線的「三宗罪」。

總的來說,人民日報提出的這些問題還是非常客觀的。此前也有不少新聞業內人士反映過,低俗的信息會刺激人性中的陰暗面,吸引點擊量,在推薦演算法的加持下,不知不覺我們的信息流上就全是婆婆小三、艷情野史。而得出的結論卻是,不是資訊平台低俗,而是演算法覺得你低俗。

同樣的情況也曾經在快手上出現過,當我們抱怨快手上全是鞭炮炸褲襠、老太嚼燈泡時,得到的答覆是,中國的大多數就是這個樣子。

「多數人的暴政」

這種情況被稱為「多數人的暴政」。

大多數人會被低俗內容吸引,所以創作者會創作更多的低俗內容,去除人工編輯把控的中間環節,演算法只會根據你有意無意的點擊把那些低俗的內容推上信息流。

這樣的現象不僅僅出現在中國,此前Facebook也深受各種驚悚標題黨的困擾。不過外國人的腦迴路是很清奇的,Facebook推出了一項用戶決策機制,如果讀過之後感覺內容和標題嚴重不符,可以將其標註為假新聞,這樣就會降低這條消息的推薦權重。

尷尬的是,很多用戶會依照個人喜好隨意標註,甚至會因政治傾向對某一派別的新聞進行惡意標註。最後Facebook不得已還是採用了演算法進行判斷——用機器學習對以往的標題黨標題進行總結,對相似標題的文章進行降權。就是「餵給」演算法一批諸如「震驚了!」、「真相是這樣!刪前速看!」的標題,演算法學會後,就會對類似標題的文章進行降權。

實際上「誇張的標題」、「假新聞」、「低俗內容」之間往往只有一線之隔,把決策權交給用戶是一項非常冒險的行為。不管是演算法還是用戶投票,只要是在去編輯體制的平台上,「多數人的暴政」都會出現。

完全依賴用戶抉擇,平台會被視作沒有責任感、不作為;可如果平台參與決策,又很可能破壞「演算法推薦」這一原有的特色。這樣的矛盾,不管是Facebook還是今日頭條都正在經歷,但對於國內用戶來說,不適感來得要更強烈一些。

在App冷啟動時,用戶都會選擇好自己的興趣標籤。可打開信息流,還是會有一些低俗誇張的內容出現,甚至在選擇了「不感興趣」後,划過幾屏類似的信息還是會出現。要不就像新聞中說的那樣,隨手點開了一條低俗信息,立刻有大量類似的信息湧入。

雖然幾乎沒有公開談過其推薦演算法都取決於哪些權值,但我們可以從目前主流的推薦演算法中看看,今日頭條們可能錯在了哪裡。

如果你的信息流不對勁,可能是因為…...

在推薦演算法中,最常見的就是協同過濾演算法。資訊類產品常常會使用基於用戶的協同過濾演算法,即利用K鄰近演算法,找到和你興趣相近的用戶,並把對方的喜好推薦給你。比如A、B兩個用戶都對時政、軍事類的資訊感興趣,而A用戶也對歷史類資訊感興趣,那麼系統就會給B用戶推薦歷史類資訊。

這種基於用戶行為的推薦機制,在豆瓣一類更個性化的、社交屬性更強的平台上更為精準。可今日頭條這類資訊平台中,用戶群體更加繁雜,用戶行為往往也都是無目的性的——在豆瓣中標記某一部電影可能是為了告訴大家「我是看這種電影的人」,而在今日頭條中點擊一條新聞往往只是因為「想看看」

這無疑給協同過濾演算法的精確度帶來很大挑戰,用戶本身的屬性就是模糊的,如果你的信息流中不斷出現一些你不感興趣的東西,很有可能是平台利用了這種演算法,為你推薦了相似用戶的喜好。

不過資訊類平台利用最多的還是基於內容的推薦演算法。如果說用戶協同演算法關注的是人與人之間的相似度,那基於內容的推薦演算法關注的則是內容本身。

還是以電影為例,一部電影可以細分出影片類型、年代、演員、導演等等多種元素。用戶標註了某一部電影,演算法就會為他推薦同一導演的作品。這樣的推薦模式大多被適用於識別結構化數據——演算法並不知道文章、影片中到底說了什麼,只能根據結構化數據標註判斷。

這就是為什麼大多數資訊類平台都存在標籤和關鍵詞機制,演算法要通過這些結構化標註對內容進行判斷,再推薦給用戶。

這其中最大的問題,就是關鍵詞機制的不準確。我曾經在某平台上標註了興趣「寵物」,本意是希望看到一些可愛的貓貓狗狗,然而某一天該平台居然給我推薦了一段斗狗視頻,視頻下面居然也有寵物的標註。

資訊類平台中的內容越來越豐富,短消息、圖文、問答都有。而關鍵詞標註只能對內容進行浮於表面的理解,而內容中暗含的情緒往往會冒犯到用戶。而在流量的誘惑下,很多創作者會更傾向於生產具有刺激性情緒的內容。

斗狗、職場性騷擾、歷史艷情,這些內容本身似乎也是合規的,但其中暗藏的暴力、歧視、色情等等情緒,被掩蓋在寵物、職場、歷史等等標籤下,堂而皇之大哭污染著我們的信息流。

那麼出路在哪?

我們想知道的是,除了加強平台對低俗內容的監管,是否還能從技術方面解決當前的問題。

其實相關的研究結果已經很多,比如谷歌推出的雲端自然語言分類功能,可以通過語言分析情緒。據稱這項功能在分析了報紙的某一版面後,自動將其中一篇菜譜歸入了美食欄目,還添加了具體的標籤。而且谷歌雲的自然語言API還可以識別情緒,了解文章內容是積極的還是消極的。

更詳細的分類和情緒識別,可以很好的解決上文提到的關鍵詞機制不精準問題。而人民日報在文章中提到的,用戶興趣變化的問題在業內也有過相關討論。有人提出過將用戶停留時間和內容相似度兩種數據權重加入到協同過濾演算法中,以用戶在不同內容上停留的不同時間,來判斷用戶的興趣是否發生了變化,從而確定推薦內容的權重。

其實不管是谷歌的雲端自然語言分類這種高成本的解決方式,還是調整原有演算法這種更簡單易行的方式,用技術解決推薦演算法的局限沒有想像中那麼難,甚至對於低俗的內容,都已經出現了「人工智慧鑒黃」這種神器。

推薦演算法是一種歷史悠久的技術,發展到今天,電商、廣告的推薦越來越精準,資訊的推薦演算法卻惹得天怒人怨,要是把鍋甩到演算法上,恐怕有些不公。

有人說演算法呈現出的結果是人性本質的體現,可從當下看來,演算法呈現出的更多是平台、內容創作者這些利益既得者的人性。作為一個天天研究演算法的普通內容消費者,我倒是覺得,越了解演算法,就越不懂人性。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 虎嗅APP 的精彩文章:

一夜之間,計程車的未來,黃了
電商衝擊下的專櫃新零售,自我救贖「戲份多」
就在剛剛,馬雲和李健「深情」對唱
今天 Kindle 死了嗎?沒死,還發新品了

TAG:虎嗅APP |