我們真的生活在「信息繭房」中嗎?
本文轉載自:刺蝟公社
在美國的學術界,很少有人會把「信息繭房」當做一個學術概念來用,學術中用得比較多的是「過濾器氣泡」(filter bubble)和「迴音壁」(echo chamber)。
作者 | 金喬葉
1
前幾年,凱文·凱利就在《必然》里寫道,即使只是對過去24小時里被發明或創造出的新事物進行概覽,也會花費我們一年以上的時間。
他說,每年我們生產出800萬首新歌,200萬本新書,1.6萬部新電影,300億個博客帖子,1820億條推特信息,4萬件新產品。今天,任何一個普通人都無需花費太多力氣,最多就是抬下手腕的過程,就能召喚出包容萬物的圖書館。
但問題就在於,面對這個包容萬物的數字圖書館,如果不能掌握一套極其高效的索引系統,作為人類個體會顯得非常無力。沒有一張定位精確的航海圖,人類在信息的汪洋大海中一定會迷失自我。就像凱文·凱利說的:
這個包容萬物的圖書館規模極其巨大,它迅速吞沒了我們本就十分有限的消費時間周期,我們將需要額外的幫助才能穿越這廣袤之地。
越是能高效地處理信息,越是能給社會創造價值。互聯網根據你的使用習慣,推薦你想要的東西,這是技術和社會發展的必然。這種個性化推薦,從社交網站上推薦給你的人脈,到電商平台上的商品,再到互聯網音樂平台「根據你的音樂口味,為你推薦的音樂」,再到其他種種,個性化推薦已經成了今天互聯網產品的標配。
如果你對這些推薦的「神准」感覺到驚訝的話,應該看看全球複雜網路權威巴拉巴西的著作《爆發》,他的研究是建構在人類生活數字化的大數據基礎上的,他認為數字化生活,使得人類行為更加容易量化,在這些量化的基礎上,人類的行為也因此變得可以預測。
其可預測的幾率是多少?巴拉巴西給出的結論是——高達93%!
所以在今天,「機器比你自己還要更懂你」,真不是一句假話,也沒有什麼值得驚訝和擔憂的,因為這一定是技術和社會發展的大勢所趨,是在為人類解決效率問題,讓社會運行得更高效。
但是,個性化推薦的同一套邏輯運用到資訊平台和社交媒體上,卻讓很多人感到了不安。最大的不安,來自於對「信息繭房」的擔憂。
這個詞光從字面上看很好理解——在信息爆炸時代,個人根據機器推薦所消費的信息,就像蠶吐出來的絲一樣,細細密密地把自己包裹起來。漸漸地,外界就跟自己無關了,人們棲息於跟機器一起合作製造出來的白色柔順的蠶蛹中。
蠶吐絲將自己包裹起來,終有破繭成蝶的一天,這是一種美好的預示,但是「信息繭房」的前景就沒這麼妙了,它所指向的似乎只有坐井觀天、故步自封、作繭自縛等負面意義。
這一比喻有一種先入為主的暗示,但「信息繭房」是人類在信息爆炸時代固步自封的必然宿命嗎?
這一概念其實是一個假設,是哈佛大學法學院教授桑斯坦在2006年出版的著作《信息烏托邦》(《Infotopia: How Many Minds Produce Knowledge》)中提出來的。
桑斯坦認為,在信息傳播中人們因自身的信息需求並非全方位的,只會注意選擇想要的或能使自己愉悅的信息,久而久之就會失去了解不同事物的能力和接觸機會,將自身桎梏於像蠶繭一般的「繭房」中。
在「信息繭房」的概念被提出的2006年,內容的機器分發還遠不像今天這麼有話題性,所以這一假設表現了強大的前瞻性。但從國內的情況來看,「信息繭房」這個概念,是在微博出現之後才開始引入並逐漸盛行的。
2012年是個重要節點,在那一年,主打基於興趣為用戶提供個人化精準資訊服務的平台如今日頭條等開始出現,通過演算法過濾和反饋處理的內容分發方式,開始獨成一類。
這種情況,似乎切合了桑坦德在另一本書《網路共和國》中所描述的「個人日報」現象,通過人工智慧分析個人的興趣愛好等個性化特徵,再根據個性化需求聚合相關信息,並針對用戶的反饋進行調整,以實現個性化、動態化的需求,使內容變得「千人千面」,每個人因此擁有了為自己量身定製一份「個人日報」的可能。
正是因為「更懂你」,內容的機器分發方式,在隨後幾年成了國內許多資訊客戶端的選擇。這使人們對「信息繭房」的擔憂不斷增加,甚至擔心用戶會被自我「興趣」不斷固化,久而久之視野變得越來越窄,甚至出現群體極化的現象。
還有聲音認為,有些互聯網產品的崛起要歸因於「信息繭房」,比如有文章就這樣評論抖音:「近兩年抖音突然崛起,靠演算法贏得用戶,會使用戶深陷『信息繭房』,可是不靠演算法的抖音,和市面上的其他短視頻app有什麼不一樣?所以抖音不會放棄演算法,還是會把一個個用戶帶進『信息繭房』」。
這種擔憂會成為現實嗎?
2
要理解這個問題,首先應該站在這樣一個基礎上,即機器根據人類的興趣愛好匹配信息需求,首先也是帶來了整體效率的提升。
比如足球新聞的重度消費者,紙媒時代他買份報紙很可能只為了獲取體育版上足球的內容,其他版面對他來說可有可無,體育版上的足球新聞又讓他覺得不解渴;互聯網的編輯精選時代,雖然能聚合很多足球新聞,但這些新聞散落在其他體育新聞中,他同樣需要去找尋出來。
機器分發的好處在於能夠把足球新聞都聚合匹配給他,大大提高他獲取信息的效率。給他匹配看不懂的橄欖球、高爾夫球、棒球、壘球、冰球、板球、手球新聞,對他來說毫無意義,而且是社會資源的浪費。
那這種個性化推薦的結果,會不會造成「繭房」效應呢?
首先,得承認「信息偏食」現象的確存在,而且自古皆然。
人類的泛興趣閱讀,從古到今,不論中外,都有「挑食」的傾向——只選自己愛看的看,不太願意接受不愛看的。難道人們不應該走出「信息繭房」,走到更開闊的地帶嗎?很遺憾,非要讓自己去接受不情願接受的內容,這不是泛興趣閱讀,很可能是另一種東西——學習,學習和泛興趣閱讀完全是兩碼事,前者的目標是獲取專業知識和能力,後者是基於個人的愛好。
從小到大,我們都是如此:選自己喜歡看的看,不見得能選自己喜歡學的學。
人的朋友圈也是如此,人們往往會選擇跟自己相似的人做朋友,存在「社交偏食」的現象。哈佛大學教授古樂朋在《大連接:社會網路是如何形成的以及對人類現實行為》里援引了一項研究:
民主黨人傾向於跟民主黨人交朋友,共和黨人傾向於跟共和黨人交朋友。主張變革的人與主張變革的人往來密切,保守的人跟保守的人溝通頻繁。
人是否只會「人以類聚」,不會跟其他人打交道了呢?很明顯不是,人基於種種原因,需要在自己的核心人脈圈之外,跟更多人打交道。古樂朋在這本書里使用了「強連接」和「弱連接」的概念,認為強連接可以將個體的一個個人結合為群體,但弱連接可以將不同的群體結合為更大的網路社會。強連接引發行為,弱連接傳遞信息。
從「社交偏食」同樣的角度來思考,「信息偏食」是否真的能造成「繭房」效應呢?恐怕很難。
首先,市場是充分競爭的,一家機構的個性化推薦系統不可能跟另一家完全一樣。
其次,雖然有「偏食」,但人類也不會完全不會換口味,否則一定會感到膩味,主動訂閱作為內容獲取方式的一種,能夠解決人類調整閱讀口味的問題。
第三,當下的互聯網產品,主要是針對用戶特徵來進行推薦。比如今日頭條為了讓演算法透明,來消除各界對演算法的誤解,曾讓資深演算法架構師曹歡歡博士出來做分享,介紹「今日頭條演算法原理」。
曹歡歡提到演算法主要考量三個維度:
第一個維度是內容。第二個維度就是用戶特徵,「包括各種興趣標籤,職業、年齡、性別等,還有很多模型刻畫出的隱式用戶興趣等。」第三個維度是環境特徵。結合三方面的維度,模型會給出一個預估,推測推薦內容在這一場景下對這一用戶是否合適。
在這裡,用戶特徵是顯性特徵,而觀點、立場、態度等隱形特徵機器無法辨別。
所以,機器會根據用戶的興趣推薦內容,而沒法根據用戶的立場推薦特定的內容。正如新媒體研究者魏武揮提到的,一位對美國大選有興趣的人,他其實完全有可能對川普或希拉里有預設立場:比如川普粉 希拉里黑。 但演算法推薦只能做到系統知道你對美國大選有興趣,很難知道你的觀念落在哪裡。 於是這樣的結果是很常見的:無論是吹捧川普的,還是吹捧希拉里的,都推送給這位對美國大選有興趣的用戶。
從這個層面上來說,機器把用戶感興趣的內容全部予以推薦,裡面包含了互相矛盾和衝突的信息和觀點,反而削弱了信息繭房形成的可能性。
3
在美國的學術界,很少有人會把「信息繭房」當做一個學術概念來用,學術中用得比較多的是「過濾器氣泡」(filter bubble)和「迴音壁」(echo chamber)。
《紐約時報》曾在2014年10月24日刊登一篇文章「Americans Don』t Live in Information Cocoons」(《美國人並沒有住在信息繭房中》),文章也承認人們傾向於閱讀與自己個人偏好相符的文章(比如政治傾向)。但文章里引用了好幾個研究,試圖說明信息繭房的現象在現實生活中並不完全成立。
首先,加州大學洛杉磯分校政治科學方面的專家Michael LaCour(University of California, Los Angeles, political scientist Michael LaCour)的研究發現,民主黨和共和黨的媒體偏好其實非常相似。
其次,芝加哥大學的兩位經濟學家Matthew Gentzkow 和 Jesse M. Shapiro發現,大多數人偏向閱讀中立的文章。總體而言,雖然filter bubble確實存在,但很少有人僅僅閱讀和自己觀點相符合的文章。
第三,社交媒體是否會鼓勵「迴音壁」效應呢?紐約大學政治學家Pablo Barberá的一篇論文稱,情況並非如此。他發現,人們的確傾向於在Twitter上追隨志同道合的人,但他的研究也表明,隨著時間的推移,Twitter上的用戶也傾向於跟隨一個思想上不那麼同質的群體。在網上遇到不同的觀點,會鼓勵人們拓寬他們的信息流,而不是讓人們截然對立,更加兩極化。
但確實也有人擔憂「過適」(overfitting),也就是說,擔心只接觸那些已經喜歡的東西是有風險的。
凱文·凱利在《必然》中提出了「理想的過濾器」的觀點,在他看來,理想的過濾器應該推薦那些「我想知道我的朋友喜歡什麼,而那又是我現在還不了解的」,以及「它將是一種會向我建議某些我現在不喜歡,但想嘗試著喜歡的東西的信息流」。
也就是說,這種過濾器不是為了營造出一個迴音室,而是可以讓你不斷地跳入下一個圈子。
他舉了個例子說,希望是這種推薦——
我十分確信自己不喜歡歌劇,但去年我又嘗試了一次,那是在一個電影院里看一個歌劇的遠程實況轉播——在紐約大都會藝術博物館上演的《卡門》,對白以文字的形式顯眼地投放在大屏幕上,最後,我很慶幸自己去了。
毫無疑問,這也正是演算法工程師們努力的方向。
今日頭條資深演算法架構師曹歡歡也提到,對推薦起到比較重要的作用的四類特徵中,有一類是協同特徵,它可以在部分程度上幫助解決所謂演算法越推越窄的問題。曹歡歡說:
協同特徵並非考慮用戶已有歷史。而是通過用戶行為分析不同用戶間相似性,比如點擊相似、興趣分類相似、主題相似、興趣詞相似,甚至向量相似,從而擴展模型的探索能力。
比如,A用戶喜歡時政、科技和體育,B用戶喜歡時政和科技,那麼系統會嘗試著給B用戶推薦體育新聞。
這樣做,正是為了刺破「繭房」,其好處,如「大象公會」在《越上網,你會越狹隘越極端?》一文中所言,「今日頭條、抖音等內容推薦演算法平台,絕沒有傻到根據用戶過去的行為,把推送的內容類型越收越窄——誰都希望能擴大對客戶的需求服務範圍,而不是相反。」
確實,從平台的角度來看,只有提供給用戶更加多元化的內容,用戶的停留時間才會更長,留存率也會更高。
「大象公會」評價認為:「如果說我們真的需要一條擺脫所謂信息繭房的技術之路,演算法顯然是修路者之一,它肯定不是路障。」
清華大學新聞與傳播學院教授彭蘭也認為:對個性化演算法可能帶來的「信息繭房」問題,我們的確應該有所警覺。但另一方面,我們也需要意識到,如果運用得當,演算法也可能成為刺破信息繭房的一種武器。
凱文·凱利反駁了過度擔心「過濾器氣泡」的觀點,「人們擔心技術會使我們變得越來越一致化,越來越商品化,這種擔心是不正確的。實際上,我們進行的個性化定製越多,對於過濾器而言處理起來越簡單,因為我們會變得更加獨特。」
《當心網上「過濾氣泡」》
過濾器一直存在,氣泡也一直存在,人們對於新生事物總會表現得過於恐懼,就像一些人對轉基因的態度一樣,殊不知轉基因存在的歷史比人類歷史還長。人類確實有自己的視野局限,但並沒有生活在「信息繭房」中。


※尋找與眾不同的你!
※《破冰行動》走下神壇,為何神劇終逃不過「爛尾」?
TAG:新媒體指數 |