當前位置:
首頁 > 最新 > 互聯網巨頭掌控人心:人工智慧推薦與被圈養的用戶

互聯網巨頭掌控人心:人工智慧推薦與被圈養的用戶

礪石導言:在所謂智能推薦的作用下,越來越多的用戶被「圈養」起來。用戶表面上獲取信息的渠道和數量都在極大的拓展,但實際上卻陷入了一個被「娛樂」,甚至被「愚弄」的境地,進入一個「數字娛民時代」或者「數字愚民時代」。互聯網巨頭掌握了近乎控制人心的能力。

劉國華 | 作者

1

一位教授在給政府幹部培訓班上課時,提到了今日頭條。課間休息的時候,一位縣長私下跟教授反映:「今日頭條內容真的很有問題,整天給我推送一些娛樂八卦、香艷美女的信息」。教授哭笑不得,只能建議他卸載一段時間再用,情況也許會好點。

這位縣長不知道的是,他之所以每天會收到美女八卦、香艷狗血的推送信息,是因為他的閱讀痕迹已經被記錄「在案」。互聯網公司不過是利用演算法,投其所好,讓他沉浸在這樣一個定製化的信息圈子裡罷了。

在太平洋的另一面,Facebook早在2012年就曾經聯合多所美國大學,展開過一項有關「信息圈養」的測試。他們篩選了70萬不知情的用戶,將其分為兩組:其中一組刪除了首頁信息中的正面情緒的推送,而另外一組則刪除了負面情緒的內容。一周後他們發現,那些經常接受負面信息的用戶開始變得消沉,並且自己也會嘗試發布一些消極信息。另外一組用戶的情況則相反,他們開始變得越來越樂觀向上,他們發布的信息也變得很正能量。

這兩件事情看起來好似不同,但都集中反映了一個事實:在互聯網公司所謂智能推薦的作用下,越來越多的用戶被「圈養」起來。表面上,用戶獲取信息的渠道和數量都在極大的拓展,但實際上卻陷入了一個被「娛樂」,甚至被「愚弄」的境地,進入了一個「數字娛民時代」或者「數字愚民時代」。

互聯網巨頭掌握了近乎控制人心的能力。

2

我們每天接受的互聯網信息鋪天蓋地,看上去比以往更開放和自由。但是與此同時,互聯網也提供了最好的自我隔絕工具。一方面,你可以毫無阻力的選擇自己喜歡的信息,將他們放在自己可以看見的地方,將不喜歡的東西移出視野。另一方面,一大批互聯網公司打著個性化、智能推送、千人千面的科技旗號,開始圈養甚至控制用戶。

用戶所接觸的很大一部分網站和APP,都會在後台計算他們瀏覽行為,描繪用戶畫像,然後智能推送以「取悅」用戶。以今日頭條為首的各種新聞APP,甚至淘寶、知乎、微信等,都有著精密的用戶偏好演算法,全天候向用戶推送他們感興趣的內容,讓人們圈養在自己喜好的世界裡。

今日頭條率先洞察出了人性的小秘密:人們在接受自己所關心的內容時心理門檻是最低的,而智能推薦能夠大量降低用戶的閱讀成本,包括篩選成本和時間成本。今日頭條的口號「你關心的,才是頭條」已經非常明確的告訴大家,他們就是為用戶推送用戶經常瀏覽的內容。同樣,你一打開淘寶,就會推送給你喜愛的商品,你打開網路電視盒,當你看完之後會發現他們又為你推薦了極其類似的其他節目。連百度搜出來的東西都開始變得具有偏向性了。

這是一個充滿了個性化、定製化的互聯網時代,用戶似乎已經無法擺脫「體貼入微」的服務商對我們的「特殊關照」,形成一個狹隘的虛擬世界。在這個世界裡,用戶頻繁為自己喜歡的信息點贊、為自己欣賞的內容買單,一次次為APP完成流量的KPI。在此基礎上,互聯網公司再通過社交化的方式,將喜好相同的用戶聚集在一定的社群。

用戶越來越多地獲得「各種」消息,並在志趣相同的社群里表達自己的觀點。並且,他們的思想在這裡得到不斷的深化,所追求的東西也越來越強烈和極端。可怕的是,用戶在被圈養的同時,還表現出越來越心甘情願地被「圈養」,他們覺得表達的觀點就是發自內心的。進一步所帶來的副作用是,為了協同社群的思想,他們開始排斥不同思想,越來越容不下不一樣的聲音。

這種情形,就猶如用戶進入了一條「信息隧道」:一眼望過去,看到的全都是感興趣的、贊同的和高度相似的內容與觀點,隧道里沒有嘈雜的聲音。這樣的結果是,在信息爆炸的時代,人們反而變得更加閉塞和極端,人與人間的包容性變得越來越差。

3

APP們儘管每天都在推送海量的信息給用戶,但是信息並不等於知識。

信息,在數量上大於知識,但是質量上卻遠弱於知識。圈養的用戶通過信息形成所謂的看法或觀點,但是這種看法由於沒有知識作為基礎,是極為不靠譜的。美國康乃狄克州大學哲學教授邁克·林奇 (Michael P. Lynch)在《我們的互聯網》一書里指出,對事物的看法和知識是不同的,「傻瓜也能有看法,但有知識的人卻不多」。

邁克·林奇在《紐約時報》上發表的《(谷歌)搜索即相信》一文指出,互聯網便利使得大多數人成為「接受型的知識者」(Receptive Knower)。但接受型知識本身並不充分,互聯網不能為我們提供對網路知識(或任何其他知識)的「理解力」。非但不能提供理解能力,而且互聯網還可能阻礙理解能力的發展。

在這種情況下,用戶認知就像一座孤島部落,孤島的面積取決於他們的視野。由於人類天生迷戀舒適區的本能,被互聯網公司智能推薦圈養的用戶,開始失去如何獨立思考的能力。哲學家卡爾·波普爾將這種狀態描述為「部落的呼喚」:回到封閉的、仇外的、自給自足的和自我保護的內心的慾望,進入自我封閉的堡壘。

正是出於對「部落的呼喚」的警惕,當年肯尼迪總統要求在會議上設立一個忠誠的反對派。他們的責任就是當大家達成一致意見時,站出來提出不同的觀點,以此讓這個群體走出「隧道視野」。

在政治領域,同質「部落」的增多不僅減少了跨群體的社區,它還加劇了調和多樣化的利益和世界觀的困難程度,形成極端組織。這就形成了如政治學家凱斯·桑斯坦提出的「群體極化」的概念,即「團體成員一開始即有某種偏向,他們就通過不斷協商朝偏向的方向移動,最後形成極端的觀點」。

群體極化帶來兩個問題,一是思想、行為的極端化,二是容易被群體認可的知識影響。在搜索時代,人們可能還需要通過谷歌、百度等工具,主動尋找知識,但是到了機器演算法盛行、智能推薦遍地時,用戶實則上變成了被「餵養」,成為吸著「奶頭」,停止思考的巨嬰。換句話說,群體實際上成為很容易被機器控制、失去思考能力的程序化消費動物。

1995年,在美國舊金山一個討論「全球化」會議上,面對全球財富集中在20%的人手上,80%的人被「邊緣化」的貧富差距境況,美國高級智囊布熱津斯基認為:化解80%和20%之間的矛盾唯一的方法,就是給這80%的人口塞上一個「奶嘴」,讓他們安於為他們量身訂造的信息中,慢慢喪失熱情、抗爭慾望和思考的能力。這就是聞名遐邇的「Tittytainment」戰略,由Titty(奶嘴)與 Entertainment(娛樂)合成,中文譯為「奶頭樂」。實際上,現在被智能推薦「餵養」的互聯網用戶,也類似於布熱津斯基口中享受「奶頭樂」的群體。

這種境況十分普遍,受到很多人的關注,比如大前研一在《低智商社會》中就提到:日本的新一代正在逐漸步入低智商社會,他們讀的書越來越幼稚,對各種謠言絲毫不會思考,很容易遭到媒體的操縱。

4

心理學研究表明,人在接納新信息的過程中存在認知偏見。也就是說,人們樂於選擇並接受與自己原有信念、價值觀相一致的信息,當接觸到與先前的信念和價值觀不一致的信息時,人們傾向於拒絕接受,並將不一致的內容視為虛假信息。有人將人的這種心理,貼切的形容為信息的同溫層效應(Stratosphere)。所謂「同溫層」是指大氣層中的平流層,在平流層裡面,大氣基本保持水平方向流動,較少有垂直方向的流動。這種認知偏見經過互聯網公司演算法的提煉與加強,使得用戶心理底層的越來越凸顯出來,形成了一個個聚類的群體。

與同溫層效應類似的,是哈佛大學教授凱斯·R·桑斯坦在著作《信息烏托邦:眾人如何生產知識》一書中提出的「信息繭房」的概念。信息繭房是指,在網路信息傳播中,因公眾自身的信息需求並非全方位的,公眾只注意自己選擇的東西和使自己愉悅的訊息領域,久而久之會將自身桎梏於像蠶繭一般的「繭房」中。而且,在「繭房」中用戶還會不斷強化個體意識,這一現象被形象地表述為「迴音室效應」。

一般而言,如果一個人從標題就能判斷出A文章的觀點與他對立,而B文章的觀點與他很類似,那他更可能選擇B文章。如果媒體的推薦演算法為了提高用戶的使用率而不斷地迎合用戶的話,那就等於是專門為每個讀者都建立了一個專有的「回聲室」。他聽不到對立的聲音,而只會一次又一次地把自己的觀點誤以為是人人都信奉的真理。

「回聲室效應」在社交媒體上造成的一個結果是「過濾氣泡」的產生。由於關注對象的選擇,一個社交媒體用戶看懂的基本上都是想法類似的帖子,這種高度同質化的信息流構成「過濾氣泡」,從而把相異的觀點有效地排斥在外。埃利·帕雷瑟(Eli Pariser)在《過濾泡沫》(Filter Bubble)一書中表達了這樣的憂慮:「這些個性化演算法使得只有和人們的意識形態一致的信息才會被呈現,人們的視野越來越窄,可以接觸到多元化信息的機會也越來越少。」

互聯網公司目前崇尚的智能推薦、個性化定製服務都在加強這一趨勢。當他們努力根據用戶的口味度身訂造他們的服務,過濾出只屬於私人圈子內的話題,用戶便被困在一個個「過濾氣泡」當中,能對世界拓寬視野的信息便消失了。

總結來說,智能推薦造成的危害包括:首先是會加劇網路群體的極化,群體內成員與外部世界的交流就會大幅減少,同質特徵越顯著。其次是群體內的人容易使人產生盲目自信、心胸狹隘等不良心理,尤其是當他的看法獲得同一類人認同後,更有可能帶來不顧後果的極端行為。

更為重要的是,長此以往還會導致社會黏性的喪失。當每個個體之間、群體之間缺乏粘性,人心渙散將會成為一種普遍的社會現象,個人之間、群體之間往往彼此漠不關心。為什麼會這樣呢?對此,凱斯·R·桑斯坦教授解釋到:整個社會需要一種社會黏性,這種黏性是由共同經驗得來的。但在互聯網公司的技術下,個人可以對信息進行選擇性輸入,這就減少了共同經驗,不同意見群之間的衝突將會上升。當人們把不高興看到的信息事先過濾掉的時候,就難以理解和同情異己的觀點和價值觀。因此,社會黏性便會減少,共同體的維繫也會出現問題。

我們今天看到越來越多的群體極端行為,人與人之間冷漠與不合作的情況,大多可以從中找到原因。

5

但是互聯網公司宣稱並不對此負責,他們一次次強調技術中立,而不是關注社會價值如何。知名互聯網評論家Keso曾說:「準確地抓撓人性弱點並不等同於用戶價值,勾引用戶將大把的時間拋灑在層出不窮的無聊事情上,並不等於用戶價值,這只是一種變相的用現代化的傳播手段製造出的價值幻象。」

很多人都認為,一項新的技術總會有好的一面,壞的一面,但技術本身不是兇手。正如刀本身不殺人,殺人的是拿刀的人,所以不應該批評刀。但是就刀可能作為兇器的角度來說,人類對安全的需求遠遠不止50%,極端的甚至要求100%的安全。因此,僅僅保持中立是不夠的,甚至是不可能的,技術必須確保科技為人們服務,必須要引入「道德」考量,確保科技被善用。

以智能推薦造成的智商隔離來說,技術並不中立。演算法是沒有價值觀的,你喜歡低俗,它就推送低俗,所以需要人給他植入價值觀。以谷歌來說,他們就加入了「不作惡」的價值觀,來確立基本的商業操守。

人在不斷被動接收信息的同時,信息其實也在不斷塑造人的價值觀。憑藉千人千面的個性化推薦,今日頭條的確是徹底改變了信息分發模式,這是一項很了不起的成就。今日頭條創始人張一鳴在專訪中稱,自己的公司是科技公司,科技是中立的,他們從來不會去干預用戶的閱讀。在撇清商業倫理與自己無關的情況下,今日頭條界面上往往充斥著一些撒狗血的捕風捉影,三流明星的下半身新聞。

儘管互聯網作為媒介帶給了我們一個全新的信息傳播模式,但仍應遵循百年以來構築的媒體價值觀:服務民眾,服務社會。互聯網公司在一次次的技術迭代中,由於不帶價值觀的進行進化,技術的趨利性越來越強。用戶已然成為在互聯網生態圈中帶著項圈的「消費動物」。國際上一些互聯網巨頭已經意識到其產品對民眾的意識形態有一定的消極影響,進而開始審視產品與社會的關係,試圖通過新的智能技術來解決已存在的問題,承擔起相應的社會責任。

清華大學發布的「2018全球新聞傳播新趨勢」中提到,美國國家公共電台(NPR)和《華盛頓郵報》已經在開始通過專業編輯的介入確保受眾能夠接觸多元化的資訊和觀點,能夠第一時間收到對網上流傳的「後真相」的更正。

技術流往往強調工具理性,而社會真正需要的更是價值理性。但是事實的情況是,隨著對技術的不斷加碼強化,工具理性越來越成為經濟利益的工具,價值理性被目的取向的工具理性所壓制。然而人類越依靠技術,就越失去自主決定的能力和人本精神。因此,只有當目的至上的工具理性行為與價值理性相協調時,人類社會和科技發展之間才具備了和諧共生的可能,價值理性的重要性才得以彰顯。

技術並非絕對中立,智能演算法同樣可以被賦予商業倫理和價值觀。

6

對於個體而言,無論互聯網帶來的個性化是主動的還是被動的,我們都需要警惕性地看待各類互聯網產品。我們要在日常獲取信息的同時嘗試擴大視野,接觸不同的聲音,莫讓自己被機器演算法禁錮在一個虛幻的私人定製空間。

每次外出時,你不妨嘗試一個從來沒有吃過的菜品,觀看一場與以往風格迥異的電影。甚至在購物排隊時,花一些時間與完全不同於自己的人說話,問問他們會推薦你閱讀什麼、吃什麼、看什麼。

我們要記住:在信息高速公路上飛馳的時候,更要學會慢慢「走路」的能力。實際上,走路獲得的認知能力有可能要大於高速行駛的認知能力。很顯然,開車飛馳時,你集中注意力看到的無非就是紅綠燈與行人。開的速度越快,你眼睛裡看到的東西就越少,與外部世界的互動就越單調。但走路時眼睛裡看到的東西會更多,和周遭環境的互動就越多。

早在50多年前,就有科學家在舊金山做了一個有趣的研究:他們選取了環境差不多的幾個街區,調查當地居民的社會關係。結果發現,車流量最少的街區,那裡的居民平均有三個親密朋友,最擁堵的街區,親密朋友平均還不到一個。

我們要時刻提醒自己,不要因為高速前進,忽視自己與周圍環境的互動能力,尤其是自己獨立思考的能力。電影《一代宗師》中說:「見自己,見天地,見眾生」,我們不能只看到狹隘的自己。

法國哲學家勒內·笛卡爾(Rene Descartes)的永恆哲學命題:我思故我在。當人類不再思考而被機器餵養的時候,我們還在嗎?


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 礪石商業評論 的精彩文章:

碧桂園公關的自黑與他黑
穿透小米估值迷霧:雷軍指鹿為馬、文過飾非

TAG:礪石商業評論 |