當前位置:
首頁 > 新聞 > 迎合我們、極化我們,最後分裂我們:請對社交媒體之惡保持警惕

迎合我們、極化我們,最後分裂我們:請對社交媒體之惡保持警惕

在中國,「人工智慧」和「移動互聯網」一樣,受到了大眾的普遍歡迎。然而在美國,以 Twitter 和 Facebook 為首的社交網路正在因其演算法「縱容俄羅斯散布虛假新聞並操縱選舉」而受到大規模的討伐。本文作者 Natasha Lomas 就以飽含憤怒的口吻描述了「社交網路如何作惡」,並呼籲全體公眾保持警惕。

編譯 | 陳韻竹 王宇欣 邱陸陸

作者 | Natasha Lomas

來源 | TechCrunch

在科技領域,有些東西已經爛到骨子裡了。

不過,在種種針對虛假新聞的絕望情緒中,在對於克里姆林宮用虛假消息扭曲了美國大選結果的控訴中、在各政治聯盟呼籲科技巨頭保有社會良知的呼聲里,我們逐漸形成了一個更加複雜的認知。

虛假新聞和虛假情報只是那些錯誤和腐爛的一小部分。平台巨頭們存在的問題其實要更為本質。

關鍵問題在於,這些功能強大的演算法引擎都是黑箱。而且,當你從用戶的角度注視這些演算法時,每個用戶只能看到自己被分發的內容。

社交媒體製造了一個巨大的謊言,宣稱它們向我們展示了整個世界。並且接著謊稱:它們技術產品拉近了我們的距離。

但是,社交媒體和電話不一樣,它不是「望遠鏡」這樣單純幫助我們獲得更多事實的工具。實際上,它是一個導致意見分裂的「稜鏡」,它用越來越濃的過濾器泡沫砌成牆,取代了原來由全社會共享的公共領域及不斷交疊的領域間披露,並藉此破壞社會凝聚力。

社交媒體並非連接社會的結締組織,而是類基因工程中的細胞分裂機制,將每個人視作獨立單位,然後與他人剝離開。

請仔細想一想吧。這簡直是密集恐懼症的噩夢。

或者,社交媒體可以被比作一個環形監獄——每個人都被關在一個小房間里,而平台的控制者通過單向玻璃塔監視著所有人的一舉一動。

因此,消息能夠通過社交平台迅速地擴散、膨脹也就不足為奇了——社交網路不僅急劇加快了信息傳播的速度,還蓄意引導用戶沉浸在其自我的偏見中。

它迎合我們、極化我們,最後分裂我們。

當我們登錄 Facebook,或者在 Google 上查看個性化的搜索結果時,就好像被推進了一間黑漆漆的獨座電影院,房間里沒有窗戶,沒有門,我們被戴上定製化調頻的耳機,觀看一部不斷循環的定製電影。

是不是有幽閉恐懼症的感覺?

演算法引擎堅信你會喜歡這部電影。因為它知道你最喜歡的演員是誰,你最愛的電影類型是什麼,閉起雙眼你最挂念誰,眼睛張開身邊竟是誰。

它了解你的政治觀點、你的朋友,知道你要去哪兒。它一刻不停地監視著你,然後把全部的觀察打包成這部量身定製的、不斷迭代的、情緒操控的電影,只為你一人放映。

它的秘訣就是從互聯網的每一個角落裡刮取你不經意留下的有關自身好惡的碎片,然後將其混合在一起。(你在線下表露出的習慣也逃不過它們的魔爪——它會僱傭數據中介去偷取這些信息的。)

其他人根本看不到這部電影,他們甚至都不知道它的存在。沒有廣告為它的上映做宣傳——為一部只屬於你的電影投放廣告有什麼意義呢?但無論如何,個性化內容幾乎能保證把你牢牢綁在座位上。

如果社交媒體平台是火腿腸工廠,我們至少可以在運輸車駛出工廠大門的時候攔住它們,探測那些塑料包裝里有著肉的顏色的物質到底有什麼化學成分,以及它是否真的像廣告里聲稱的那樣美味。

雖然我們仍然需要上千次的測試才能獲得有關每袋火腿腸的有意義的數據。但是這至少是一項有可能完成的任務。

可是這些社交網路平台根本不生產實體產品,也不會給我們留下任何可追蹤的實體證據。

煙霧與鏡子

如果你試圖了解平台的「信息是怎樣煉成的」,你需要拿到訪問平台的演算法黑箱的許可權。但是演算法都是被鎖在企業總部大樓里的——門外豎著醒目的大牌子,上書「私人所有!遊客止步!商業機密!」

只有工程師和平台所有者才有權訪問。而且即使是他們,也不一定總能理解機器正在做出的決定。

但是我們怎麼能容忍這種信息不對稱呢?如果我們,公眾——平台指望著我們做它的數據來源、內容來源、收入來源,換句話說我們就是它們的商業模型——不知道我們是如何被它們通過涓滴細流的推送區分開的,那麼我們如何判斷這項科技如何影響一個人、影響一個群體,如何了解它如何將系統化並重塑這個社會?

直到我們切實地受到了傷害,我們都無法衡量其影響。

如果我們無法獲得有意義的統計數據,我們怎麼能判斷,我們花在這樣那樣的迎合我們偏見的廣告平台上的時間是有價值的?

當一個火車站甚至不得不掛起標誌牌,警告父母們「別再看手機了,看好自己的孩子吧」時,我們應該作何感想?

是這個社會上突然出現了一群白痴嗎?還是我們的注意力被以一種不正當的形式剝奪了?

當科技公司的 CEO 們公開承認,他們不希望自己的孩子去碰他們開發並極力推銷給其他人的產品時,我們應該作何感想?

聽上去,就連他們自己也承認,社交網路,可能就是新型毒品。

外部研究者一直試圖繪製互聯網上的觀點及其影響力的流動圖,試圖以此量化平台巨頭們的社會影響力。

然而,舉個例子,Twitter 就又當又立地仗著自己信息分發渠道的身份,對這些研究成果挑三揀四,把它們不喜歡的結論批評得一文不值,給出的理由居然是,這些研究者的信息是不完整的,因此結論是有缺陷的。

為什麼信息不完整?因為外部研究人員無法獲得 Twitter 的全部信息流。為什麼無法獲得全部信息流?因為研究者看不到 Twitter 的演算法影響數據的過程,也看不到每個推特用戶如何反過來影響 Twitter 生產「香腸」並決定給誰吃的方式過程。

為什麼研究人員看不到這個過程來著?哦,因為 Twitter 不會給任何外部人士訪問許可權。抱歉,你沒看到大大的「遊客止步」標誌豎在那兒嗎?

而且,如果政治家對公司施壓,讓他們交出那些只有 Twitter 內部才能看到的數據的時候,得到的只是另一些 Twitter 出於公司利益考量而篩選過的數據垃圾罷了。

我們如何能指望 Facebook 去建立起有力的、嚴格的政治營銷披露系統呢?他們連公司現有的廣告標準都維持不了。

扎克伯格希望我們能相信他會做出正確的選項。可是他是這樣一家科技巨頭的 CEO,是一個蓄意無視人們對 Facebook 上猖獗的惡意虛假信息的擔憂的人,是一個對那些相當有見地的政治家發出的「虛假新聞會影響國家的民主性」警告充耳不聞的人。

偏見的黑箱

在假新聞成為危及 Facebook 經營的生死存亡的危機之前,Zuckerberg 對那些關於 Facebook 上內容的擔憂總是一副輕描淡寫的態度——他有一套極為無恥的說辭:「我們不是一家媒體公司;我們是一家科技公司」。

事實證明,他或許沒說錯。因為媒體監管規則可能並不適用於科技平台。大型科技平台確實需要一種針對它們量身定製的監管規則。這種監管規則要針對出他們生產出的——密集恐懼症請閉眼——40 億款定製化產品的超級指向性特徵作出限制。

近年來,我們聽到一些呼聲,呼籲「監管人員應該持有演算法黑箱的訪問許可權,並對其進行監管」。

隨著人工智慧愈發廣泛的應用,這種呼聲會越來越強烈。如果科技公司可以不受監管地將對其有利的偏見信息放入他們的演算法黑箱里,那麼這種偏見將會隨著平台的擴張而飛速蔓延。

難么,讓平台自曝其短就是公平正義的嗎?或者起碼要求平台接到一定規模的投訴之前、在一些具有足夠影響力的大人物注意到這件事並為此發聲之前,就這麼做?

建立演算法追責制度不是說,出現了一個小技術故障,需要我們要投入大量人力物力來做逆向工程。我們必須建立適當的流程和有意義的追責制度,不惜任何代價。

如果人們發現,巨頭平台每次回答那些影響範圍遠超自身商業利益的問題時,都在有意推諉並且捏造事實——而這些問題的答案,讓我再強調一遍,只有他們擁有——那麼打破黑箱的呼籲將會愈演愈烈,因為這將會得到全體民眾的支持。

立法者已經開始留意演算法追責一詞了。我們聽到這個概念被頻繁提及。相應的風險逐漸獲得清晰的解讀。而現有的危害也正在被評估。在這些超級平台耗時十餘年在公眾身上進行這場大型超級個性化實驗之後,演算法黑箱正在失去公眾的信賴。

如今,沒有人會懷疑這些平台會影響乃至重塑公共討論的走向了。但是,最可怕的是,近年來,演算法通過獎勵那些影響惡劣的煽動者,已經讓我們的公共空間愈發粗俗、憤怒、充斥著暴行,而缺少見建設性的意見。

所以只要有足夠多的人——足夠多的「用戶」——終於串聯起了蛛絲馬跡,明白了究竟是什麼讓他們在使用互聯網的時候變得如此不安與反胃,這些產品會慢慢退出歷史舞台。

因為這個問題沒有工程上的解決方案。即使生成式人工智慧可以很好地憑代替人類完成想像類工作,但是人工智慧畢竟不是人,而科技巨頭所依賴的廣告需要「人」的關注。(『平台內容由用戶生成』這個概念應該與並未獲得廣泛提及但是顯著相關的『內容由用戶消費』放在一起。)

本周,英國首相特蕾莎·梅在達沃斯世界經濟論壇上抨擊了社交媒體平台喪失社會良知的行徑。

在強烈譴責了 Facebook、Twitter 和谷歌等巨頭的行為之後——如她所言,這些平台推動了虐待兒童、現代奴隸制以及恐怖主義和極端主義內容的傳播——她進一步指出,根據 Edelman 公司的調查顯示,全球對社交媒體的信任正逐步削弱(同時,人們對新聞業的信任正在逐步攀升。)

她的潛台詞很明確:如這些科技巨頭擔心的一樣,世界領導者現在有強烈的動機,也有相應的能力,去磨刀霍霍宰向他們了。

她也不是唯一一個在達沃斯論壇上將社交媒體放在火上烤的人。

「Facebook 和谷歌已經成長為更加強大的壟斷者,它們已經成為了創新的障礙並且引發了各種問題,而這些問題我們剛剛才開始意識到,」美國慈善家,億萬富翁 George Soros 如是說道。他呼籲進行相應監管行動,以打破平台對我們的控制。

雖然政治家(和記者——也許還包括 Soros)已經習慣了公眾的仇視態度,但是引起公憤對於科技公司來說,還是全新的體驗。這些科技公司多年來一直被「創新」這個辭彙所保護著,「全民抵制」從來不曾出現在它們的字典里。就像「社會責任」一樣,那是另一個近期才受到它們關注的概念。

你只需要看看 Zuckerberg 臉上那一條接一條出現的煩惱紋,就能知道這位少年得志的矽谷王者對於席捲而來的公憤,準備是多麼不足。

猜謎遊戲

大型科技平台的不透明性造成的糟糕、非人性化的影響不僅僅針對對其用戶——連他們的內容創作者也不能倖免。

像 Youtube 這樣的平台,依賴於創作者志願大軍來保證永遠有源源不斷的內容流向其用戶。數十億的流量從平台流向用戶(同時數十億的廣告收入流入谷歌的口袋),但是平台本身和其內容創作者之間仍隔著一面不透明的屏幕。

YouTube 有一些內容政策,它要求其內容上傳者必須遵守這些規則。但是谷歌一直沒有嚴格執行這些政策。只有媒體醜聞或廣告商的抵制可能會觸發內容政策的強制執行,徒留創作者想盡辦法應對這些「飛來橫禍」。

一位創作者與 TechCrunch 聯繫是因為,她發布的諷刺「吃汰漬洗衣球挑戰(Tide Pod Challenge)」的視頻居然讓她收到了安全警告。這個警告是由 YouTube 高度自動化的系統發出的,她將這個系統稱為「發布者心中永遠的痛」和「毫無人性的猜謎遊戲」。

Aimee Davison 告訴我們,「我在 YouTube 上遇到的大部分問題都是那些自動評級,匿名標記(一項被濫用的功能),和那些指示模糊的、沒什麼修正許可權的系統郵件支持造成的。」她還表示,「平台與內容創造者之間的合作夥伴關係需要人類與人類的直接互動、協商。YouTube 應該有一個一以貫之的審查指導方針,並且向內容創造者作出明確的說明。」

她補充說,「YouTube 需要對其內容進行充分的分級,而不是進行過度的藝術審查——他們需要人性化地管理我們的賬號。」

然而 YouTube 甚至無法妥善管理那些水平最高的內容創作者,也就是那些所謂的「YouTube 明星」。

當 YouTube 的創作明星 Logan Paul(谷歌廣告平台上的一位首選合作夥伴)上傳了一段自己在自殺者遺體旁邊開玩笑的視頻時,我們究竟應該批評誰?

Paul 確實要管理自己的良知。但是對於這種行為的譴責必須要超越個人層面,因為這些個人是被平台的獎勵系統所誘導,才去創作了這些「極大豐富了谷歌內容」的視頻的。

在 Paul 的例子中,不止有自動系統對他發布的內容進行了審查,YouTube 工作人員手工審查並通過了他的視頻。因此,即使 YouTube 聲稱其內容會經過人工審查,這些審查人員似乎也沒有足夠的時間和足夠強大的工具來支持他們做好這項工作。

考慮到這項任務的難度,這也不足為奇。

谷歌表示,今年將會把執行評分審核和擔任其它審查執行任務的人員增加至 10000 人。

然而,這個數字比起上傳到 YouTube 上的視頻數量來說,簡直是九牛一毛。(據 Statista 統計,2015 年 7 月,每分鐘就會有 400 小時時長的視頻被上傳到 YouTube 上;現在這一數據輕易達到了每分鐘 600/700 小時。)

YouTube 這一免費上傳內容平台的龐大規模,也使得它不可能「控制」自己的影響力。

當平台的巨大規模、普遍存在的記錄機制和個性化精準定向技術同時賦予其影響和塑造整個社會的力量時,這個問題就天然存在了。

YouTube 表示,其平台覆蓋了超過 10 億用戶,占整個互聯網用戶的三分之一。

另外,谷歌對其演算法進行的內容管理以及產生的社會影響持有的「不干涉」態度,說得好聽點兒,也是值得懷疑的。

事實上,連 YouTube 自己的員工都認為其演算法具有極端主義傾向。

同時,YouTube 還被指控「從根本上自動化了網路的極端化過程」,將觀眾推向越來越極端和仇恨的觀點。點擊一個民粹主義右翼評論家的視頻,然後看幾個演算法推薦的相關視頻,不久你就會被推向新納粹仇恨組織。

公司聲稱會修復這個人工智慧極端主義的問題?然而他們還是在創造更多的人工智慧 ...

呵,這就是人工智慧支持的平台,看看它都做了什麼,抓取並放大假新聞,加速憎恨、激勵社會走向病態。

而所謂的人工智慧支持的評級系統,它太笨了,根本做不到像人類那樣判斷語境並理解其中細微的差別。(或者說,只有給了足夠的時間思考,它們才能做到這一點。)

Zuckerberg 本人在一年前,也就是 Facebook 面臨的危機規模開始變得明朗的時候曾經說過,「值得注意的是,人工智慧首先需要對文本、照片和視頻等進行理解,才能判斷這些信息否含有憎恨言論、圖片暴力或是色情內容。」以及「依照我們目前的研究進度來看,我們希望能在 2017 年開始著手處理一些案例,但是對於其他案例,我們在很多年之內是無能為力的。」

當他說「很多年」,這位科技公司 CEO 的真正意思就是,「我們可能永遠無法在工程上實現這一點。」

如果你參與過討論內容審核這種非常難、非常社論化的問題,你會知道,相比之下,確定什麼是恐怖主義簡直是小菜一碟。

別說理解諷刺性作品了——僅僅了解某內容究竟是存在某種內在價值,還是一段僅僅是由演算法剪輯而成的垃圾都十分困難。實話說,我根本不指望可以做到這一點的機器人出現。

特別是在各個領域的人們都還在呼籲科技公司展現更多的人性的時候,我更加不會報這種希望了。要知道,現在科技公司還在試圖強加給我們更多的人工智慧呢。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

TAG:機器之心 |