當前位置:
首頁 > 新聞 > 谷歌將推AI應用抵禦網路暴民,《紐約時報》成首站

谷歌將推AI應用抵禦網路暴民,《紐約時報》成首站

谷歌有一個雄心勃勃的計劃,那就是使用人工智慧來刪除侮辱性評論以及抵禦網路暴民。雖然目前的技術無法應對這樣的挑戰,但是它有助於完善那些已經非常規範的互聯網社區。



谷歌將推AI應用抵禦網路暴民,《紐約時報》成首站


人類已經破壞了互聯網。網路欺凌、騷擾性評論、社會羞辱和令人反感的言論像瘟疫一樣在諸如Twitter和Reddit等網站蔓延,尤其是當你碰巧引起了錯誤的關注的時候更是如此。


提供在線服務的公司則處在被人們指控漠視騷擾性言論和壓制言論自由中間。但是,現在谷歌認為,可以使用人工智慧來減少這種數字化評論帶來的悲劇。該公司的技術孵化器Jigsaw(其前身為谷歌智庫Google Ideas)正打算通過一款自動化程序Conversation AI來識別並刪除數字騷擾信息。


正如Jigsaw負責人Jared Cohen所說,「我想利用我們擁有的最好的技術去處理那些引戰帖和非正當戰術(這些非正當手段使得那些敵對聲音佔據了不相稱的比例),並且盡我們所能來提供一個公平的環境」。


谷歌此舉彰顯了其果敢的一面,而且這項計劃與Jigsaw之前的工作有所差異。Jigsaw之前的工作包括推出Project Shield(免費的開放式DDoS攔截服務),旨在保護新聞網站和促進言論自由的網站免受拒絕服務的攻擊。Jigsaw的另一項成果Password Alert是一個Chrome插件,旨在確保用戶密碼安全,免受網路釣魚攻擊。

這些都曾是主要的技術挑戰,但引戰帖和網路暴民儼然也已成為一個社會學問題。


Conversation AI是谷歌「moonshot」項目中最成功的項目之一,是「Google Brain」的一個分支。一方面,Conversation AI已經通過大規模神經網路為機器學習領域帶來了革命性的發展,同時也使得谷歌具有更多的優勢,例如在圖像識別領域比人類更加熟練。但對於在線辱罵性言論,Conversation AI卻無能為力。


雖然Jigsaw的目標是「打擊網路暴民的崛起」,但是該程序本身目前卻太過溫和,因此目前Jigsaw離成為一個合格的項目還有一段距離。Conversation AI將會主要用於簡化社區審查過程(這一過程目前主要由人類完成),因此即使無法根除那些糟糕的網路行為,它也可以為一些網站積累更多更好的言論。


暗示性言論的檢測


數月之後,Jigsaw將會率先將Conversation AI應用在《紐約時報》網站上,以幫助該公司管理其在線評論。目前,《紐約時報》主幾乎要審查每一條發布在其網站上的評論。


谷歌將推AI應用抵禦網路暴民,《紐約時報》成首站



而現在,Conversation AI正在閱讀其中的1800萬條評論,並從中學習如何檢測被拒絕的評論,包括沒有實質性內容的評論、偏離主題的評論、垃圾內容、具有煽動性、攻擊性的評論、包含淫穢信息的評論等。


《紐約時報》的目標並非盡量減少其評論中的辱罵性言論,因為這個問題目前已經在掌控之中;相反,《紐約時報》希望藉此來減少人工版主的工作量。「我們並未奢望有一個完全自動化的系統。」《紐約時報》社區團隊工程經理Erica Greene說。


《紐約時報》社區編輯Bassey Etim估計,最終大約50%~80%的評論可以實現自動審查,從而使得人工版主能夠將更多的精力用於其他部分。

與實時免費網站Twitter和Reddit不同,《紐約時報》網站面臨另一些問題。考慮到目前機器學習的局限性,Conversation AI還無法有效打擊存在於網路空間中的辱罵性言論。


儘管機器學習已經取得了耀眼的成就,但是它仍然沒有破解人類語言。人類語言中的那些類似於圍棋或者圖像中的圖案的部分,證明了語言的難以捉摸。


辱罵性言論檢測中的語言難題是語言的語境。Conversation AI的評論分析並不適用於一個完整的討論過程,因為它只可以將單個的評論和學習模式中的評論來進行匹配,從而識別哪些是好評論或者壞評論。


例如,如果評論傾向於包含常用辭彙、短語和其他特徵時,這些評論就會被認為是可接受的。但據Greene介紹,谷歌的系統經常會將關於唐納德·特朗普(Donald Trump)的文章中的評論視為辱罵性的言論,因為他們會引用特朗普的一些言論,而這些言論如果出現在讀者的評論中通常都會被屏蔽。對於這些類型的文章,《紐約時報》將會選擇關閉自動審核機制。

因此,期望Conversation AI在開放的網站(例如Twitter)中有良好的表現,幾乎是痴人說夢。


Conversation AI如何檢測那些發送給猶太記者的辱罵性言論中關於大屠殺的暗示?對這些辱罵性言論的檢測是建立在機器學習演算法能夠檢測的歷史知識和文化背景基礎之上的,而這些只有在機器學習演算法接受過類似的訓練之後才能實現。


即便如此,如果有人發送「如果特朗普贏了,我就會買這個」並附上相同的圖片,Conversation AI又如何能夠將其與辱罵性言論進行區分?


事實上,這個過程所需要的語義和實踐知識,甚至已經超出了目前機器學習所希望達到的目標。


因此,毫無疑問,專門的引戰帖將會找到一種新的方法來發布辱罵性言論,而這種方式可以避開類似於Conversation AI這樣的系統。如果目標是阻止評論者用侮辱性稱呼例如「同志」等稱呼對方的話,那麼機器學習通過屏蔽一些評論可以很好地實現這一點。但是機器學習無法識別隱喻,例如說某人是「彎」的來隱喻某人不正常。


換句話說,對於那些已經非常規範的社區來說,Conversation AI將會使得審核任務完成得更有效率。


但如果想要根除那些我們聽到的最糟糕的辱罵性言論 (這些言論通常出現在那些審核標準最低的網站上),Conversation AI則顯得無能為力。


除非改變Twitter和Reddit這些平台的性質,否則想要管理存在於這些網站的辱罵性言論幾乎不可能。


本文作者:David Auerbach曾作為軟體工程師在谷歌和微軟供職11年,主要工作領域為伺服器基礎設施。文章發表於MIT Technology Review。


請您繼續閱讀更多來自 DeepTech深科技 的精彩文章:

美國防部搞定矽谷的狗血劇情,堪稱一部《五角大樓風雲錄》
特朗普對「氣候」如此不友好,地球該怎麼辦?

TAG:DeepTech深科技 |

您可能感興趣

冒險島2暴民團升級最佳路線推線 島2暴民團是什麼
lady gaga的粉絲變身網路暴民 把英國才華歌手哄出月壇
潘斷:暴君與暴民
毀掉黃磊的不是《深夜食堂》,是無所不在的日雜,是網路暴民!
歷史上最殘暴民族,拿漢人女子當糧草,終受報應被滅族
馬蓉媽媽嗆網友是「暴民」「烏合之眾」,髮長文為女兒打抱不平!
日本妹子因玩COS遭受校園暴力 差點被同學和暴民逼死
武松原來是這樣成為暴民的
英國資產階級革命:一場清教徒的暴民政治
俄羅斯男子在印度誤敲神鍾,半邊臉遭暴民啃爛
組圖:印度暴民剝光毆打部落女子,場面殘忍讓人直冒冷汗!
要變天了,西方震驚!漢堡騷亂重演庚子事變,有人高喊:老佛爺不好了,暴民驚擾洋大人了!
當警察被暴民群毆的只能高舉雙手,法律的內褲去哪兒了?