紐約時報使用谷歌的人工智慧審核評論
在一個完美的世界中,新聞網站上的評論區應該是對世界上發生的各種事情進行理性討論的好地方。不幸的是,我們並沒有生活在一個完美的世界裡,各種激烈尖銳的爭論和謾罵經常會讓網站選擇完全關閉評論,而不是處理它們。
《紐約時報》正在試圖通過使用人工智慧來解決這個問題。今天,《紐約時報》推出了一個新的人工智慧評論審核功能,該功能使用了Perspective,這是一個由Jigsaw構建的人工智慧應用程序編程介面,Jigsaw是谷歌公司的母公司阿爾法集團退出的智囊團。《紐約時報》表示,這個被簡單地稱為「Moderator」的、新的人工智慧將允許該網站為更多文章開放評論。
《紐約時報》在一份聲明中表示,由於手工審核評論需要耗費的勞動量巨大,所以以前只允許對其約10%的文章進行評論。該報社表示,現在隨著Moderator的推出,他們將能夠允許對其約25%的文章發表評論,並希望最終將評論擴大到80%或更多的文章。
Moderator並沒有自動化所有的審核流程,而是使用機器學習來幫助《紐約時報》的員工在更短的時間內審核更多的評論。使用谷歌的Conversation AI,Perspective會評估評論中的內容被認為是有害的可能性。人工智慧會使用多種因素來評估每條評論,包括褻瀆、種族主義言論和其他煽動性的語言。除了《紐約時報》之外,Perspective也被用於維基百科和《衛報》網站的內容審核。
在在線社區中使用人工智慧審核已經成為一種日益增長的趨勢,直到最近,在線社區還在依靠人類審核人員來保持討論。例如,亞馬遜的Twitch使用了一款名為AutoMod的類似的工具來幫助現場直播人員控制他們的聊天室。
「英雄聯盟」的開發商Riot Games還使用人工智慧和機器學習來限制網路遊戲中的有害內容並打擊玩家濫用。Riot的人工智慧標註潛在的有害信息,並自動警告用戶他們的行為是不合適的,如果他們繼續這樣,就可能會受到懲罰。
在Game Developers Conference 2015(2015年的遊戲開發者大會)上,Riot的前首席設計師Jeffrey Lin表示,人工智慧不僅限制了遊戲中的有害內容的含量,還通過提醒行為的方式來改變有害的玩家。根據Lin先生的說法,如果告知他們被禁止的確切原因,他們有50%的可能會改變自己的行為,他說如果給這些玩家這些行為的證據,他們改變自己行為的概率就會上升到70%。
《紐約時報》使用的Moderator不會在向用戶提醒他們的行為方面發揮任何作用,而是使人類審核人員能夠更容易發現有害的評論內容。《紐約時報》的人類審核人員就這些意見做出最終裁定,最有可能的處理結果是刪除這些評論,並可能禁用用戶賬戶。
※PCIe速度水平將在2019年增至每秒128GB
※微軟遷移docs.com雲文件,並設定12月份的停用日期
※亞洲雲計算聯合會主席Bernie Trudel:雲和醫療健康
TAG:ZD至頂網 |
※抓緊使用人工智慧的研究成果
※谷歌使用人工智慧技術來預測籃球比賽勝負結果
※客戶使用翻譯技術調查報告
※麥肯錫:使用人工智慧技術的五大障礙
※零售復興:領導品牌使用數據和人工智慧搶佔先機
※張藝謀透露:「北京8分鐘」將使用人工智慧技術
※英國內政部使用人工智慧處理極端主義宣傳
※使用人工智慧解碼15世紀的「外星人」手稿
※《神都夜行錄》勾玉怎麼用最合理 勾玉使用技巧
※海德堡理論研究中心:指代消解的辭彙特徵-謹慎使用
※《自然》雜誌:人工智慧再現了腦細胞在導航時使用的思考機制
※牛津、劍橋、OpenAI等專家聯合發出AI報告:警惕人工智慧的惡意使用
※使用徵信報告小技巧
※美國6家知名情報局明確表示,不建議公民使用華為、中興手機
※《第五人格》工具箱使用技巧 工具箱怎麼使用
※《戰場女武神4》最新情報 女武神可使用合體技
※最新個人使用報告
※OpenAI等機構發布《人工智慧惡意使用》報告,利用AI來犯罪只是時間問題
※會使用工具的動物
※面膜使用報告