當前位置:
首頁 > 最新 > Facebook想用AI禁止言論仇恨言論傳播,首先需要解決三個問題

Facebook想用AI禁止言論仇恨言論傳播,首先需要解決三個問題

上周,馬克·扎克伯格告訴美國國會,Facebook將越來越依賴AI識別在平台上傳播的仇恨言論。作為大數據公司Cambridge Analytica盜取數百萬用戶個人數據醜聞的證人,Facebook首席執行官說道:「在5到10年內,AI工具將可以準確地深入了解不同類型內容的細微語言差別,對此我持樂觀態度。」

扎克伯格表示,Facebook目前已有接近15000名管理員篩選和刪除攻擊性內容,到年底從事該工作的僱員將再增加5000名。但現在,這些版主只能處理Facebook用戶標記的帖子。可以使用AI識別可能存在問題的內容後,這項工作將得以加速,刪除操作也會更容易。但這並不容易實現,原因有三。

語言對於AI來說仍是一項巨大挑戰。計算機很容易可以獲取關鍵詞、短語,或者分類文本情感,但理解文章的含義則需對世界有更深入的理解。我們會利用關於他人的心智模式以及常識將許多信息塞到寥寥幾個詞語中,這也使得語言成為強大而複雜的溝通工具。 紐約大學的歐內斯特·戴維斯(Ernest Davis)教授從事計算機常識推理的研究,他說:「假新聞其實特別難處理。你可以看看Snopes網站在做什麼(美國一家專門核查並揭穿謠言的網站),他們需要處理各種各樣的情況。假新聞通常摻雜了一半的真相。」


即便自然語言理解取得了進展,仇恨言論和錯誤信息提供者也可以採用相同工具逃避檢測。 這是Primer公司首席執行官肖恩·古爾利(Sean Gourley)發出的警告——該公司使用AI通過一家投資資金In-Q-Tel為美國情報機構提供報告。最近,在麻省理工科技評論舉辦的一場會議上,古爾利表示,在不久的將來人們會利用AI生成大量帶有目的性的假新聞並進一步優化它們,這是不可避免的。


事實上,我們可能正在見證一個時代的開啟,一個假新聞更加隱蔽的時代。研究人員已經可以通過機器學習創造出令人信服的合成視頻和音頻,例如,讓政治家發表從未有過的演說。它也生成了讓人困擾的內容,如用於報復的假情色視頻。 AI研究人員才開始著手讓機器理解視頻。以這種方式製作的虛假視頻即便對AI來說也很難識別。這種視頻是通過兩個神經網路創建的,這兩個神經網路相互競爭,產生和識別虛假圖像。最終實現「愚弄」其中一個神經網路,讓它認為生成的內容是真的,因此構建一個能識別虛假的系統會很困難。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 科技暴力美學 的精彩文章:

預測智商的DNA檢測即將來臨,然而這樣的選擇未必明智
這種幹細胞移植可以阻止一種極為常見的致盲病變

TAG:科技暴力美學 |