當前位置:
首頁 > 科技 > 消滅網路色情?人工智慧並不能做到

消滅網路色情?人工智慧並不能做到

去年,Twitter 收購了創業公司 Madbits,根據《連線》的報道,這家公司開發了一種在鑒別危險內容(NSFW)上可以達到 99% 識別率的程序。而在 9 月底,雅虎也開源了其研發的深度學習人工智慧色情內容過濾解決方案。但人工智慧真的能夠消滅色情嗎?(額外的福利:一個訓練數據集既可以用來訓練識別模型,也可以用來訓練生成模型。加利福尼亞大學戴維斯分校的學生 Gabriel Goh 就利用雅虎開源的 open_nsfw 訓練了一個色情圖像生成模型。警告:此鏈接的內容可能會引起一些人的不適。)



消滅網路色情?人工智慧並不能做到


「我今天不會嘗試進一步定義我所理解的這種物質(赤裸的色情),也許我永遠都不會成功。我敢說我一看到就知道它是不是,而關於本案的這部電影,則並非如此。」──美國最高法院法官 Potter Stewart


我們不能教會電腦我們自己都不明白的東西,但我們不會阻止雅虎對屏蔽色情信息的不斷嘗試。


在1964年,最高法院推翻了對 Nico Jacobellis 猥褻的定罪,他是一位克利夫蘭的劇場經理,被指控傳播淫穢作品。有問題的那部電影是 Louis Malle 導演的「The Lovers」,講述了由 Jeanne Moreau 飾演一名家庭主婦,厭倦了她的丈夫和馬球比賽,在一個炎熱的夜晚和一個年輕人私奔的故事。而說到「熱」,我的意思是其中表現了粗重的呼吸,還有乳頭一閃而過──準確地說,沒有什麼你在有線電視上看不到的。


用幾個簡單的字,大法官Stewart 做到了幾乎不可能的行為──創造了對於色情的定義:「我見即我知(I know it when I see it)」。

美國人對於性的看法自1964年以後出現了很大改變。在 Jacobellis 在最高法院出庭後不久,美國出現了性解放運動,20世紀70年代又出現了色情業爆炸性的發展,而說到最近幾年,網路出現了。今天任何能連接網路的人都可以在幾秒鐘內同時搜出射精和珍珠項鏈的圖片。時間過了很久,我們卻面臨著相同的問題:我們仍沒有對於色情和淫穢的普遍定義。



消滅網路色情?人工智慧並不能做到



Jean Moreau 和 Jean-Marc Bory 在「The Lovers」中的表演,其中沒那麼露骨的畫面(圖片:Getty Images)


在互聯網上人們可以不受限制地訪問猥褻,骯髒和疑似猥褻的內容,這種情況催生了各種形式的內容審查,技術上,人們開始使用演算法和先進人工智慧程序來鑒別和清理色情內容。去年,Twitter 收購了 Madbits,一家小型初創企業,根據《連線》的報道,這家公司開發了一種在鑒別危險內容(NSFW)上可以達到99%識別率的程序。而在9月底,雅虎開源了其研發的深度學習人工智慧色情內容過濾解決方案,其他公司也正在做著同樣的事。

互聯網巨頭們近年來一直在投入巨資試圖解決色情內容的問題。但他們面臨的問題是,審查是一種封閉,淫穢本質上是主觀的。如果我們無法對什麼是色情達成一致,我們就不能有效地訓練我們的計算機「我見即我知」。無論技術的複雜性或界定方式如何,色情識別程序仍需要依靠人類的判斷來告訴它們什麼是 NSFW。


「有時一個裸體兒童不止是裸體。」


在互聯網早期時代,美國的圖書館和學校基於搜索關鍵字過濾色情內容,以使內容滿足兒童互聯網保護法案(Child Internet Protection Act)的規定。顧名思義,這項條例旨在保護兒童遠離互聯網上的陰暗內容,特別是「那些在未成年人可以登錄的電腦上出現的(a)淫穢;(b)兒童色情;(c)對兒童有害的圖片。」


但事與願違。


在2006年紐約大學 Brennan 法律中心的一項報告中,研究者們對早期關鍵字過濾和其人工智慧的後繼者有如此的定義:「強勢,經常不合理,審查工具」。

「過濾器的複雜和無限增加的關鍵詞讓人類的表達方式越來越受限制,」報告中說。「它們孤立了單詞和短語,讓人類的表達價值減退。一個不可避免的結果將是這種方式會讓醫療,司法,藝術和很多其他行業的研究遇到限制和阻礙。」


這份報告發現目前流行的過濾器令人難以理解地屏蔽了 Boing Boing ,GLAAD,羅伯特·梅普爾索普和第三十屆超級碗,同時經常反映了其創作者的政治和社會偏見。雅虎和谷歌已開始使用基於複雜圖像識別的人工智慧過濾器代替了關鍵詞搜索,然而這些演算法仍然依賴人類去教育它們辨別什麼是可以接受的信息。而 Facebook 最近也發現,圖片過濾比關鍵詞好不到哪兒去。



消滅網路色情?人工智慧並不能做到


(圖片:美聯社)


社交網路上最近一次大事件正和此事有關。在9月初,Facebook 經歷了一次大規模的抗議事件。一張普利策獎獲獎照片遭到了 Facebook 新演算法的屏蔽,這是一張攝於1972年越戰中的照片,其中一名裸體的9歲女孩在凝固汽油彈空襲中哭喊逃亡。Facebook 最初以違反社區規則為由屏蔽了這張照片:「雖然我們認識到這張照片是標誌性的,但很難創造一條規則在裸體兒童照片中分辨是否具有色情元素。」


但就像《紐約時報》所說的,Facebook 的屏蔽出現後,成千上萬的用戶在他們的時間線上貼出這張照片以示抗議。


「赤裸的兒童形象通常違反我們的社區標準,在一些國家這甚至屬於兒童色情內容。但在這一事件中,我們認識到這張照片中存在的歷史和廣泛的重要性,它記錄了一個重要的時刻。」


我們不知道現在 Facebook 的系統中如何標記這張照片,但無論是人類還是人工智慧,或者兩者一起的審查體系,有一個底線不能被打破:「有時一個裸體兒童不止是裸體。」


「有時掛著鞭子的男人並不只是掛著鞭子。」


這不是 Facebook 第一次錯誤地過濾大多數人認為「乾淨」的內容。社交網路對於系統刪除一些女性暴露乳房的照片也怨氣頗多,這些照片其實只是一些護理和胸透的照片。最近 Facebook 上的另一課則有關藝術,他們錯誤地將一名黑人把自己塗成白色身體的裸體視頻刪除,隨後被迫恢復。這名藝術家試圖在黑人權利運動中喚起人們對警察暴行的注意。


現實世界也充斥著藝術還是色情的爭論。在1990年,辛辛那提當代藝術中心舉行了羅伯特·馬普爾索普(Robert Mapplethorpe)的攝影展覽,中心及其主管被指控傳播淫穢作品,隨後控訴又被取消。


那是美國第一次有一家博物館成為這種官司的被告方,案子中的問題照片──描述了同性戀間的S&M──被共和黨拿來成為了全國討論的話題。控方認為,這次由國家藝術基金會資助的展覽存在色情內容,而辯護方將其定義為藝術。這件案子證明了有時掛著鞭子的男人並不只是掛著鞭子。同時也證明了我們接觸藝術的權利,無論多有爭議,並不是總能獲得保證。


我們的個人偏見仍將繼續損害我們獲得信息和言論自由的權利,儘管網路過濾系統已有很大發展。我們也許永遠無法對 NSFW 的意義達成共識,然而沒有普遍的定義,我們的機器只會遵循我們自己的判斷進行工作。沒有人可以定義我見為何物,也沒有代碼可以改變這種現狀。


請您繼續閱讀更多來自 機器之心 的精彩文章:

揭秘微軟量子計算研究:拓撲量子計算機
Emotech:如何打造一款類人腦情感互動機器人
機器之心對話谷歌高級研究科學家Greg S Corrado:人工智慧並不會讓大公司形成壟斷
瑞士研究者開發出新型量子加密技術:信息安全延遲時間延長500萬倍
神經機器翻譯再立新功:實時機器翻譯取得重大進展

TAG:機器之心 |

您可能感興趣

網路色情可能會讓你ED
泰国要终结色情业?最惨的可能是人妖
情色不賣!色情廣告可能是令人難忘的!但卻賣不出去東西!組圖!
色情網站的惡搞營銷,為了拯救大熊貓讓我們做愛吧
白色情人節 | 情侶裝到底怎麼穿才能不落俗套
「馬賽克」被視錯覺藝術家玩出的,遠不止色情!
快情人節了,別老想床上耍流氓,去玩玩最色情的人體攀岩牆
機器人妓女的未來:能讓女性從色情業中擺脫出來嗎?
收到色情簡訊,你會怎麼做?
影視 | 愛情片和色情片的區別,看了這部你可能就知道了
流氓開的理髮店,火遍全世界,還能抽煙喝酒看色情雜誌
身材魅惑的她全裸出鏡,我看到的卻不是色情
常看色情視頻,會出現勃起功能障礙!
能把色情搞的這麼大雅,除了島國也是沒誰了!
她畫了很多女性器官,卻一點都不色情!
白色情人節要到了,可惜你已不見了
這樣的人體藝術是否色情?
神經網路被用來盜取色情女女演員信息
在線看色情電影,是最危險的上網行為之一,不知不覺就暴露隱私