當前位置:
首頁 > 新聞 > 面對性侵或性騷擾,人工智慧可以怎麼做

面對性侵或性騷擾,人工智慧可以怎麼做

智造觀點

最近幾個月,性侵害問題頻發。不管是劉強東在美涉嫌性侵女大學生,還是滴滴順風車司機姦殺乘客,亦或是去年發生的紅黃藍幼兒園老師猥褻兒童事件,種種跡象表明,這類問題正逐漸蔓延到各個領域,成為各個階層,各個年齡段的人都可能會遇到的危險。

此外,這種危險除了存在於實際生活場景外,網路世界也時常出現性侵害事件。為了解決這一系列的問題,人工智慧技術解決方案的出現,或許能夠為兒童以及女性這類群體提供更多的保護。

文/未末末

來源/人工智慧觀察(ID:Aiobservation)

70年代的時候,「性騷擾」一詞逐漸出現在了人們的生活中,但此前,性騷擾行為就已經成為了很大的問題,不僅僅出現在真實的生活場景中,虛擬世界更是為犯罪者們提供了一個相對安全的空間。我們都知道,每秒鐘,網路上都會生成大量的文字或者影像內容,但內容是不是規範、演算法會不會對內容有所偏見,這都是令科技巨頭們十分頭疼的問題。

就像前些日子,美國總統川普抱怨谷歌搜索輸入「Trump News」結果都是負面報道,而對於Twitter審查保守派言論的行為,直言稱,Twitter正在控制我們什麼能看,什麼不能看。另外,色情影像問題,特別是針對兒童的,近年來也日趨嚴重。對此,不少英國媒體已經開始呼籲政府採取行動解決這些問題。當然,不管是科技巨頭還是初創企業,也都紛紛獻出自己的一臂之力,希望提出的AI解決方案,能起到一定的效果。

網路性侵事件頻出,兒童或為重災區

網路世界總是虛幻的,上面充斥著各種各樣的信息和內容。究竟兒童色情在網路世界有多嚴重?英國國家家打擊犯罪調查局(National Crime Agency)在周一時表示,僅僅在2017年,英國就有八萬多人在網路上對兒童構成某種性威脅,而這樣的情況在過去五年內增加了七倍之多,10歲以下的兒童受害的比例也激增。為什麼會出現這種情況呢?

在小智君(ID:Aiobservation)看來,關於兒童網路內容的惡化,與手機裝置的功能發展以及直播平台的興起有很大關係。具體來說,除了傳統的兒童生活影像,近年來「直播式虐童」事件時有發生,且比例不斷攀升。此前,這類內容較多存在於暗網(Dark Web)中,而現在,只需一台手機,連接網路,登陸直播平台,就可以實現大範圍的傳播。根據英國國家打擊犯罪調查局的統計數據,2017年平均每天有近15名兒童在網路上受虐。

也正因為如此,英國廣播公司(BBC)、英國獨立電視台(ITV)、第四頻道(Channel 4)等主流媒體近日聯合呼籲,政府當局應設立一個獨立監管機構,來解決兒童性威脅、性騷擾等網路問題。在他們看來,在沒有任何第三方監管的狀態下,指望網路巨頭對內容做出正確的判斷,既不現實也不適合,因為這不是網路審查。

當然,除了網路性侵外,最常見的另一種對女性的威脅便是辦公室性騷擾。對於經常使用Slack、Skype或者計算機的人來說,網路性騷擾時有發生。雖然線上發生的事情可以截圖保留內容,但根據美國平等就業機會委員會的統計,工作場所中75%的性騷擾事件沒有報告,因為大多數報告事件的個人會遭到某種報復。在這種情況下,人工智慧就成為了一項優先採用的解決方案,通過自動識別相關語言、圖片、視頻等內容,報告此類問題,對受到騷擾的人提供支持。

谷歌推AI工具,避免兒童受進一步侵犯

隨著網路兒童性侵害的爭議不斷發酵,英國內政部長賽義德·賈維德(Sajid Javid)公開表示:「這類威脅的發展比業界回應速度還要快,簡直跟不腳步。我對谷歌、Facebook、微軟、蘋果、Twitter在反恐方面進展印象深刻,但他們現在必須在防止兒童性侵害上,作出同等程度的努力才可以。」同時,英國當局本周發出警告,如果這些網路巨頭不能好好處理網路兒童性侵害問題,未來將面臨嚴重懲罰。

在這種情況下,谷歌宣布推出一個「內容安全應用程序界面「(Content Safety API),通過深層神經網路來處理圖片,以便更有效率地審查可能違規的內容

實際上,這種結合人工智慧的工具早已不稀奇,但它們都是以已被識別出的違規資料庫為基礎,進行相應內容檢測,比如由微軟開發的工具PhotoDNA,被應用於Facebook和Twitter上,算是一個比較有效率的方式,去阻止與已知的色情圖片類似內容的傳播。

它也不是完美的,一旦遇到沒有標記過的內容(比如新的性侵害形式),就可能就會出現無法識別的情況,這時候就需要人類審查員的介入。而這樣的痛點,正是谷歌新AI工具要解決的。據了解,通過機器視覺(machine vision),這個新工具可以協助審查員分類影像和標籤,將可能出現的違規內容按優先順序進行排列,加快審查員的效率。

根據谷歌官方的說法,這項AI工具可以幫助人類審查員移除比平常多700%的違規內容,能讓人力審查團隊的工作更有效率。當然,快速識別新圖片,意味著涉及有關性侵害的圖片等內容,可以更大程度上被識別出來,以幫助他們免受進一步的侵犯。

創業公司投身AI研究,打擊工作中的性騷擾

而對於工作中的性騷擾,不少初創企業開始發力解決這一問題。

舉個例子,去年12月,總部位於蒙特利爾的Botler.ai宣布推出一項新的服務,幫助性騷擾受害者確定自己是否被侵犯,以及發生在他們身上的事情是否符合美國或加拿大的刑法。據了解,該機器人使用了自然語言處理來確定某一事件是否可以被歸類為性騷擾或其他形式的性犯罪。

當然,他們的目標不是告訴人們是否可以在法庭上勝訴,而是賦予女性權力以法律理論的基礎。如果用戶想要將事件報告給適當的機構,無論是警察還是其他工作人員,機器人都可以生成事件報告。不過遺憾的是,該性騷擾偵測機器人還沒有經過廣泛的測試。

另一個關於打擊性騷擾的例子,是Callisto,這是一個誕生於2015年的公益性的App,最初主要用於校園裡的性騷擾和性侵犯匿名報告。截至2017年底,它已被13所大學採用,包括舊金山大學和斯坦福大學。目前,這個平台正在走出校園,因為被Y Combinator孵化器看中,已經進入了同樣性騷擾頻發的矽谷。

實際上,Callisto是一個將每個受害者連起來的APP。在受到性騷擾或者性侵害後,受害者可以在軟體里報告該事件,受害者和施害人的信息都將被加密儲存,直到施害者的下一次「出手」 被報告。此時,Callisto會聯繫到每一位受害者,為他們提供解決方案——提起訴訟,或者向人力資源報告,也會幫助受害者之間互相聯繫。

其創始人Ladd表示,自Callisto推出以來,統計數據顯示,參與的學校已經注意到受害者報告侵害事件所需的時間在明顯減少——從平均在事件發生後的11個月到事發後4個月,另外管理方對屢犯者的識別能力也有所提高。

AI助手識別關聯詞,可干預現實生活

儘管從現在的情況來看,人工智慧在虛擬環境中可能更為有效,但它也並不只局限於該領域。從現有的人工智慧技術和應用來看,他們可以幫助識別公開對話中的性騷擾行為,包括像亞馬遜的數字助理Alexa,已經能夠識別出某些相關的單詞或短語。

小智君(ID:Aiobservation)認為,隨著科技巨頭們不斷對其數字助理等AI工具進行重新編程和規劃,未來我們可以期待它們可以通過無偏見的編程來監督某些不恰當的行為,至少在工作場所里可以實現。雖然現在大多數公司已經開始使用視頻監控,並提供書面的反性越軌政策(anti-sexual misconduct policies ),但AI助手可能是在員工報告之前識別行為不端者的第一步。比如,如果人工智慧可以接收觸發詞或短語,它就可以在發生騷擾時立即對僱主做出提醒。

但我們不得不承認的是,它在隱私方面會存在一定的局限性,儘管這些設備在保護工作、生活空間的同時,還能通過有效識別事件和簡化報告技術節省時間。

(文中圖片來自網路)


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 人工智慧觀察 的精彩文章:

馬斯克對Model3產能有信心,稱8月AP將實現完全自動駕駛
谷歌G Suit上線新AI功能,可幫用戶挑錯字還能自動回復

TAG:人工智慧觀察 |