當前位置:
首頁 > 科技 > 臉書開源兒童性犯罪和恐怖主義的照片、視頻識別工具

臉書開源兒童性犯罪和恐怖主義的照片、視頻識別工具

在以圖片識別技術過濾平台上的暴力及攻擊內容後,臉書周四在兒童安全黑客馬拉松(Child Safety Hackathon)宣布將兒童性犯罪、恐怖主義宣傳及血腥暴力的視頻和圖片識別工具開源出來。

臉書引用第三方數據指出,科技業通報的兒童性剝削的視頻數量一年來增加了541%,臉書此次開源可讓產業合作夥伴、小型開發商及非盈利機構更迅速識別有害視頻或照片。目前二項演算法開源項目已經通過GitHub分享出來,提供各種類型有害內容的數字指紋(散列)。已經有內容比對技術的單位則可多一層防護,通過散列分享系統互通有無。

現行常見的視頻或照片識別技術包括pHash、微軟的PhotoDNA、aHash和Hash等。臉書的PDQ及TMK PDQF則能偵測二個相同或幾乎完全相同的照片和視頻。其中PDQ為照片比對演算法,是臉書以pHash為主要基礎、全新開發有獨立軟體實例的演算法。圖片比對技術TMK PDQF,則是由臉書人工智慧研究院(AI Research)團隊與義大利摩德納雷焦艾米利亞大學(University of Modena and Reggio Emili)合作開發而成。

臉書全球安全部門主管Antigone Davis及集成部門副總裁Guy Rosen指出,這兩項技術優點在於,能將文件以很短的數字散列(digital hash)形式存儲,判斷兩個文件是相同還是相似,甚至沒有原始視頻或照片也可以進行。臉書識別出平台上的有害內容,像是恐怖主義宣傳時會將之移除,並以演算法等其他技術產出散列值。這些散列值可方便分享給其他公司或單位,例如全球反恐怖主義網路論壇(Global Internet Forum to Counter Terrorism, GIFCT)來過濾同樣的內容。

臉書說,PDQ和TMK PDQF是為比對大量內容而設計,支持video-frame-hashing及即時應用。迄今臉書已經將之用來比對過平台上數十億則的視頻和照片。

臉書今年5月和馬里蘭大學、康奈爾大學、加州大學伯克利分校和麻省理工學院合作開發強化偵測視頻、照片的技術,以抓出企圖躲過偵測演算法的違規內容。

10年前微軟也曾捐贈PhotoDNA於類似計劃。Google也於去年將內容安全(content safety)API提供給非盈利組織及合作夥伴,以打擊兒童色情內容。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 十輪網 的精彩文章:

抖音青少年安全問題遭英國政府調查
ESET披露可竊取Android手機一次性密碼的惡意程序

TAG:十輪網 |