當前位置:
首頁 > 新聞 > 從「鑒渣女」原諒寶App到一鍵脫衣DeepNude,技術還想怎麼羞辱女性?

從「鑒渣女」原諒寶App到一鍵脫衣DeepNude,技術還想怎麼羞辱女性?

用一句老生常談的話來說,技術是一把雙刃劍,但你永遠不知道開發技術的人到底是出於讓世界更美好,還是迎合自己的私心,而技術一旦實際應用開來,可怕的是你不知道會是什麼人在用它,用它來幹什麼。

在男權社會中討生活的女性,她們要忍受被物化、被金錢衡量、蕩婦羞辱、年齡羞辱、被當做生育工具……而現在,她們還要提防技術放來的一支支冷箭!

今年5月份,一名微博名為「將記憶深埋」的程序員表示,「經過半年多的時間,100多TB數據,利用1024/91、sex8、PornHub、xvideos等網站採集數據對比Facebook、instagram、TikTok、抖音、微博等全球知名社交媒體,在全球範圍成功識別了10萬多從事可不描述行業的小姐姐。(使用Face Recognition/Identification和Behavior Recognition對 Spider抓取)。」

有人擔心現在女生美顏太嚴重,上妝卸妝幾乎是兩個人,但這名程序員表示,通過步態分析、VPR以及其他身體來進行美顏和deepfakes的對抗,基本達到99%的有效識別率。此外,還有聲紋檢測。

消息一出引起許多碼農的「共鳴」,而這名程序員卻被一眾男網友奉為「大神」,對其頂禮膜拜。更為諷刺的是,但凡女性網友質疑有很多女性是受害者,遭偷拍被上傳至各種網站上時,就有男性網友跳出來,認為這是心虛的表現。

雖然當時因引發輿論過大,以刪庫告一段落。然而卻有別人盯上這個「創意」,一個名為「原諒寶APP」的微信公眾號悄然上線,自我介紹稱「只需一張圖、一段音頻幫您全網檢測是否被人偷拍,並提供相應的數據擦除服務。」

關注之後還會看到,「本產品使用人工智慧人臉識別、聲紋識別,大數據採集與清洗,人臉反向搜索技術……」交互頁面中還不乏「接盤報告」、「原諒指數」、「老實人保護計劃」等令人引起不適的說法。但據報道,實際測試效果並不好,只是一個噱頭,毫無技術可言。

如果說原諒寶是一顆被扼殺在土壤的種子,DeepFake的「威力」已經顯現,就連一線女明星也不能倖免。

2017年11月,Reddit出現了一段神奇女俠蓋爾·加朵的第一人稱視角的小視頻後,Deepfake一夜爆紅,甚至還衍生出一個專門的討論區。而隨著DeepFake代碼開源,越來越多的人們在此基礎上進行「改良」,不斷更新工具。

國外知名女明星艾瑪·沃森、權游裡面的二丫、「寡姐」約翰遜·斯嘉麗都深受其害,斯嘉麗無奈地說:「想要嘗試在互聯網和它的邪惡面前保護自己,大多數時候就是一個註定失敗的事情。」 國內的女明星也「難逃魔掌」,網上一搜,就有關於范冰冰、劉亦菲、迪麗熱巴Deepfake的視頻。

你以為Deepfake製作的假視頻只是滿足私人需求?去年4月,印度的一名調查記者Rana Ayyub,因為揭露一些官員黑幕,就慘遭色情報復,被人用Deepfake製作了一段以假亂真的視頻,引得家人朋友紛紛相問。

就在你認為DeepFake已經足夠可怕時,又有程序員已經開發出一款令人不安的應用程序,它使用人工智慧和演算法來製作女性假裸體圖像,簡而言之,可以讓你一鍵脫衣。

這款應用程序名為DeepNude,對於任何上傳的女性圖像,可以一鍵脫掉所有衣服,引發了人們的擔憂,擔心它可能被用來虛假的色情報復、威脅敲詐毫無防備的受害者。

自從這款應用問世以來,它就一直處於下線狀態,還在推特上得意洋洋地表示「無法應付」這麼大的訪問量。

匿名開發人員表示,他們將在幾天內上線,只需要「修復一些bug,並讓我們喘口氣」。

在應用程序的免費版本中,輸出圖像部分覆蓋有大水印。

在付費版本中,只需花費50美元,水印被刪除,只有一個小小的「FAKE」標記放在左上角。

美國雜誌Vice用數十張照片測試了應用程序,從《體育畫報》的高解析度照片中得到了最令人信服的結果。

超模泰拉·班克斯(Tyra Banks)的標誌性照片是該雜誌用來測試的圖片之一。

其他圖片包括金·卡戴珊、歌手泰勒·斯威夫特和神奇女俠扮演者蓋爾·加朵的假「裸體」。

該應用程序無法生成男性的裸體圖像,並且在Vice嘗試時,還生成了一張詭異的帶有女性生殖器的男性裸照。

DeepNude的網站稱自己為「離線自動化軟體,可以轉換照片,創造假裸照」。

它可以在Windows和Linux上下載。

Vice下載了該應用程序並在Windows機器上進行了測試。它像任何其他Windows應用程序一樣安裝和啟動,並且不需要專業技術知識,哪怕你是電腦小白也會用。

這位名叫Alberto的匿名創建者表示,該軟體基於pix2pix,這是一種開源演算法,由加州大學伯克利分校的研究人員於2017年開發。

Pix2pix使用生成對抗網路(GANs),它通過在龐大的圖像數據集上訓練演算法來工作。

對於DeepNude,程序員說採用超過10,000張女性裸體照片,然後試圖改進自己。

這種演算法類似於DeepFake視頻中使用的演算法,旨在誘使觀眾認為有人做了他們沒做過的事情,以及自駕車通過深度學習使用了什麼。

Alberto告訴Vice,他的靈感來自於X射線,「就像每個人一樣,我對這種想法很著迷,他們真的存在,而且這種記憶依然存在。」

這些假照片很容易被誤認為是真的,並可能對個人的生活造成不可估量的損害。

只要把左上角「假」字樣裁剪掉,或用Photoshop刪除它,這都非常容易。

美科技媒體Motherboard測試了它在不同狀態的女性和男性照片上的表現,這些照片中有穿著比基尼的女性,也有穿著比基尼的男性,以及各種膚色。

當一幅光線充足、高解析度的比基尼女性面對鏡頭的照片時,DeepNude製造出來的這些假裸照效果相當逼真。

演算法準確地填充了過去衣服的細節,衣服內乳房的角度、乳頭和陰影。

但它並非完美無瑕。大多數圖像和低解析度圖像,基本上一眼看上去就是人工弄的。

與色情復仇一樣,這些圖像可以用來羞辱、騷擾、恐嚇女性,讓女性沉默。

在過去,一些論壇上,男性會向所謂的「技術大神」支付費用,從而創建同事、朋友或家庭成員的偽造照片,但有了像DeepNude這樣的工具,只需按一下按鈕,自己就可以輕鬆創建這樣的圖像!

想像一下,如果你被人報復,一張的假裸照傳遍你家人、朋友、公司、學校、所有社交媒體上,會是怎樣的場景?太可怕了!

最可怕的是,面對這種報復,我們卻沒有任何反擊的工具,只能任其宰割!

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 前瞻經濟學人APP 的精彩文章:

「姨夫」離開,喬布斯心中「神一樣」的索尼還能回來嗎?
修牆之餘,特朗普把美墨邊境變成了一場科技產品大型展覽會

TAG:前瞻經濟學人APP |