性侵犯如此猖獗,AI能提前將他們甄別嗎?
性侵醜聞全面爆發。事情緣起7月23日,趙欣(化名)和江蘇南通環保行動者劉斌先後髮長文指控公益圈兩位知名人士「億友公益」創始人雷闖和「源頭愛好者環境研究所」創始人馮永鋒對其機構的女志願者和女性員工實施性騷擾。
趙欣和劉斌的指控長文截圖
繼多位公益人士被曝出性侵後,7月25日,一名女生舉報前媒體人章文強姦,事發後多名女士,包括蔣方舟、易小荷在內也站出來指認曾遭到章文的性騷擾。
蔣方舟朋友圈截圖
此前,好萊塢也曾爆性騷擾醜聞,涉及人包括且不限於塑造經典上帝形象的好老戲骨摩根·弗里曼,飾演《紙牌屋》中「總統」的凱文·史派西,王牌製片人哈維·韋恩斯坦,至少有80位女性指控他涉嫌強姦、性虐待等。
這些證實性侵和涉嫌性侵的人照片被公布後,很多人認為他們長得就很那啥,雖然有馬後炮的嫌疑。但是,我們拋開偏見,包括性侵犯們在內的壞人是否真的具有相似的特徵呢?如果有,利用人工智慧技術可以將他們於人群中甄別出來嗎?
好人各有不同的好,而壞人卻有令人震驚的相似
人們對犯罪人員共性的研究已經具有較長的歷史,而且取得了一些成果。早在一百多年前,隆勃羅梭通過分析罪犯的外表來尋找他們的共同特徵。並指出了天生犯罪人的一些特徵,包括先天的隔代遺傳返祖現象,臉部具有橫向褶皺,較高的兔唇發病率,聽覺、味覺、嗅覺的靈敏度較低等。
一百多年後的2016年,上海交通大學的武筱林和張希研發一個神經網路系統,能夠通過臉部識別技術辨認罪犯。實驗過程中,研究員使用了1856名男性的身份證照片,其中730 名罪犯,1126 名非罪犯,年齡在18到55歲之間。
圖為實驗數據對比
實驗結果顯示,罪犯和非罪犯的面相的分布確實不同,在一定程度上可以區分罪犯與常人的面部特徵,二者面相中差異較大的一些特徵主要有:
罪犯上唇的彎曲程度比非罪犯要大23%
罪犯兩隻眼睛內角之間的距離比正常人短6%
罪犯從鼻尖到嘴角兩條線的角度比非罪犯小20%
最終,這一系統的識別準確率達89.5%。在實際使用中,機器識別的準確率要求在90%以上,甚至到95% 左右,可是論文的數據是在純實驗環境下進行的,因此89.5%的準確率在某種程度上已經能夠說明問題了。值得注意的是,在對結論進行分析的時候,這種看似精確的實驗結論總是怪怪的,畢竟我們沒辦法真正拿著尺子去量某個人五官的角度和距離,而且,現在的整容手術可以迅速解決這些細節,參見一些網紅身上常見的微笑唇,開眼角,水滴鼻……
除了在外表上的相似之外,在基因上,犯罪分子也具有相似性。20世紀八九十年代的荷蘭,有一個家族中的男人和男孩除了患有學習障礙,還非常具有攻擊性,有人變成了縱火犯,有人企圖強姦甚至謀殺。最終遺傳學家漢斯·布魯納找到了罪魁禍首:一個基因的變異。該基因位於X染色體上,代號MAOA,這就是後來的戰士基因,除了詐騙犯以外的絕大部分罪犯都擁有這個基因。
提前識別罪犯這門技術,除了倫理還有什麼問題?
不管是通過面部特徵確認罪犯還是通過基因定性罪犯,在我國暫時都不會得到廣泛使用,它的價值更多是體現在學術上。主要是在倫理上,上交的論文發表後,引起了中國以及世界的人工智慧業界引發了不小的爭議,核心觀點是給人定性具有道德風險,可能引發公眾對於特定面相的歧視。如果一些人將生而就被稱作是犯罪分子,他所遭受的輿論壓力和生存環境可想而知。
除此之外,這項技術的使用還將引發一些難以估計的影響。智能相對論(aixdlun)分析師雷宇認為主要分為三點。
1. 誤報率再小也不能忽略
從實驗使用的數據集來說,即使是性能最好的 CNN 分類器,在達到 90% 的檢出率(true positive rate)時,仍有 10% 的誤報率(false positive rate)。這意味著有 73 名罪犯被漏掉,有 113 名非罪犯被冤枉。
在人群中,罪犯的比例顯然會遠遠低於上面的數據集。截止到2013年底,中國各級監獄內的在押犯人數近180.76萬人,當時我國的人口總數是13.61億,即正常人比罪犯多了753倍,這種情況下一點點誤報都不能被忽略。而戰士基因之所以叫戰士基因,是因為他在優秀的戰士和警察身上也很常見。綜合這兩點,在使用機器識別的過程中,更大的可能是把擁有戰士基因的人都識別出來了。
2. 罪犯與執法者的博弈升級
實際上,美國特定城市的警察也正在試驗一種人工智慧演算法,以預測哪些居民未來最有可能犯罪。但分辨罪犯和嫌犯,往往是一種基於事後的分析,是從結論推導原因。當兇手知道自己是被機器認定的犯罪分子,那麼留給他的可以選擇的生存策略就只有一種——逃跑,這樣的結果就是會造成更多的社會不安全因素,而犯罪分子很容易在這種不利的生存環境下破罐子破摔。
機器識別罪犯的本意是降低犯罪率,提高破案率,但是因為兇手犯罪策略變化所造成的對沖,並不能達到想要的結果。即使技術普及,稍微聰明點的壞蛋這時應該不會選擇正面杠,早就回去升級人工智慧武器了。
3. 統計歧視造成人工智慧的恐慌
機器識別想要跑出理想的結果,勢必形成一套演算法,它會給一些五官列出特殊的標籤:比如眼睛、鼻樑、耳朵形狀等,而這樣的機器是具有歧視的。麻省理工最近研製出了全球第一個精神變態人工智慧——諾曼。諾曼是一個訓練執行圖片處理的人工智慧,但本質上它就是圖像識別演算法中的一種。有所不同的是,它看東西,帶著一點血腥的偏見。
以上圖為例,配色看上去清新自然,一般人工智看到的是「一個人在空中撐著一把傘」,諾曼則認為自己看見「男人在他尖叫的妻子面前被槍殺」。工作人員給了這個AI看了十張墨跡測試圖,它的測試結果大抵都是如此,死亡方式包括且不限於觸電而死,跳樓致死,絞死等等。
而造成這一結果的主要原因就是數據,當人們輸入了帶有偏見的數據,它就毫不猶豫的呈現出了有偏見的結果。上交在進行實驗的,是明知哪些是罪犯的,而且比例奇高,數據的均衡性並沒有得到有效保障,從數據上來說,就帶有歧視。
不得不承認,人工智慧恐慌是全人類的月經,每當人工智慧取得一些成果,就會有人發出人工智慧威脅論。而如果我們縱容僅僅是技術的人工智慧黑化,無疑會加深公眾的恐懼。
除了提前識別外犯罪分子,人工智慧還能怎樣識別壞蛋?
多數人對人工智慧的打擊犯罪的認知依然停留在基本的人臉識別上,實際上,它可以做的遠不止如此。
1.測謊
雖然一些現有的測謊儀甚至測謊話術可以產生相當可靠的結果,但它們在一些特定場合,比如法庭上並不是特別有用。馬里蘭大學(UMD)的研究人員開發了測謊分析和推理引擎(DARE),它在法庭審判視頻中自動檢測出欺騙行為。
測謊流程
最終,DARE在測謊任務上,結合了微表情識別,比一般人表現要好。甚至有權威專家表示,未來3到4年的時間,就可以通過閱讀人類表情背後的情感來發現欺騙。
2.記憶重構
2016年,來自俄勒岡大學的一個可以通過掃描大腦讀取人們的思想的系統,可以重建人們大腦中所看見的畫面。志願者被連接到功能磁共振成像機,當他們對看到的每張臉進行特徵描述時,他們的大腦信息就被暴露了,研究者就可以了解到參與者的大腦活動。
但可惜的是由於技術還不大成熟,所以暫時還不能把這個技術應用到刑偵領域。理想的效果是基於犯罪分子們的大腦記憶還原犯罪現場和犯罪場景,甚至利用受害者的記憶來構建罪犯的面部照片。
人工智慧在打擊犯罪上還有更多可應用的點,但當我們在說人工智慧的時候,要麼是對弱人工智慧的過度渲染,要麼是對人工智慧的一味嘲笑,其實技術本義應該是造福於人民,再多的泡沫也不能掩蓋它的本質,也許在未來真的會實現無犯罪社會。
結論
回到開頭,顯然現在的人工智慧技術可以將人甄別出來,但是不夠精準而且容易引發一系列不良影響,暫時很難得到廣泛的使用。性侵害這種事,作為女性的受害者卻要無端承擔莫大的精神壓力和社會壓力,除了呼籲社會關注,女性更好的保護自己,居然毫無辦法。
在電影《少數派報告》中,2054年的華盛頓特區,謀殺已經消失了。未來是可以預知的,罪犯在實施犯罪前就已受到了懲罰。那個時候,性侵害就真的成為了過去時呢,僅僅在這一點上,我都無比期待這一天的真正到來。
來源:智能相對論
編輯:龔旭
※《動物世界》有續集,你願意再勇敢一次不?
※克洛澤的「更衣室訓話」會讓德國隊贏嗎?
TAG:大河報 |