演算法識別團伙犯罪引發巨大爭議,研發者:我只是個工程師
大數據文摘作品
作者:魏子敏、龍牧雪
「我只是一個工程師。」
面對自己開發的演算法可遭受到的道德指責,哈佛大學的一位論文作者這樣公開回應道。
可能連他自己也沒有想到,他的這句回復引發一波了關於AI倫理甚至技術人員責任的巨大爭論。
在這波討論中,二戰時一位德國火箭科學家Wernher von Braun的故事持續被提到:在被問及「你的火箭要發射到哪裡」時,這位研究者回復道,「That"s not my department!(這不歸我的部門管)」
技術人員是否應該在研究之外分出心力,了解自己研究背後更深的影響呢?
這一在戰爭年代常引發巨大爭議的話題,在人工智慧的威脅日漸露出的今天,又被重新提上辯論場。
我的征途是星辰大海,但是不小心打到了倫敦
引發討論的是哈佛大學Crowd Innovation Lab參與的一項研究——使用演算法自動識別一起犯罪是否屬於團伙犯罪。
在美國,當有人毆打行人、搶劫商店或冷血殺人時,警察需要派遣一個特別的執法小組,調查此人是否隸屬某個犯罪團伙成員。現在,一種新的演算法正在試圖自動化識別團伙犯罪。
這一研究引發了另外一批科學家的反對:其非但不會減少犯罪率,反而會削弱人們對社會的信任,或者將無辜的人打上犯罪團伙成員的烙印。
2018年2月,研究人員在新奧爾良舉辦的人工智慧、道德與社會(AIES)會議上發表了這一最新成果。
論文鏈接:
http://www.aies-conference.com/wp-content/papers/main/AIES_2018_paper_93.pdf
後台對話框內回復「團伙」即可下載這篇論文。
爭議聲自演講現場開始發酵。
一位聽眾、谷歌軟體工程師Blake Lemoine當場憤然離席。他表示:「這個研究成果無懈可擊,但研究人員是否考慮過可能出現的意外副作用?」
多年來,科學家們一直在使用計算機演算法來繪製犯罪網路圖,或者預測未來犯罪的地點和時間,這種做法被稱為警務預測。但有關將犯罪標記為與犯罪團伙的研究很少。
這一新演算法中,研究人員可以根據四種信息將罪犯識別為犯罪團伙成員:犯罪武器、涉案人數、案發地點(如衚衕或街角)以及此地點的周圍環境。加州長灘市檢察官Doug Haubert表示,此類分析有助於在罪犯得到充分調查之前對犯罪行為進行定性,這改變了警方原有的反應方式。
為了對犯罪行為進行分類,研究人員發明了一種特別的神經網路演算法。一個神經網路是由很多層計算單元組成的,這種數據處理的方法使人聯想到大腦的神經元。這種新的機器學習形式可以根據反饋情況對演算法進行改進、優化。
在該研究中,研究人員利用加州洛杉磯警察局(LAPD)2014年至2016年期間的數據,在50000多起犯罪團伙性質和非犯罪團伙性質的兇殺案、嚴重襲擊案和搶劫案數據上訓練了演算法。
研究人員在另一組LAPD數據上測試了他們的演算法。這個網路是「部分生成的」,因為即使沒有收到警官關於犯罪的描述,模型也可以使用上述四個因素來填補缺失的信息,然後用所有的片斷來推斷犯罪是否與犯罪團伙有關。
與未採用這種新方法的精簡版神經網路相比,部分生成演算法將錯誤率減少了近30%。研究人員還沒有測試他們的演算法是否比訓練有素的官員的判斷更准。
「這篇論文很有趣」,卡迪夫大學研究犯罪數據的計算機科學家Pete Burnap說,「但是,儘管預測可能有用,還是不可能比警官們的直覺更準確」。
Haubert對此表示贊同,但他表示,藉助數據建模有時可以產生「更好更快的結果」,這樣的分析「在可以獲得大量數據的城市地區尤其有用」。
但是,如何確定訓練數據沒有偏見?當某人被誤認為犯罪團伙成員時會發生什麼?Lemoine在AIES會議問答環節提出了擔憂。
更進一步的擔憂是,研究人員是否也在開發能夠幫助犯罪團伙預測警方搜捕的演算法?
當時,哈佛大學的一位計算機科學家Hau Chan正在介紹這項工作,他回答說,他不確定新工具將被怎樣使用。
「我只是一名工程師」,他說。
Lemoine引用了一首關於戰時火箭科學家Wernher von Braun的歌曲的歌詞:「一旦火箭發射了,誰在乎它們在哪裡落下來?」隨即憤怒地走了出去。
Wernher Von Braun
That Was The Year That Was
Tom Lehrer
00:00/01:46
Wernher von Braun被涉及的部分歌詞:
Don"t say that he"s hypocritical
Say rather that he"s apolitical
"Once the rockets are up, who cares where they come down?
That"s not my department!" says Wernher von Braun
Lemoine隨後接受了Science的採訪,「我們該不該為警察建立工具,這並不是我想討論的重點。」Lemoine說(他特意指出,他是以個人身份發聲,而不是代表谷歌)。
「我認為,當你創造一個強大的事物時,你至少有責任考慮它可能被如何使用。」
這篇論文的另外兩位作者也就此問題接受了Science記者近20分鐘時間的採訪。「目前這很難說」,加州大學洛杉磯分校的人類學家Jeffrey Brantingham說。
「這是一項基礎研究」,南加州大學的計算機科學家Milind Tambe表示同意。
採訪中,這兩位研究人員更樂於談論的是部分生成神經網路的其他應用:分類野生動物犯罪,改善草場管理,預測哪些人最擅長向朋友傳播公共衛生信息。
而對於演算法該如何使用,他們一直三緘其口。
素材來源:
http://www.sciencemag.org/news/2018/02/artificial-intelligence-could-identify-gang-crimes-and-ignite-ethical-firestorm
【今日機器學習概念】
Have a Great Definition
※比特幣再火也是10年前的概念了,這3種幣才是潮流
※無人車通道三年後建成?這是一份Lecun點贊的新技術應用時間表
TAG:大數據文摘 |