他偷輛車就被人工智慧評估重判8年。當AI觸角伸向司法界,是合理,還是荒唐?
現如今,AI(人工智慧)已經成為了一個逃不掉的話題..
不管是橫掃圍棋界各大高手的阿爾法狗….
還是用不同化名在網上發表詩歌,都沒有被人察覺的微軟小冰…
最複雜的遊戲,最微妙的情感,
AI似乎夠能和人一樣做出來,甚至,比人做得更好.....
但它們不止於此,更是早已來到了司法界。
最近美國有一起充滿爭議的案子,
一個因為偷竊罪被判刑的男人把威斯康星法院告了,
因為...
他被判整整8年有期徒刑,不是因為他的罪行,也不是因為法官的判斷,
而是因為,一個AI認為,他對社會具有『高危險性』!
事情要從2013年說起...
那年的2月11日,威斯康星州的拉克羅斯市出現了槍擊案。
有目擊者們看到一輛車行駛過Kane大街2200號房子的時候,車裡的人突然掏出槍向屋子開了兩槍。
目擊者馬上報警,並且告訴警察關於車子的信息。
之後,警方在別的地方找到這輛車,馬上展開激烈追捕,最後好不容易把車子逼停了,看到了31歲的Eric Loomis和他的小夥伴....
警方在車子里發現一些槍支,
本以為是人贓俱獲,但仔細徹查後發現.....
這兩人,根本不是槍擊案的罪犯,而是在錯誤的時間錯誤的地點出現的竊車的小偷。
警方調查發現,槍擊案罪犯棄車逃跑後,這個小偷順手把這輛車給偷了.....
案情確鑿,於是法院判兩人有盜竊罪和拒捕罪。
原本,這案子並不算大,但是在Eric Loomis接受了一個叫做COMPAS的軟體系統的提問後,法官宣布,判處Eric Loomis長達8年6個月的有期徒刑。
這麼長的刑期,Eric Loomis簡直懵逼了.....
法官Scott Horene給出的理由是這樣的:
『根據COMPAS的測試,被告被認定為對社會具有高危險性的人。』(「identified, through the COMPAS assessment, as an individual who is at high risk to the community.」)
COMPAS......
這到底是個啥??
COMPAS是一個由私營企業編寫出的、能夠幫助司法人員做出判斷的智能AI。
它通過向被告詢問137個問題(比如『你在學校多久打一次架』;『你有多少朋友非法使用藥物』;『你受過的最高教育是什麼』),還有搜索他曾經的犯罪記錄,得到一堆數字,
然後經過公司設定的複雜演算法,最終得出一長串數據。
裡面包括他的孤僻程度、犯罪型人格的得分、性格穩定度....以及最重要的,他的『危險指數』,也就是『未來再次犯罪的可能性』。
COMPAS在美國很多個州中都被使用,其中使用最廣泛的是威斯康星州。
從2012年起,威斯康星州就鼓勵在全州所有法庭上都用COMPAS,在監獄系統中的每一部分也使用它,給犯人做出評估,協助司法人員進行判刑到假釋的判斷....
因為....COMPAS實在太好用了,
它告訴人們的答案太清晰了!
這個AI能清楚地說出每個被告的『危險指數』是多少,從1到10,10為最危險,說明被告再次犯罪的可能性極高。
根據這個數據,能夠幫助法官判斷,
是判他早早出獄,還是在監獄裡多待兩年,免得出去禍害社會.....
除此外,COMPAS還能告訴司法人員,
最適合被告的監禁類型是什麼,
被告什麼時候才能被假釋,
監獄裡這麼多人,誰最適合提前釋放,
保釋金需要多少錢,
......
只要有人問,
COMPAS幾乎能回答關於罪犯和監禁的所有問題!
威斯康星州懲教部的部長Jared Hoy曾經說,這個AI簡直太好用。
它給人的驚喜不斷,建議每個工作人員做決定的時候都可以用一用。
對工作人員可能是好事....
但對被告來說,這簡直就是莫名其妙....
Eric Loomis聽到結果後,馬上表示不服,
『為什麼我會被評為是對社會有高危險度?理由呢?
而且還是用一個軟體來評判我,這不合理!』
按照美國第六修正案,被告有權知道被控告的理由,
那麼他被控『有高危險度』的理由是什麼呢?
COMPAS:抱歉,我不能說。
是的,因為COMPAS是一個商業產品,有知識產權,所有除了公司的核心成員,它的具體演算法不能被外界知道,
就算是用它用了很多年的法院,他們也不知道演算法長什麼樣,只能看到結果....
所以,COMPAS就像是一個黑匣子。
Eric Loomis被判為『高危險』,也許是由於他在『受教育程度』那裡分數很低,也許是由於在『是否住在危險街區』中回答了『是』,也許是COMPAS認為他在回答中撒謊.....
總之,沒人知道。
於是,不滿的Eric Loomis決定上訴,一路鬧到威斯康星州最高法院,
但最終,法院仍然認為COMPAS的判斷沒有問題,它『科學又有效』。
在扯了幾年的皮後,Eric Loomis的刑罰最後被降到6年,但他覺得還是很長.....
為什麼威斯康辛星就是對COMPAS如此痴迷呢?
法院方面表示,因為COMPAS的優點很大啊!
它就是一堆冷冰冰的演算法,很客觀,完全不受個人情感因素的影響。
使用COMPAS,法官能夠更公正無私地看待案子,最大化地消除偏見。
這就是法院大力使用的原因.....
但根據非盈利新聞社ProPublica的研究,
COMPAS似乎並沒有那麼完美.....
在COMPAS的137個問題中,沒有詢問被告關於『種族』的問題,這也是人們說它客觀的原因。
但在2016年,ProPublica卻發現了很多『AI種族歧視』的情況。
比如,
黑人女孩Brisha Borden和白人大叔Vernon Parter因為盜竊罪被捕,兩人都被控竊取價值80美元的東西。
女孩之前有過4次行為不當,沒有入獄經歷;而大叔有過兩次持槍搶劫,還曾經坐過5年牢。
結果女孩被COMPAS判斷的危險指數是8,屬於『高危』,而大叔的指數卻是3,屬於『一般危險』.....
再比如,下面兩小哥都因為攜帶毒品被捕,
左邊的白人Fugett曾經因為持有可卡因和大麻,被警方抓捕過三次,還犯過一次搶劫案,COMPAS認為他的危險指數是3分;
而右邊的Parker,只有過一次拘捕,只是逃跑,沒有襲警,卻被COMPAS認為危險程度極高,有10分。
明明是個死物的COMPAS,
為什麼會像種族歧視者呢?
人們不知道,但考慮到COMPAS在問題中問的各種因素,
比如家庭、街區、是否有工作、最高學歷、父母是否吸毒等等,看上去和個人有關,但實際上是受社會大環境影響,黑人處於的弱勢環境,讓他們在AI的評測中更加吃虧....
因為演算法本身不客觀,
那麼COMPAS的正確率也不會有多高....
在2016年,ProPublica通過COMPAS計算了7000多名罪犯在刑滿後再次犯罪的可能性。
這些罪犯來自加利福尼亞州的Broward市,被COMPAS測評『危險指數』的時間是2013年到2014年。
結果...只有20%的人會按照COMPAS預測的那樣再次犯罪,
如果把所有的犯罪類型都算上,比如用一個過期的駕照開車這種小罪,那麼COMPAS的正確率為61%。
而Eric Loomis的這個案例....
因為所謂的『危險指數』偏高,而不得不被聽信AI的法官判更長時間的牢。 他自己覺得,確實感覺挺冤...
現在,猶他州、弗吉尼亞州,很多地方都在使用類似的AI來幫助審判,預測犯罪,
這是美國司法界的趨勢,
也許,這也將是是全球的趨勢....
但犯罪是一個極其複雜的社會問題,
AI能幹得好嗎,它真的能像公正無私的審判者一樣,做出完美的判決嗎?
法官判案,有人說法官受人性影響,會有偏差...
讓AI來評估,實際證明也不完美....
那,什麼又才是正確的路呢?
ref:
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
http://bigthink.com/robby-berman/a-judge-lets-an-app-help-him-decide-a-wisconsin-mans-6-year-sentence
http://www.northpointeinc.com/files/downloads/DataSheet_Classification.pdf
http://www.equivant.com/solutions/inmate-classification
https://www.theatlantic.com/technology/archive/2016/06/when-algorithms-take-the-stand/489566/
-------------------
骨子-背不完局解生理生化不當人:PSYCHO PASS…………
王安石:人工智慧真的好嗎?別像電影里那樣被我們製造的機器人給統治了
大鳴咚咚哩個嗆:可以讓法官自己測一測危險係數
Y菌_冬日餃子:《美國隊長2》,洞察計劃
孩子氣的小小倩:我只能說,這個真的是有那麼一點的荒謬了
熊阿冷:阿湯哥有一個電影叫少數派報告,講的是人工智慧可以預知犯罪然後司法機關就去在犯案前抓住,結果後面發生了一系列細思恐極的事…
Lucien陳:AI沒偏見,但是編寫AI程序的人有啊!最終不還是有個人感情因素在裡面嗎?
數據被刪除:我只記得之前那位因為減刑出來後成為人彈的英國騷年
-------------------
※春末夏初去哪裡?僅要£356歐美嘉帶你感受魅力英國!
※一窩生個五胞胎…朋友圈曬娃倒是萌,但養起來,是真的累啊!
※旅日熊貓真真才剛剛「可能」懷個孕……全日本都不太淡定了…
※有些男人,真是你脫個精光坐他面前他也不會覺得你是在撩他啊啊!尷特么尬……
※ISIS突襲佔領,城中升起黑旗……一場抓捕行動,演變成了奪城暴動……
TAG:英國那些事兒 |