當前位置:
首頁 > 最新 > AI不是預測未來的方法,但可能是一面鏡子

AI不是預測未來的方法,但可能是一面鏡子

AI湧現編譯

作者:Joi Ito

譯者:趙爍雅

在刑事司法方面,人工智慧已經被使用來支持系統的各個方面,例如,利用此技術來預測哪個街區犯罪率較高來指導警察的抓捕工作。同樣地,利用此技術來評估罪犯再犯的風險等方面的準確度也蠻高的。

大多數人工智慧需要大量數據來訓練機器,以便更準確地預測未來。當訓練系統接受培訓後被用來幫助醫生,可能會出現兩種結果,一種是很好地成為醫生的助手,另一種則可能會出現可怕的後果。因此,當以機器為基礎的預測決定弱勢群體的生活時,就會冒著傷害那些被剝奪了利益人的風險,這就相當於削減了被統治人民的權利,這是與民主觀念不相符的。

在新澤西通過預審風險評估後,可以發現,評估幾乎沒有提供任何釋放被告的風險是如何與法官準備釋放的各種條件相關聯的見解,因此法官沒有能力去問一些重要的問題,基於以上的問題,風險評估可能會造成某些有害做法的合法化,這是人們都不想看到的。機器學習和數據科學可以幫助我們更好地理解和解決貧困和犯罪的根本原因,只要我們停止使用這些工具來自動化決策並重新記錄歷史的不公正。因此我們應該意識到數據科學家應該更加深入地理解犯罪和貧困的根源,而不是簡單地使用回歸模型和機器學習來懲罰處於高風險狀況的人們。

關於利用機器演算法預測未來的做法並不僅限於司法系統,也可以應用於公共服務方面。尤克班斯認為我們應該使用數據和演算法來評估兒童生活中存在的造成貧困的潛在驅動因素,然後更好地提出問題,說明哪些干預措施對穩定家庭最有效。使用演算法來幫助管理公共服務,是設計有效的社會幹預的絕佳機會,也是鎖定現有社會不平等的巨大風險。這是現在科學家在媒體實驗室工作的人性化人工智慧的重點,同時這也是涉及社會科學家和計算機科學家共同努力的一部分,雖然是一小部分,但科學家都在努力將其做得更好。

不是說預測是沒有用的,也不是說理解因果關係本身就能解決所有問題,因為解決社會問題是很困難的。我們必須使用大量可用的數據來了解發生了什麼,以便更好地解決問題。這種重新聚焦可能成就未來更多的平等和機會,減少少數報告式的噩夢。

本文為AI湧現原創,轉載請聯繫本公眾號獲得授權。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI湧現 的精彩文章:

人工智慧技術為數字醫學注入新動力
人類行為的預測不再是神話

TAG:AI湧現 |