人工智慧,討厭窮人和被剝奪權利的人
智造觀點
當談及人工智慧的普及對人類造成的最大威脅時,答案實際上與機器人沒有任何關係。相反,最大的障礙是有偏見的演算法,而且,就像其他所有的壞事一樣,人工智慧對窮人和邊緣人群造成了不成比例的影響。
文/灰灰
來源/人工智慧觀察(ID:Aiobservation)
機器學習演算法,無論是「人工智慧」形式的一種,還是用於篩選數據的簡單快捷方式,都無法做出理性的決定,因為它們不具備合理思考的能力。儘管如此,美國政府機構卻還是讓機器學習演算法負責可能對人類的生活產生深遠影響的決策問題,這已經成為了讓人難以理解的不道德的問題。
舉例來說,當一個演算法管理一個雜貨店的庫存時,機器學習可以幫助人類做一些事情,畢竟經理人可能無法憑藉一人之力追蹤數百萬件物品的情況。但是,在某些情況下,機器學習會成為一場災難,比如,當它被用來剝奪某人的自由或對孩子進行限制的時候,我們就會覺得,人類賦予它太多權力了。
兩年前,Pro Publica研究了COMPAS再犯演算法。該演算法用於預測犯人或被告人被釋放之後再次犯罪的可能性,並被用於保釋、量刑和假釋。調查結果顯示,黑人被告(錯誤率45%)的假陽性率(被標記為「高風險」但沒有再犯)是白人被告(24%)的近兩倍。對此,ProPublica發表了一篇措辭嚴厲的文章,從此拉開了人工智慧偏見問題爭論的序幕。
新演算法讓兒童福利案件中的舊偏見繼續蔓延
1956年,著名作家Philip K. Dick發表了一篇短篇小說《少數派報告》(The Minority Report),描述了一個名為「Precrime」的重罪預防系統,利用了三個「先知」的超凡能力不斷捕捉他們腦電波中出現的未來犯罪場景,然後,Precrime就會在案件發生前對將要犯罪的人進行逮捕。「預測人從不會錯」也成為了小說的主旋律。
不過,當該特殊部門的前負責人John Anderton成為預計中下一宗命案的兇手時,事情發生了改變。在Anderton查找案件真相的過程中,他逐漸了解到,「先知」之間有時會出現衝突,當對一個人是否會繼續犯罪存在不同的意見時,便會秉承少數服從多數的原則,這一發現破壞了整個Precrime的體系。但Anderton認為,Precrime的公眾利益值得冒著逮捕無辜公民的風險,於是為了維護公眾對這個系統的信任,他選擇犧牲自己和受害者來實現關於自己的預言。
但現實呢?美國政府的任何部門都不可能有「先知」存在的,但是越來越多的兒童福利機構卻在向電影的方向發展。據了解,現在有些州的政府機構正在使用預測性分析來判斷一個孩子在家裡是不是會處於危險之中,然而基於他們對演算法的過分信任,這些機構正在進行一種類似於Anderton的考量,只不過不存在自我犧牲的成分。
眾所周知,只有五分之一被調查的虐待指控是經過了法院或者兒童福利機構證實的。比如,根據美國衛生和公眾服務部的數據,2001年有10萬多名兒童被證明因為沒有根據的指控而被迫從家庭中「移除」,更不用說那些在上訴中被推翻的案件或者是那些屈服於兒童福利機構要求的家庭,即使他們不同意法庭的調查結果。
也就是說,演算法本身並不具備對人類道德品質進行客觀評價的洞察力,相反,他們只是從所獲得的數據中完成預測模式,而數據取決於哪些信息是可用的,以及哪些是程序員認為相關的。這意味著,那些設計預測兒童福利演算法的人,無論是多麼善良,還是會將個人、歷史中存在的偏見嵌入到方程式中,而這些方程式會讓偏差永久化。偏見帶來的最糟糕的結果是,成千上萬不知情的家庭會受到影響。
美自由媒體人「深受其害」
那這個預測分析演算法的影響究竟有多嚴重呢?自由撰稿人Elizabeth Brico在一篇文章中描述了自己的經歷,表示預測分析軟體對她及孩子帶來了惡劣的影響。據了解,160天前,在不確定的情況下,Brico三歲和四歲的女兒被從她的監護中移走了,因為弗羅里達州布勞沃德縣的當局認為孩子在她的照顧下不安全。事情源於Brico和孩子的外公外婆離開了三天,隨後孩子的祖母便打通了虐待電話,稱Brico在邁阿密使用毒品。
這一指控很快得到了重視,鑒於Brico過去五年一直在進行一種被診斷為藥物使用障礙的藥物治療和諮詢,所以最終被認定會讓其孩子處於危險的境地。儘管Brico進行了負面藥物檢測,但當法官做出讓孩子跟隨祖父母的決定時,並沒有承認其檢測結果,反而稱,其語言技巧表明她不值得被信賴。也就是說,在沒有任何證據證明Brico吸大麻,也沒有證據表明孩子受到任何虐待或忽視的情況下,Brico就被認定是具有高風險不安全的因素。
據悉,佛羅里達州是美國首批實施預測分析的州之一,這也是當地兒童福利制度的一部分。而在Brico的案件中,預測分析系統對她風險狀況的決策影響了調查者的決定,並最終將孩子從她身邊「奪走」。
在小智君(ID:Aiobservation)看來,這種有偏見和隨意分離家庭的代價是不可忽視的,即使是短期的分離也會對兒童產生重大影響,特別是三歲以下的兒童更嚴重。有兒童專家表示,父母分離可能會在以後的生活中引起諸如衝動、控制情緒、自卑以及注意力缺陷的問題。而根據Brico的描述,現在她的孩子已經表現出了憤怒和抑鬱的跡象。
南加州大學社會工作副教授Emily Putnam-Hornstein曾幫助創建了一種兒童福利演算法,按照她的說法,這個系統的設計並不是為了評估虐待報告的嚴重程度,這一決定還是取決於人類。相反,它是被用於預測一個家庭將來需要兒童福利機構進行干預的可能性,比如有些信息可以幫助篩選者決定通過哪些指控進行調查。
此外,納入該演算法的131個指標,包括了醫療補助計劃和其他聯邦援助項目的登記記錄,以及關於心理健康和藥物使用治療的公共記錄。Putnam-Hornstein強調,參與這些服務並不是高分的自動配方,但是使用這些服務的人比未使用者有更多的信息,對在系統中不存在足夠信息的家庭會被排除在打分之外。
換句話說,如果一個人遭到了虐待兒童的指控,但他正在私人機構中治療心理健康問題,那麼演算法就可能會跳過去,不做評判;但如果他正在使用政府援助或者擁有州伴發的醫療卡,那麼就有很大可能陷入困境。
當然,這也是問題所在,也許有些演算法在幫助就掙兒童福利機構調查中出現的歧視問題,但必須要採取不同的方式來實現這一點。有時,當你使用數據驅動的方式時,結果中的缺陷會突出底層系統中存在的問題。總的來說,無論是膚色、還是種族等,與貧困或剝奪權利之間並沒有內在聯繫,但少數群里的邊緣化卻會受到很大的影響。在一些演算法中,黑人已經面臨了系統的不公平對待,如果使用演算法來延續這種情況,不過是在將殘忍自動化而已。
我們不能通過「黑盒子」AI或者有偏見的演算法來解決社會問題,這就有點像用火滅火。除非我們能開發出百分百無偏見的AI,否則用它們來判斷是否要剝奪一個人的自由,或者決定孩子的監控權或者未來的發展,都是錯誤的決定。
(文中圖片來自網路)


※兩次教訓七大科技巨頭的經驗,投資AI你真的選對了嗎?
※英國政府再次盯上華為,使用的美國軟體或存安全隱患
TAG:人工智慧觀察 |