誰來審核決定人生的演算法?
計算機科學家們驚呆了。他們以為他們給了計算機一個不可能完成的任務:想出一種讓機器蜘蛛在腳不碰到地面的情況下行走的方法。但演算法找到了一種繞過這種限制的方法。把機器蜘蛛翻轉過來,這樣它就能把肘關節當做腳來行走了。
就如本例所示,計算機演算法非常善於根據明確的成功定義進行優化。然而,在我們的日常生活中使用的很多演算法和人工智慧(AI)應用給出的結果並沒那麼非凡,是否成功取決於發問者是誰。
在社會的相當大部分都關心演算法結果的某些案例中(比如在面部識別技術這一正在成長的領域,或者在量刑中),演算法提供的結果已被證明是不準確和有偏見的。隨著人工智慧進入我們社會中越來越多的關鍵領域,這日益成為一個問題。
在歐洲努力在人工智慧研發方面趕上美國和中國的同時,歐洲也理解人工智慧存在的風險和道德陷阱,尤其是在演算法出錯或做出有偏見的決策方面。
今年5月底生效的《通用數據保護條例》(GDPR)要求使用演算法來自動化決策過程的數據控制者解釋相關決策的邏輯。GDPR第71條甚至隱藏著這樣一條要求:使用「適當的數學或者統計程序」來避免或減少源於錯誤或者不準確的風險。
這些要求的執行情況還有待觀察,但歐盟似乎接受了演算法問責制,包括對演算法的審核,力求避免人工智慧決策不當帶來的惡果。
在法國,埃馬紐埃爾?馬克龍(Emmanuel Macron)政府宣布,向社會公開所有為政府用途開發的演算法,這樣整個社會能核實這些演算法得到了正確的使用。
公開演算法是否是一個適用於所有形式和用途的人工智慧的解決方法?理論上確實如此,但這種方法在實際操作上存在明顯缺陷——畢竟,不是每個人都看得懂代碼。此外,企業和政府似乎都不是很情願公開演算法、用來訓練演算法的數據或者從數據得出的推論。
理由很簡單。首先,暴露演算法可能會使你喪失競爭優勢。此外,公開演算法可能會讓精通技術的人詳細了解決策過程,讓他們實際上擁有矇騙系統的能力。
公開演算法的接受度不高的另一個原因是,披露演算法可能會暴露關於決策過程有效性和準確度的令人不快的真相。如果不對演算法進行獨立審核,你可以繼續置身於幸福的無知境界,並且在面對負面後果的時候做出說得通的否認。
儘管法國政府在演算法開放方面的積極做法可能在演算法問責制上走得太遠,但是對演算法進行獨立審核的理由是不言自明的。歐洲在設定人工智慧戰略時,演算法問責制(或者更準確地說是演算法責任制)應該是一個關鍵考慮因素。政府和企業必須能夠證明,它們在把人工智慧應用推向社會前,先進行了徹底的測試和外部審核。
驚嘆於演算法對一個理論問題提出新穎的解決方法是一回事,對演算法的糟糕決策在不經意間毀了某人的人生感到意外就是另一回事了。
文章源自網路,圖片源自網路


TAG:起點創匯 |