當前位置:
首頁 > 最新 > 我的決策誰說了算?千萬別讓AI奪走你的決策權

我的決策誰說了算?千萬別讓AI奪走你的決策權

數字文化領域著名學者、《連線》雜誌首任主編凱文·凱利曾說,「很難想像有什麼事物會像廉價、強大、無處不在的人工智慧那樣擁有『改變一切』的力量。」

隨著人工智慧的不斷推進,未來演算法、數據必然在各個領域與我們發生關係,包括倫理層面。那麼怎樣看待演算法背後的價值預設?怎樣避免演算法的機械和不平等?怎樣對演算法進行監管?有了演算法,人在決策的過程中如何自處?

本文經微信邦網根據網路資料及丁曉東分享整理髮布。

丁曉東,中國人民大學法學院未來法治研究院副院長,耶魯大學法學博士

演算法是帶有倫理性的科學

演算法是不是完全價值中立,或者價值無涉的科學?答案是明確的,不存在完全客觀、價值無涉的演算法,任何演算法都有倫理性或價值預設,只不過這個價值預設是不是正當,需要思考。

演算法問題不是完全全新的問題,並非大數據時代到來之後才出現的。比如大學招生,中國基本採用以高考為體系、以分數為標準的演算法。在美國,亞裔成績往往較優秀,而向黑人、墨西哥人傾斜的招生政策,使亞裔深感被歧視,這其中就包含了演算法公平問題。

理解演算法,首先要把演算法從數學的想像當中解放出來,把倫理學、法律、哲學、科學等全部囊括到考慮當中。

在關鍵問題上,人是決策的主體

大數據時代的演算法已脫離了個人的理性判斷,完全通過相關關係而不是因果關係運行,因此出現了三個方面的問題。

首先,演算法的倫理標準是什麼?比較通行的標準是反歧視,即不做區分,公平對待,但其中存在一些問題。若脫離社會語境完全反歧視,則會導致表面公平、實際歧視的問題。反歧視演算法要思考反區別(anti-discrimination)和反屈從(anti-subordination),而且要思考結構性歧視或結構性不公平的問題,進行實質性判斷。

其次,演算法的透明問題。從總體上看,要堅持演算法的公開性,因為演算法的公開性有利於公眾參與,避免演算法黑箱。但也要看到演算法不透明發揮正面作用的可能性,比如中國科技大學給與貧困學生補助的演算法,以學生在食堂的消費情況為評定依據,就避免了貧困學生公開「比窮」、傷害貧困家庭孩子自尊心等問題。

最後,採取何種監管方式需要在具體語境中判斷,要在不同環境中對搜集數據和演算法的運用採取不同的監管措施。而且需要合理運用專家理性、公眾參與與市場機制的監管措施,發揮不同監管路徑的利弊。

歸根結底,根本問題是科技是否中立、是否完全價值無設。我們對人工智慧和數據的想像是它能夠越來越客觀,越來越準確,能像人一樣判斷,甚至會代替法官判案。但這在邏輯上是不可能的。人工智慧演算法可以提高預測性,但一旦涉及到人的基本價值問題,人永遠在其中扮演主體和決策者角色,我們要大力發展和促進科技,但不能陷入科技的盲目樂觀主義,對科技發展中的倫理與法律問題視而不見。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 IT叫獸 的精彩文章:

為什麼你越來越窮?如何擺脫現狀?
城市容量告急,是時候治理共享單車亂象了

TAG:IT叫獸 |