詳解人工智慧的道德影響,究竟誰應該負責任?
馬斯克對人工智慧的警告和臉書機器人創造的一種人類無法理解的語言,可能會讓人們聯想到機器人征服世界的畫面。
雖然談論這樣的大災難可能有些牽強,但人工智慧的一個更符合實際的後果已經存在,並值得認真關註:人工智慧的道德影響。
人工智慧在某種程度上是可行的,因為複雜的演算法能夠識別、記憶和關聯相關數據。儘管這樣的機器處理已經存在了幾十年,但現在的不同之處在於,強大的計算機處理著數千兆位元組,並實時提供有意義的結果。此外,有些機器可以做人類和其他智能的專屬領域:自主學習。
正是這種自動化學習帶來了一個關鍵問題:機器能學會道德準則嗎?
作為一名學習科學方法的研究人員和一個沉浸在道德決策中的倫理學家,我知道,人類要同時駕馭這兩個迥然不同的領域是很困難的,更難以想像計算機演算法能讓機器的行為符合道德準則。
學術界和商界都使用實證科學來確定其相關性和因果關係,這類研究的成果是獲得大量的客觀信息,例如,抵押貸款發放機構的演算法可能會發現,邊緣借款人對廣告的反應最為靈敏,這表明在他們最喜歡的足球隊輸掉一場大大比賽後,他們的利率會有所提高,數據處理計算機可以識別這種關聯性,並學會投放相關廣告。
然而,道德層面的選擇並沒有問一個行動是否會產生一個有效的結果,它問的是,這是否是一個好的決定。
換句話說,不管功效如何,這是正確的做法嗎?這種分析並沒有反映一個客觀的、數據驅動的決策,而是一個主觀的、基於判斷的決策。
在一個被邊緣化的、情感脆弱的目標市場上投放廣告,對這家抵押貸款公司來說可能非常有效,但許多人會質疑推廣的道德性,人類可以做出這種道德判斷,但數據驅動的計算機如何得出同樣的結論呢?這其中就包括了對人工智慧的主要擔憂。
個人經常在道德準則上做出道德決定,這些準則包括正直、公平、誠實和尊重,在某種程度上,人們通過正式的學習和思考來學習這些原則,然而,生活經驗才是主要的啟蒙老師,這些經驗包括個人的實踐和對他人的觀察,有些人會更進一步,認為這些價值觀是與生俱來的,也就是說,我們生來就有這些價值觀。
那麼,製造出來的計算機能夠具有一種正直的觀念嗎?編程是否包含公平的理念?演算法能學會尊重嗎?對於機器來說,模仿主觀的、道德的判斷似乎是不可思議的,但如果存在這種潛力,至少有四個關鍵問題亟待解決:
應該使用誰的道德標準?
儘管有一份共同遵守的倫理原則的候選名單,但個人對這些原則的詮釋往往有所不同,例如,關於體面與不雅的語言和服裝的定義,就有很多不同的觀點。
機器能談論道德問題嗎?
儘管人們可能認同不同的道德標準,但他們往往通過討論和辯論來解決這些分歧,或者有時通過與外部當事人進行接觸,科技如何複製這種自由流動的對話,更重要的是,是否願意接受和解呢?
演算法能把上下文考慮進去嗎?
道德決策的一個特點是,它具有高度的細微差別,例如,在大多數情況下,如果一家公司的產品供應不足且需求非常旺盛,那麼公司就可以提高價格,然而,如果這款產品是一種救命藥品,而行業的競爭讓該公司成為唯一的供應商,那麼整個國家的經濟衰退都會給目標市場帶來額外的財務壓力,計算機是否能識別這種特定的信息,並對極其特殊的情況作出主觀評價?
誰應該負責任?
捲入組織醜聞的人往往會把矛頭指向別人,試圖以此來開脫自己,那麼,當將這個錯誤追溯到一個自學機器時,會發生什麼呢?如果一台電腦不能承擔責任,誰應該承擔這份責任——是製造機器的公司、編寫軟體的公司,還是使用它們的公司?更重要的是,具體到哪些人應該對此負責?
令人鼓舞的是,人工智慧已經對許多人的生活產生了積極的影響,而且令人興奮的是,我們可以想像,更先進的應用將會成倍地增加這種積極影響。
同樣,發展技術的人也必須培養「道德可持續性」,在未來,我相信選擇正確的道德觀念將被編碼成人工智慧。


※機器人領域十項最具成長性技術展望
※中國工業機器人展望2020:大多廠商只是空殼公司
※前景廣闊 服務機器人風口明年將至
TAG:旗瀚科技 |