當前位置:
首頁 > 最新 > 怎樣提升人工智慧的「道德水平」

怎樣提升人工智慧的「道德水平」

觀眾在2017年世界機器人大會上觀看會寫書法的機器人。新華社發

觀眾在機器人大會上觀看機器人舞蹈表演。新華社發

日前,2017世界機器人大會在京閉幕。其中最吸引觀眾眼球的是為期5天的機器人博覽會,各類智能機器人讓人大開眼界。「長了」53根手指的鋼琴機器人,可以精準地演奏任何通過軟體輸入系統的曲譜,彈奏能力超越人類極限;身形小巧圓潤、會走路能交談的NAO機器人一亮相,讓人不禁想到電影《機器管家》里智慧深情的機器人安德魯;還有可「走」進人體、為人類做手術的達芬奇機器人……

然而,就在2017世界機器人大會開幕前兩天,埃隆·馬斯克等116名全球人工智慧和機器人公司創始人發布聯名公開信,呼籲聯合國採取行動禁止「殺手機器人」擴散。公開信指出:「人工智慧武器一旦發展起來,會令武裝衝突的激烈程度躍升到前所未有的層級,而且會以人類難以想像的速度進化。」

從前後兩則新聞的內容不難看出,人工智慧具有雙面性。新一代人工智慧的崛起,在給人類帶來驚喜和更高生產力的同時,也引發了不少擔憂。什麼樣的人工智慧是人類需要的?如何避免人工智慧挑戰人類安全或社會倫理道德?記者就此進行了採訪。

人工智慧怎麼區分「對」與「錯」

人工智慧早已在金融、醫療、廣告、軍事等領域被廣泛應用,引發人們對人工智慧討論與擔憂的導火索,是自動駕駛汽車的面世。

當一輛自動駕駛汽車行駛在馬路上,它需要根據實時路況,自主作出決策。紅燈停、綠燈行,黃燈亮了等一等,看到行人還要讓行。如果這些技術性動作都能夠做到,那當它遇到類似「電車困境」的情景,會如何選擇呢?

設想一下,有五位行人突然出現在一輛急駛的自動駕駛汽車前面,在來不及剎車的情況下,自動駕駛汽車可以沿著既定路線行駛,這樣可能會撞死這五名行人;它也可以臨時轉向,但會撞上旁邊的綠化帶,這樣可能會讓它的乘客喪命。此刻,這輛汽車該如何抉擇?

中國社科院哲學所研究員段偉文指出,新一代人工智慧是以大數據為驅動,其核心是演算法。自動駕駛汽車在行駛中的每一個決策,都是通過演算法設定好的。數據和演算法並非完全客觀,數據的採集、標註和演算法的設計往往負載著價值。因此,數據解讀中的價值取向和演算法設計中的倫理考量,是決定人工智慧區分道德上「對」與「錯」的關鍵。

「人們對自動駕駛汽車這類智能機器的擔心,主要源於對其演算法的不了解。不知道在遇到特殊的情景時,會以怎樣的優先次序進行決策。」段偉文認為,可引入醫學倫理中的「知情同意原則」,即人們在購買自動駕駛汽車時,就知道它會按怎樣的優先次序去做。比如功利論演算法的汽車,以傷害最小化為決策原則。相比於撞到五個行人,它會選擇傷害車上的一名乘客。而道義論演算法的汽車,則以行為的道德正義性作為決策原則。

段偉文進一步指出,人類都沒有解決的「電車困境」難題,人工智慧自然也很難給出完美答案。但是人工智慧有可能基於它的海量數據和迅速反應能力,避免出現類似「電車困境」的情景。

騰訊研究院未來科技中心高級研究員曹建峰認為,人們的這些擔憂是因為沒有和人工智慧機器建立信任關係。「人工智慧製造企業需要通過多種方式建立用戶信任,比如讓自動駕駛汽車可以向用戶解釋其決策。只有當用戶知道智能機器為什麼這麼做、為什麼不那麼做的時候,人類與智能機器之間的信任才會慢慢建立。」

警惕人工智慧演算法歧視

演算法可以決定自動駕駛汽車在遭遇兩難選擇時,犧牲哪一方。同樣,它還可以決定很多。比如電子科技大學的智慧助困系統,它通過對學生的勤工儉學、食堂消費、校車、浴室等大量數據記錄的分析,根據這些外顯行為對學生的經濟狀況進行畫像,然後決定每月給哪些學生的飯卡自動充值。

智慧助困系統這樣充滿人文關懷的演算法設計,是「高道德水平」人工智慧的一個經典例子。然而,隨著人工智慧的推廣普及,各種主觀或客觀的演算法歧視越來越引發人們的關注。

「人工智慧決策日益流行,演算法歧視是一個不容忽視的問題。」曹建峰舉例,在某網路公司的廣告服務中,男性比女性看到更多高薪招聘廣告;在購物比價服務中,某網路購物平台隱瞞了自己及合作夥伴商品的運費,導致消費者看不到公正的比價結果;某犯罪風險評估演算法系統性地歧視黑人。

基於大數據和演算法的人工智慧,給人類社會生活中的各種事務和決策工作帶來了很大便利,也一直被標榜為客觀、準確、理性。然而,「演算法的設計者們是否可以不偏不倚地將既有法律或道德準則原封不動地編寫進程序,是值得懷疑的。規則代碼化帶來的不透明、不準確,甚至不公平等問題,值得深思和考究。」曹建峰坦言。

段偉文也指出,人工智慧演算法不可避免地要體現設計者與執行者的利益和價值取向。由於演算法的不透明和難以理解,有時候很難看出其中的歧視和不公。因此很多人在毫不知情的情況下,承受著各種微妙的歧視和精準的不公。

曹建峰指出,在涉及信用評估、犯罪風險評估、僱傭評估等項目時,人工智慧決策的結果將影響貸款額度、刑罰輕重、僱傭與否。「當越來越多的決策工作從人類向智能機器讓渡,如何確保人工智慧遵循人類倫理變得愈來愈重要。」

探索人工智慧領域立法

「可能對於很多人來說,初識人工智慧,是通過《終結者》《少數派報告》《機器管家》這樣的科幻電影。在這些電影中,機器人會比人類聰明,而且因具有自我意識而最終變得不為人所控制。」段偉文說,這些影片從不同維度折射了人們對智能化未來的擔憂與思考。

在大多數從事人工智慧研究的專家看來,擬人化地看待人工智慧,甚至擔憂其作為一個新物種毀滅人類,有些杞人憂天了。人工智慧在單一領域可能比人類強很多,比如下棋、運算,但要讓人工智慧像人類一樣能思考、有意識,短期內不太可能實現。

「現階段探討人工智慧倫理,主要是指加強人工智慧設計倫理,旨在保證優先發展造福人類的人工智慧,避免設計和製造出不符合人類價值和利益的人工智慧。」上海交通大學科學史博士陳自富說。

陳自富認為,人工智慧倫理設計有三個方面需要關注。一是演算法設計中的倫理審計,考慮演算法中公平、效率之間的關係,避免使其成為「黑箱」。二是人工智慧涉及的數據的所有權、隱私權和應用開發權的問題。三是人工智慧開發中的倫理或政策限制問題,即哪些可以研發,哪些禁止研發,哪些優先研發等。

「從我國人工智慧發展現狀來看,前兩項都缺乏行業規範和相關標準及法規。」陳自富指出,一些西方國家在數據的所有權、隱私權和應用開發權的主動管理意識起步較早,對於技術開發中與社會各個利益群體之間的溝通,也有穩定的機制和監督方式。在這些方面,我國要奮起直追。

現階段演算法的不透明性是一個普遍的問題。「企業可以對演算法主張商業機密或私有財產,一般使用者對演算法進行審查很困難。」曹建峰指出,在人工智慧日益代替人類進行決策的時代,設計出驗證、知情同意、透明、可責、救濟等方面的機制,對於確保人工智慧研發利用與人類社會的價值倫理一致,至關重要。

「人工智慧產品研發不僅是技術人員的事,還需要法律、倫理、哲學、社會等學科人員參與其中。IBM、谷歌等都在某種程度上建立了跨學科的人工智慧倫理審查委員會,確保人工智慧技術的有益性。建議我國針對人工智慧研發人員,制定相關倫理準則。同時探索人工智慧領域立法。」曹建峰說。(記者 龔亮 通訊員 趙雯)


點擊展開全文

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新聞通 的精彩文章:

運用磁懸浮技術是未來高鐵的發展方向
巴黎警方挫敗恐襲陰謀 猶太城公寓意外發現爆炸物
烏魯木齊眾創空間大量湧現助推創業創新
黑科技!取免費廁紙要「刷臉」 一次只能取70厘米長
日本民進黨黨首選舉結果出爐 前外相前原誠司當選

TAG:新聞通 |