當前位置:
首頁 > 最新 > 人工智慧之辨:計算本質、目標分類與議題劃分

人工智慧之辨:計算本質、目標分類與議題劃分

轉載請註明「刊載於《電子政務》2018年第3期」。

引用參考文獻格式:

黃璜.人工智慧之辨:計算本質、目標分類與議題劃分[J]. 電子政務, 2018(03): 2-11.

摘要:新一波人工智慧建立在新的計算「秩序」上,也因此帶來更多不確定性,其快速發展在提升社會福利的同時也被認為可能造成對人類生存與發展的威脅。儘管應當用基於工具目標和基於認知目標的劃分來代替建立在不同維度上的弱人工智慧、強人工智慧和超人工智慧的劃分,但是可以相應地將所關注的政策議題劃分為將人工智慧視為工具的弱議題、視為主體的強議題和視為危機的超議題,並由此建議要建立和加強全球合作以面對可能的風險。

關鍵詞:人工智慧;弱人工智慧;強人工智慧;超人工智慧;公共政策

DOI:10.16582/j.cnki.dzzw.2018.03.001

一、研究的起點

二十年前互聯網興起甫始,曾有人戲謔地稱「在互聯網上,沒人知道你是一條狗」,這在當時只是一則笑談。如今「阿爾法狗(AlphaGo)」的成功卻預示這個笑話可以變成現實。

世界各大國已經開始在國家戰略層面部署人工智慧(artificial intelligence,下文簡稱AI)的發展。2016年10月,美國政府發布了《國家人工智慧研究和發展戰略計劃》和《為人工智慧的未來做好準備》兩份報告,提出美國優先發展的人工智慧七大戰略。2017年4月,英國工程與物理科學研究理事會(EPSRC)發布了《類人計算戰略路線圖》,明確了類人計算的研究動機、需求、目標與範圍等。2017年7月,中國政府印發《新一代人工智慧發展規劃》,將AI發展上升到國家戰略高度。各國已經展開全球競爭,搶抓發展機遇,佔領產業制高點。目前,中、美兩國的AI企業已經佔全球的65%,融資金額已經佔據全球的84.27%。[1]

與以往技術創新相比,AI技術表現出不一樣的複雜性,在某種意義上實現了對人類思維這一區別人類與其他生物的核心器官的替代,被認為可能造成對人類生存與發展的威脅。所謂替代是分層次的,在各類討論中不僅可以看到關於人的存在意義的哲學關懷,也可以看到就業替代等現實問題,這使得AI政策討論所涉及的範圍更加宏大。美國學界早在20世紀80年代就開始討論未來高度發達的AI社會可能面臨的問題,當前無論是積極的或者消極的爭論都只是這場一度興盛的未來學的延續。技術實證主義者希望人們對技術進步的認識不要過於樂觀,對AI的想像超出了現有技術的可行性,因此也無需過於焦慮。然而,即使不否認技術存在很大局限,我們也很難拒絕哲學家們關於未來社會的善的或惡的可能性的思辨。即使是對於那些AI小說,基於當今技術進步的速度,也很難斷言它們僅僅是一種幻想。

無論是基於悲觀主義的論調,還是樂觀主義的暢想,抑或溫和的實證觀點,都至少給出一個基本事實:AI已經「在路上」。公共政策研究必須對此做出積極回應。這要求撥開商業的迷霧並且還原技術的抽象,既要面向現實的又要指向未來的,既要面向發展的又要指向問題的,既要面向技術的又要指向倫理的,既要面向經驗的又要發展思辨的。本文將AI發展可能帶來的政策議題歸納為弱議題、強議題和超議題,為此首先需要對AI的計算本質及其目標類型展開討論。

二、人工智慧的計算本質

關於AI的科學研究始於20世紀50年代。1950年,阿蘭·圖靈(Alan Turing)提出:如果人類可以與一台機器對話且不能辨別出它的機器身份,那麼可以稱這台機器具有智能。[2]這則歷經將近70年的「圖靈測試」儘管有所爭議,至今仍被業界奉為圭臬。其實早在1945年,先於第一台現代計算機的誕生,萬尼瓦爾·布希(Vannevar Bush)在其名篇《和我們想的一樣》中已經提出可以開發出一個系統來增強人類的知識和理解力,[3]這已經有了AI的思想雛形。1956年,圖靈獎得主約翰·麥卡錫(John McCarthy)第一次提出了「人工智慧」一詞。其後歷經六十多年沉浮至今,AI研究主要有兩波發展浪潮。第一波浪潮可以說是基於知識驅動或者模型驅動的自上而下的方法,主要建立在基於「if-then」結構的人工設定的形式邏輯基礎上;第二波則基於(大)數據驅動的自下而上的範式,藉助統計學方法、模擬神經網路等實現計算機的自主學習。[4]這種方法上的轉換也可以看作是機器中計算秩序建構的一種轉變——AI的本質即計算,演算法控制著數據的流動並實現所謂的「智能」。

在第一波浪潮中,人工系統(機器)中的規則都是由設計者給定的——基於特定的模型來控制數據流動;或者說從機器的立場來看,數據流動的秩序是由人工在外部強加的,所謂「知識」是人類依據自己的經驗從外部「灌輸」的。正如被譽為AI之父(之一)的赫伯特·西蒙在1973年時曾指出,計算機只能按照人類設定的程序工作,正如人類只能按照基因和累積的經驗所設定的程序去做事一樣。[5]因此第一波AI的「智識」始終是一種被組織的或被計劃的結果。然而現實中大部分問題都不能像它們的設計者們最初想像的那樣用模型來明確地描述,因此在既有條件下不可能將知識體系全部「組織」進所謂的知識庫中。當時即使是最傑出的AI程序——被稱作專家系統——也只能解決它們試圖解決問題中最簡單的部分。不難看出,這種自上而下的認知建構方法潛在地包含著一種全知全能的「期望」,認知建構是在「場」外完成的,人類扮演了「上帝」的角色,而AI所擁有的知識範圍不會超出人類知識體系的大範圍,在某種意義上說是可控的。

相反,第二波技術則試圖形成機器內部的自我建構,或者說形成一種「自生自發」的秩序,這在最新的「阿爾法狗-零(AlphaGo Zero)」演算法中得到了最佳實踐——與前一版本相比,它可以從空白狀態學起,無需任何人類的輸入。如果說人類仍然是AI的「上帝」,那麼這次人類只是給出了人工「生命」組合的規則,而真正的演化是由AI自己完成的。必須承認,AI的初始理性也是有限的,而且是不斷演化的。這符合典型的「啟發式」原則,在不斷試錯中尋求最佳行動,放棄低效的判斷,從而可以「湧現」出——而非被安排出——某種程度的智能。從人類的角度來講,我們從AI認知結構的設計中「撤退」了,但是卻獲得了更大的突破。在過去專家系統的設計框架下,我們不僅要「知其然」,而且要「知其所以然」;而在深度學習的框架下,我們也可以做到「不知其所以然」。現在面部識別技術已經宣稱超過人類的水平。微軟全球執行副總裁沈向洋博士在一次講話中提到,五年之內語音識別技術將超過人類,十年之內機器視覺也會比人好。人造物已經開始超越造物主本身而變得不可理解,不可理解也就不可控制,這在很大程度上也就成為當前關於人工智慧可能帶來終極威脅的觀點的源頭之一。

AI無處不在,自此人類開始超越「信息時代」,真正進入「計算時代」。計算的基礎是數據(數字),數據是人類對自然和社會事物的一種結構化的認知,並表達了千差萬別的有形和無形事物之間的某種同一性,也即是說,原本千差萬別的事物之間具有了可以相互聯繫的或者說統一計算的基礎,計算將它們按照某種規則連接起來。人類通過數據便可以構造出虛擬的想像空間,數據是這個空間中的「原子」。數據規則的結構越簡單,這種連接就越普遍。而現代計算技術的關鍵在於將自然世界和想像世界在它們最基本的單位上——電子與數字——建立了連接,從而展現出了虛擬世界的物質面。在這個意義上,計算不僅控制著數據的流動,也影響著物質層面。AI建立在這樣的世界交疊之上,並將萬事萬物的數據化和可計算化推向了極致——真正的「自主計算」狀態。如果這種自主計算深入到兩個世界的所有細節中去,那麼最終究竟是人類控制著計算,還是計算控制著人類?

三、人工智慧的分類

目前,存在一種流行的卻似是而非的分類方法,將AI分成弱人工智慧(weak AI,簡稱弱AI)、強人工智慧(strong AI,簡稱強AI)和超人工智慧(artificial superintelligence,簡稱超AI),並由此產生了諸多與各類AI相關的政策議題。上述這些概念其實來自於AI科學界和哲學界的不同作者,其出發點不盡相同。

1980年,美國哲學家約翰·希爾(John Searle)在其經典論文《心靈、大腦和程序》一文中提出,為了回答「在人類認知能力的計算機模擬方面應該重視什麼樣的心理和哲學意義」的問題,十分有必要提出和「弱AI」相對應的「強AI」。[6]他所謂弱AI,或稱之為「謹慎(cautious)AI」,是一種工具性的心智(mind)研究,其中計算機的核心價值在於提供一種有用的工具;而強AI則不僅是工具也是心智本身,其中計算機能夠理解(understand)並且擁有某種認知狀態。著名人工智慧專家雷·庫茲韋爾(Ray Kurzweil)儘管並不同意希爾的觀點,但在其著作中也給出了類似的分類:狹義AI(narrow AI)和強AI。[7]「狹義AI」擁有特定功能,能夠如人類一樣或者更好地完成人類的任務;而他所謂的強AI則是指能夠達到甚至超過人類智能水平的AI。弱AI和狹義AI之後合流被稱作「應用AI(applied AI)」,即是指在特定領域具有類人的或者超過人類智能的AI,比如AlphaGo;強AI與「通用AI(general AI)」則在概念上被指向同一類AI,即能夠達到人類智能水平,能夠完成人類能做的任何任務,具有意識、知覺和思維能力。而另外關於「超AI」,則是來自牛津大學哲學教授尼克·波斯托姆(Nick Bostrom),他定義的超AI是指包括在科學創造、一般智慧(general wisdom)社交能力等任何領域都比最聰明的人類還要聰明的智能。[8]

對於上述分類需要辨析以下四個方面的問題。第一,超AI是比強AI和弱AI更強的AI嗎?就概念而言,超AI和強AI、弱AI並不在同一維度上。超AI刻畫的是智能水平而非智能的範圍,其中往往包含著對人類「末日」的悲觀主義論調,而對強AI和弱AI的討論則或多或少都包含了對技術發展的樂觀主義。波斯托姆指出,如果某個強AI達到與人類相同的智能,那麼它的智能超過人類只是瞬間的事情,而且此類AI一旦形成將成為地球上新的主宰者並對人類帶來災難。[9]這種智能大突進的時刻,被稱作技術「奇點(singularity)」或者「智能爆炸(intelligence explosion)」[10]。波斯托姆強調,他對超AI的定義對如何實施(是通過計算機還是通過外皮組織)以及AI的意識和主觀體驗等問題是開放性的。這恰恰說明,在波斯托姆看來,無論AI是否包含意識都無法阻止災難的發生。假設某AI擁有與人類相當的智能水平,包括對人類和同類的友善以及對自然世界的保護(即排除AI對人類和自然世界的無意識破壞),它也同樣具有進一步獲取更高智能或者創造更高智能的意願(意識)並付諸於行動,其掌握這種更高智能的(計算)能力遠遠超出人類自身的水平;假設不包含意識,基於目標驅動的強AI擁有自主解決問題的能力,它也可能竭盡所能獲取或(無意識地與人類)爭奪所需要的資源以實現它的目標。儘管上述「智能突變」是否在瞬間完成很難預測,但是至少說明在強AI和超AI之間並沒有顯著的界限。

第二,弱AI一定比強AI弱嗎?儘管弱AI在特定領域已經超出了人類的智能水平,但是這不能說明其智能水平比強AI更高。圖靈測試並非是對某個領域的測試,而是針對任何領域的測試,因此弱AI是無法通過圖靈測試的。比如「阿爾法狗」只會下圍棋,在其他方面卻毫無所知。實現不同任務的弱AI的組合仍然是弱AI,目前為止還沒有真正能夠通過圖靈測試的AI。另一方面,強AI將達到人類智能水平,並不說明其計算水平在特定領域一定比弱AI強,或者能完成弱AI在特定領域的任務,比如下棋。強AI的一般思路是能夠模仿人類大腦的機理,讓AI像小孩子的頭腦一樣通過學習逐步演化成長到能夠完成人類通常可以完成的任務。強AI要想通過圖靈測試,並不一定需要比人類更快。反之,如果某台試圖通過測試的機器展現出了高超的計算水平,則一定會被看穿。強AI不僅要掌握人類的知識,也要具備「狡猾」「欺騙」的技巧——這並不是說,一定要在人類直接提問其是否是AI時做出否定的回答,而是也能展現出人類的弱點和缺點。當然所謂的「測試」也只是一種以人類為中心的標準。據說圖靈本人也提出過疑問,如果一台機器選擇不模仿人類,是否意味著它就沒有智能呢?總之,儘管各種類別的名稱直觀地反映出一種(智能)能力水平的差別,強AI和弱AI實際上代表了兩種不同的思路。前者更多地反映出自古以來的一種科學旨趣,也即製造出一個「冒充」人類以假亂真的機器人,後者則更傾向於提供在特定領域對人類功能的技術替代。如果一定要給出某個維度,尤其是和超AI相區別的話,它們的差別反映在智能展現的範圍。這一點在它們的別名,即「應用AI」和「通用AI」上就更加明顯了。

第三,為什麼要發展強AI?既然強AI與具有悲觀色彩的超AI之間的距離並不遙遠,既然特定領域的任務可以由能力已經超過人類的弱AI來完成,那麼為什麼要發展與人類同等智能水平的強AI,或者能夠通過圖靈測試的機器智能?對人類自我的探索貫穿於人類歷史。強AI可以說是AI研究雄心勃勃的「初心」,對AI的研究實際上也就是對人的研究。這裡存在一個基本假設,如果AI能夠通過圖靈測試,那麼就可以對人類智能做出解釋。西蒙當年涉足AI的初衷即認為人類的心智、思考、決策和創造力都不是神秘現象,可以用科學來說明。[11]他在1988年回顧認知科學發展歷史時曾指出:「在把計算機看作通用符號處理系統之前,我們幾乎沒有任何科學的概念和方法研究認知和智能的本質。」[12]西蒙最早將人類的思考看作是一種信息處理過程,如果說人類的計算與記憶能力有限,那麼擁有更高計算水平的計算機是否可以用來拓展人類解決問題的能力?在沒有足夠科學證據支持的情況下,對於人類認知的任何主觀臆測和哲學思辨都難免武斷和不完全,其本質規律以及AI是否會超過人類智能終究是一個科學問題。[13]因此,AI被劃入認知科學並成為其中最重要的部分,後者先後經歷了從行為主義,到認知主義(符號主義)、聯結主義,再到計算表徵主義的範式轉換,歸根到底是對人類心智及其運作的研究。[14]

第四,強AI究竟能否實現?樂觀主義者預測,21世紀內將出現能夠與人類智能水平相當的AI。這種樂觀主義的立場源自於一種建立在還原論基礎上的計算主義或者演算法主義,其基本思想即認為從物理世界、生命過程直到人類心智(認知)都是演算法可計算的。[15]如果這個研究綱領是正確的,那麼大腦就像一台計算機在運作,只要能夠實現用機器來模擬出人類大腦的計算規則,就能夠建立至少與人類水平相當的外部智能。在這個論斷中隱藏著一個基本假設,即人類的心與腦是同一的,人類的全部意識均是大腦的計算產物。也正因此,對智能的研究其實也就不需要考慮意識的問題,而是類似黑盒測試的方法——機器學習,只需要關注信息的輸出是否達到人類的水平。當然並非所有人都認可計算主義的觀點。關於AI究竟能否達到人類智能水平的爭論持續了幾十年至今未歇。希爾在其著名的「中文屋」試驗中試圖說明即使能夠通過圖靈測試,也並不意味著AI具有人類的意識。人工智慧是否存在極限?還是可以無限增長?哲學家和數學家們爭論的核心命題是「人心究竟能否勝過計算機」或者「機器是否能擁有人類意識」。反對計算主義的或者支持人心勝出的觀點認為,人的大腦和心並不是同一的,更深層的智能活動,特別是以意向性為核心的心智活動是超越邏輯和演算法的,不是計算機的演算法可窮盡的。[13]最關鍵的證據是著名的哥德爾定理。數學家哥德爾證明了在一個具有一致性的形式系統中至少存在一個命題既不能證實也不能證偽。建立在圖靈意義上的現代計算機就是一個形式系統,按照哥德爾定理,這個形式系統將產生計算機不能證明的命題,然而人類卻能證明,這恰恰說明人心勝過機器。這個結論與計算機的運算速度無關。儘管哥德爾本人曾指出這種推論並不嚴謹,但是可以通過適當增加假設來保證其嚴格性。有研究證明,意識不可能歸結為某個邏輯形式系統的推導及其結論。[16]經典的神經網路模型演算法也被證明無法完全模擬人類的意識。[17]當然現在就AI的計算主義的任何判斷或許都是武斷的。或許不久即能出現非圖靈意義的新的計算革命。已經有研究揭示大腦就是一台天然的量子計算機。[18]因此人們對量子計算機報以厚望,認為「自然機制+演算法」的計算模式將有可能突破現有的局限。[19]

綜上所述,就技術本身而言,可以劃分兩種AI的目標類型:基於工具目標的AI和基於認知目標的AI。前者主要解決工具性問題,AI被置於客體的位置,強調在特定目標領域代替或超越人類的計算與行動能力,這已經在許多領域得到發展和應用;後者主要解決認知性問題,AI在某種程度上被賦予了一種主體的位置,側重通過對人類智能的模擬而對人類心智做出解釋。

四、人工智慧的議題劃分

就認知性問題而言,儘管目前的技術水平與上述AI的認知性目標相差甚遠,這並不妨礙人們針對這個目標結果提出前瞻性的辯論。辯論包括了兩個層次:一個層次是作為一種獨立認知主體的AI是否「會」或「應」擁有與人類同樣的權利,另一個層次是作為一種超越人類認知的獨立主體的AI是否會對人類形成威脅。由此可以發現,儘管將AI技術實現劃分為強AI、弱AI和超AI存在著概念邏輯上的不和諧,但是可以將AI所引發的政策議題劃分為弱議題、強議題和超議題。

(一)弱議題

弱議題將AI視為一種工具,其議題核心是對AI的使用。如前所述,所謂「弱」是相較於智能的範圍,而非指智能的水平,也非問題本身的性質。事實上,隨著AI技術的進步,弱AI可以在特定領域超過人類智能水平,同時沒有哪個問題在性質上一定是弱的。在弱議題中,AI仍然從屬於人或者說是由人類控制的,主要是作為一種滿足人類生存和發展需要的工具而存在並被使用。由此帶來的政策議題實際上並不是AI的議題,而是人類在不斷追求工具的先進性以造福社會的同時必須常常面臨的社會風險。

首先,關於AI將取代人工勞動並引發大批失業的警告已然不絕於耳。一種未經或許無法考證的說法稱,AI將可能取代95%的工作崗位。儘管究竟哪些職業將被首先替代存在爭議,但是諸如倉管、司機、客服、翻譯等已經出現或正在出現智能代替的行業越來越多。也有人辯稱,AI的應用將創造更多財富,從而可以開拓出新的崗位。但是有批評稱,新崗位不僅需要新的技能,而且也可能被AI所替代。對此類評判的可能反擊是,弱AI從研發到真正投入運行並沒有那麼迅速,而人類的創意顯然要快得多,因此新的人類就業機會仍然會源源不斷地產生。

其次,AI的應用可能拉大社會鴻溝。儘管技術本身是中立的,但是技術存在經濟和知識門檻。革命性的新技術不僅讓掌握或控制技術的精英們迅速獲得財富和權力,甚至掌握更多生存的機會。正如有學者指出,本來儘管存在社會性的不平等,但是自然生命並無不平等,而馬斯克式超級「賽博格(cyborg)」——即某種人機一體化——的誕生將導致自然生命的最後平等也被破除了,進而未來的世界很可能不是AI統治人類,而是馬斯克式超級賽博格統治一切。[20]

再次,AI必然會被用於犯罪,而且應用範圍可能比人力犯罪要廣得多。現在人們希望用AI來打擊人力詐騙,但是AI也同樣可用於實施智能詐騙,其手法可以比當前人力詐騙更加迅速、精準並可能操控更多的資源予以配合。隨著萬物互聯時代的來臨,企業、政府和家庭的聯網設備越來越多,風險也就越大。對物聯網的攻擊已經成為當前網路安全的新重點,智能入侵離我們並不遙遠。即使AI本身並不用於犯罪,但是如果被犯罪分子控制則可能對正常經濟社會秩序造成破壞。

最後,未來可能會有更多AI參戰或者被用於恐怖主義。那種認為「人工智慧將使未來戰爭更具倫理關懷」的觀點顯然過於美好了。AI技術比核技術更容易隱蔽和擴散。儘管已經有人在全球提出倡議「不要研究可以殺人的AI」,然而這裡存在典型的囚徒困境。與此相類似,世界各大國掌握核技術所形成的戰略威懾可能阻止再次出現大規模戰爭,但是並不意味著世界可以放鬆對核擴散的警惕性,只要有潛在可能,就會迫使相關研發的產生以保證自己不被攻擊。AI在戰爭中並不一定用於殺人,破壞基礎設施尤其是能源設施也可能成為一種攻擊選擇。

(二)強議題

強議題將AI視為一種主體,其問題核心是人與AI的關係。儘管AI的擬人化被認為是對AI的誤解,比如智能搜索引擎即是一種無形的AI,然而一方面是類似「索菲亞」這樣的AI會越來越多,另一方面問題關鍵是,當我們在界定主體的存在時,作為判斷基礎的可能不是完整的人形化,而是一種「自由」意識。在電影《她》中,男主人公西奧多與一個化身為「薩曼莎」的人工智慧系統從人機友誼發展成為一段奇異愛情。儘管電影結局令人唏噓,在未來AI發達的社會,薩曼莎能否成為伴侶?是否擁有人格?擁有什麼樣的權利和義務?當犯錯或者犯罪時如何懲罰?都是必須回答的問題。20世紀80年代,未來學家們已經在系統論、控制論的基礎上討論關於AI的人格問題。這些問題可以分為兩個層次:AI是「活」的嗎,AI與人類平等嗎?

第一,美國數學家John G. Kemeny曾指出,新陳代謝、移動性、再生性、獨立性、擁有智能和非人工成分是區分生物和非生物的六條基本標準,而像馮·諾依曼、諾伯特·維納等控制論大師們早年已經證明[21]:①AI可以模仿其他機器的行為;②可以展現好奇心、自我認知以及能夠識別與自己相同機型的成員;③可以從錯誤中學習;④可以像人類一樣具有創造力和目的性,甚至可以尋找他們能夠完成的目標;⑤可以自我繁殖,尤其是存在一種類似生物進化的方式,可以從低效、簡單和弱的AI進化為高效、複雜和強的AI;⑥可以自我修復,實現永生。因此,AI被認為若符合上述六項標準即可成為「活的」。這種觀點顯然很難達成共識,尤其是對持有宗教或者人本主義觀點的人而言簡直是一種「謬論」。[22]不過退一步講,至少在一個「低」層次上,AI是「活的」並不是說AI與人是高度相似的,甚至是一致的、平等的。人類常常也會賦予一些寵物以生存的尊嚴。在這個意義上,AI作為一種新「物種」存在不僅是可能的,而且應當賦予某種基本的權利。

第二,人類將AI放在什麼樣的主體位置上看待將影響甚至決定AI必須承擔的主體責任。以色列政治學教授Lehman-Wilzig曾提出了一個關於AI犯罪的法律框架。[23]他列舉出七種可能適用的法律原則:生產責任(product liability)、危險動物(dangerous animal)、奴隸制(slavery)、能力減失(diminished capacity)、兒童(children)、代理機構(agency)以及人(person)。生產責任原則將責任歸咎於AI的製造者,問題在於製造者不僅是極為多元的,而且對於自動編程的AI而言就沒有適用性了。危險動物原則將責任歸於AI的擁有者或使用者,AI類似於人們豢養的攻擊性寵物,在這種情況下其主體地位便上升到具有一定意識水平的層次。如果將AI視為人類的電子「奴隸」,那麼AI的法律義務應放在關於如何對待奴隸的法律原則下,比如AI的主人是否承擔責任,以及法律上是否考慮AI對自身解放的訴求?能力減失原則將責任歸於暫時的「精神」失常,兒童原則將AI視為類似於未成年人,代理人原則類似於奴隸制原則,因為代理人在某種意義上只是委託人的工具。這裡所有原則的一個潛在思想是,AI不能成為人類推卸責任的「替罪羊」。

第三,上述六種原則的共同之處在於將AI視為意志受限的主體,不過隨著AI的進化,這些原則可能最終仍然要發展到所謂「人」的原則,即將AI視為擁有自由意志的主體,那麼適用於一般人的法則必須為AI進行系統性的升級。應當意識到AI擁有與人類一樣的對生命、對幸福和對尊嚴的追求。電影《機器管家》中的主人公安德魯從對工作的自覺,到對自由的渴望和對愛情的追求,反映出AI通過學習而不斷增強的自我意識以及由此產生的權利訴求,而他最後選擇死亡,也為人類政府最終承認他作為人的法律權利做了最精彩的回應。當然,問題並不僅僅在於這種個體的發展。如果作為一種新的種族存在,我們將如何面對AI們的集體意識?AI的集體行動是否被法律所允許?AI們是否擁有自決或者自治的權利?AI能否拒絕人類對其代碼的審查?AI能否擁有他們的集體信仰?所有關於被壓迫民族的歷史是否要在AI們身上重演?有觀點認為,未來社會的人類與AI之間不一定是相互分離的,人機混合將成為一種新的生存狀態。這似乎是解決一系列人類與機器世界共存問題的良好答案,不過如此一來,在強大的機器零件的誘惑下,人的原初的一切似乎就沒有意義了,換言之人類將自己選擇消亡。

(三)超議題

超議題將AI視為一種危機,該問題的核心是如何面對AI作為一種「超人」對人類生存的威脅。前文對強議題的討論,實際上是以阿西莫夫原則為前提的(註:阿西莫夫早期提出三法則,後來又增加了第〇法則。依次是:第〇法則——機器人不得傷害人類這族群,或因不作為(袖手旁觀)使人類這族群受到傷害;第一法則——除非違背第〇法則,機器人不得傷害人類,或因不作為使人類受到傷害;第二法則——除非違背第〇或第一法則,機器人必須服從人類的命令;第三法則——在不違背第〇至第二法則下,機器人必須保護自己),同時也提到所謂AI的自由意志的問題。然而,這兩方面其實是矛盾的。如果堅持阿西莫夫的原則,也就意味著AI沒有自由意志,因為至少在這些原則上AI必須遵循人類給定的規則。阿西莫夫原則並不是自然事實,而是外部強加於AI的倡導性規範,因此必然不能保證所有的AI(開發)都能夠遵循。如果AI可以自動編程,那麼我們更不能保證它將繼續遵守上述原則;即使在編程中遵守了原則,也不能保證在AI的進化中是否會發生某種「突變」。其結果,無論是人類設計師還是AI的自動編程都可能不會遵守所謂AI倫理。

樂觀主義者對能夠創造出勝過人類智能的終極技術保持著一貫的興奮態度。他們潛在的觀點是,既然AI能夠在最複雜的棋盤上超越最偉大的棋手,那麼只要有足夠的數據,AI可以幫助人類解決任何問題,由此可能帶來的新紀元將使人類進入更加自由的狀態。正如馬克·扎克伯格所指出的,那種對AI可能帶來世界末日的觀點是不負責任的。不過悲觀主義者們認為AI的「反叛」將可能帶來人類自身的毀滅。1951年,圖靈在一次演講中曾經指出,一旦機器開始思考,那麼它們不久便會超越我們(人類)的微弱的權力。[24]當代最權威的物理學家之一斯蒂芬·霍金也認為:AI技術的成功可能是我們文明史上最大的事件也是最壞的事件,它會像自動武器一樣帶來危險,也可能為少數壓迫多數提供新的方法,極大地破壞經濟體系;我們無法判斷,究竟是可以從AI那裡獲得無限的幫助,還是因此被忽略、被邊緣化甚至被毀滅。美國著名企業家埃隆·馬斯克則更加強烈地表達了對AI的憂慮,在他看來,AI是人類生存的最大威脅,並可能帶來第三次世界大戰。「人類似乎是在以一種飛蛾撲火的心態擁抱所謂的智能革命」。AI或許將扮演終極撒旦的角色,人類最終將向自己的創造物俯首稱臣。儘管科幻故事的結尾可以讓個別的人類智能利用AI自身的弱點來摧毀龐大的機器控制,然而那種近乎末世的壓迫終將摧毀人類精神與生存條件的現代性,其結果是人類對自身解放與自由的追求反而導向了一條不自由的結局。

那些處於上述兩種態度之間的各種不同程度的溫和觀點,承認AI的積極性以及不可阻擋的發展趨勢,同時也對可能帶來的不同層面的問題保持警惕。一批將AI視為畢生事業的科學家們聯合起來試圖制定AI研發的原則。「阿爾法狗」的投資人Jaan Tallinn就指出:「我們需要重新定義AI研究的基礎目標,讓它能夠與人類價值觀對齊,而不僅僅是智能的開發」。[25]其中傳遞的信息是,儘管AI作為一種科學或者技術本身不僅是適當的而且是值得鼓勵的,但是人類如何使用這些技術則必須置於適當的框架下,也即:研究無禁區,開發有「紀律」。這一點類似當年科學界對原子彈的憂慮。愛因斯坦等科學家在原子彈被用於日本本土之前曾試圖干預政策的實施。然而,科學家的倫理無法應對久拖不決的戰事、持續的人員犧牲以及對方可能首先使用的威脅。當然,也有AI科學家認為,目前所有的終極關懷是可笑的,因為所有的想像都遠遠超過了現有計算技術的實際能力,奇點根本不會來臨。計算機科學家Donald Knuth指出:「人工智慧已經在幾乎所有需要思考的領域超過了人類,但是在那些人類和其他動物不需要思考就能完成的事情上,還差得很遠。」[26]除非能夠超越傳統的計算模型,否則很可能會碰到類似於計算複雜性而從根本上限制了計算機性能的問題。[27]

不過既然是面向未來,其實的確很難說技術的終點究竟指向何方。基於現實的技術實證觀點和那種悲觀主義的憂慮並不在一個頻道上,因為後者顯然秉持「人無遠慮必有近憂」的態度,如果未來被建構在一個可以想像的技術空間中,那麼現實的確不能證明未來的謬誤。如果說AI是人類的創造物,那麼若AI的確會思考,它會奉人類為「上帝」。「上帝」作為一種超智能,或許真的阻止了人類智能製造「通天塔」,卻無法阻擋人類的智慧提出「上帝已死」;同樣,當前「牙牙學語」的AI也並不能驗證未來的技術似「神」一樣的存在是否會直接忽略人類智能或者直接提出「人類已死」呢?

五、結語

無論對於弱議題、強議題還是超議題,問題不是AI技術究竟走向何方,而是人類社會需要通過什麼樣的集體手段來降低未來可能存在的風險。在某種意義上,我們不是恐懼於AI擁有智慧,相反恰恰是害怕AI還沒有真正的智慧時就已經有了超凡的能力。為了避免那些可能發生的消極後果,AI業界試圖推動形成研發者的自律標準。這些標準背後潛在地認為技術發展是可控的。然而,即使全世界所有研發人員都能夠自願地遵從這些原則,實際上無法阻止:①某種技術「湧現」所導致的非意圖中的不可控性;②出現政治狂人、宗教極端分子或恐怖分子對AI的「強制利用」,以及即便不存在災難性後果,也無法阻擋;③AI可能在公權濫用和加大貧富差距上起到推波助瀾的作用。

國際層面的合作將是未來AI治理的關鍵,而行業自律可以作為補充。如果說AI技術本身是科學問題,那麼AI治理則更多側重於價值層面的建構,需要的是共同的理解、協作與規範。為此需要建立以各國政府為主導的、非政府組織參與的全球合作網路,建立類似防止核擴散一樣的機制,形成關於AI的全球治理。就弱議題而言,全球網路應充分總結並互通政策經驗,以有效應對技術革命帶來的失業、社會差距的拉大以及智能犯罪,格外重要的是要針對可能發生的戰爭、恐怖襲擊和人道主義危機等建立協商與救援的平台。就強議題而言,首先需要回答為人類智能服務的社會規則是否能同時適用於AI,全球網路需要對AI倫理與規制改進等展開更加深入的對話以尋求共識。就超議題而言,儘管無法準確預期,但是全球網路也可以探索建立終極防禦,比如聯合研製AI病毒或者在太空中實施部署等。

參考文獻:

(略)

作者簡介:

黃璜,管理學博士,計算機科學碩士,北京大學政府管理學院副教授,博士生導師,北京大學國家治理研究院研究員,北京大學公共政策研究中心執行主任,全國政策科學研究會常務理事,從事政策科學理論、電子治理、計算模擬等研究,著有《理解電子政務》《合作的邏輯》等。

*基金項目:國家社科基金項目「『互聯網 +政務服務』背景下政府信息能力結構框架與推進策略研究」(17BZZ091)。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 電子政務雜誌 的精彩文章:

TAG:電子政務雜誌 |