當前位置:
首頁 > 最新 > 霍金錯了嗎?平克犀利駁斥AI威脅論!

霍金錯了嗎?平克犀利駁斥AI威脅論!

經授權發布

推薦關注公號:心智與實在

哲學園鳴謝

史蒂芬·平克

「語言與人性」四部曲

語言本能、思想本質

心智探奇、白板

全美超級暢銷書

認知心理學社會科學

斯蒂芬·平克在新書中

犀利駁斥AI威脅論

作者:斯蒂芬·平克

譯者:王培

原文標題:We"re told to fear robots. But why do we think they"ll turn on us?

本文發表於 POPULAR SCIENCE 2018/02/14

機器人造反是一種迷思。

儘管新聞標題一貫驚悚,但客觀數據顯示,平均而言,全球各地的人們壽命更長了,生病更少了,吃得更好了,受教育更多了,接觸的文化更豐富了,並且死於戰爭、謀殺或意外的可能性也越來越小了。然而,失望似乎是永恆的人性。即便悲觀主義者不得不承認,對於越來越多的人來說,生活正變得越來越好,但他們還是隨時都有自己辯駁的理由。他們認為,我們正在狂歡中奔向末日,就好比一個人從天台跳下,在經過每層樓的時候說道:「目前感覺良好」;或者,就像玩俄羅斯輪盤賭,一直玩下去,結局一定是死亡;或者,我們將遭遇「黑天鵝」事件,雖說從統計分布來看,尚有多達四個標準差之遠,事件發生的概率極小,但後果卻十分嚴重。

半個世紀以來,現代末日論有了四駕馬車,分別是:人口過多、資源枯竭、環境污染和核武戰爭。現在,它們又多了一支新生的裝甲部隊:圍困我們的納米機器人、俘虜我們的機械人、將我們碾壓成渣的人工智慧,以及製造了計算機病毒、能在自己的卧室毀滅整個互聯網的保加利亞年輕人(譯註:1992年,一個名叫達克.埃文格的保加利亞人發明了一種「變換器」,利用這個工具可以製造出更難查殺的「變形」病毒。這個年輕人直言不諱,其目的就是要破壞人類的工作成果。)

捍衛類似這些馬車的人是浪漫主義者和盧德主義者(譯註:盧德主義肇始於工業革命初期,意指盲目反對新技術和新事物。)然而,那些警告高科技十分危險的人,往往是些科學家和技術專家。他們不惜發揮自己的聰明才智,搞出這麼多可以讓世界迅速滅亡的東西出來。2003年,天體物理學家馬丁·里斯(Martin Rees)出版了一本名叫《人類最後一小時》(Our Final Hour)的書,他在書中警告說,「人類正在親手埋葬自己」,然後列舉了人類讓「整個宇宙的未來變得危險」的12種方式。比如,粒子對撞實驗可能會產生黑洞,從而毀滅地球;或者,某個被壓縮的奇異夸克會將所有的宇宙物質黏在一起,然後同歸於盡。里斯在書中探討了很多支持末日論的理由。該書在亞馬遜網站的網頁說明是,「瀏覽了這本書的讀者還瀏覽了《全球性災難的風險》(Global Catastrophic Risks)、《我們的最後發明:人工智慧和人類時代的終結》(Our Final Invention: Artificial Intelligence and the End of the Human Era)、《人類終局:科學和宗教告訴我們什麼是世界末日》(The End: What Science and Religion Tell Us About the Apocalypse)、《世界大戰Z:機器人戰爭的口述史》(World War Z: An Oral History of the Zombie War)」。技術慈善家已經為研究機構開具了支票,用於發現新的潛在威脅,找到將世界從這些威脅中拯救出來的方法,這些機構包括「人類未來研究機構」(the Future of Humanity Institute)、「生命未來研究機構」(the Future of Life Institute)、「潛在風險研究中心」(the -Center for the Study of Existential Risk)、「全球性災難風險研究機構」(the Global Catastrophic Risk Institute)。

隨著技術不斷進步,我們該如何看待這些潛在的威脅呢?沒人敢肯定,災難永遠不會發生,我的這本書也不會提供這種保證。氣候變化和核武戰爭是尤其嚴峻的全球性挑戰。儘管還沒能得到解決,但它們是有辦法解決的。我們已經拿出了減少碳排放和去核化的長期路線圖,這些問題正在解決過程之中。就每一美元所產生的GDP而言,全球的碳排放量已經減少了,而全球核武器的數量已經削減了85%。當然,為了避免可能的災難,我們應該想盡各種辦法讓核武器的數量減為零。

不過,在這些現實的挑戰面前,有一種挑戰是是似而非的。有些科技評論家預測,我們將受到人工智慧(AI)的奴役,這種危險有時又被稱為「機器末日論」(Robopocalypse),「終結者」系列電影就經常呈現這種場景。有些聰明的傢伙還很嚴肅地看待這種威脅(如果不是有點故弄玄虛的話)。埃隆·馬斯克,他的公司生產人工智慧的無人駕駛汽車,將AI稱為是「比核武器更危險」的事物。斯蒂芬·霍金,通過他的人工智慧語音合成器警告說,AI可能會「招致人類的滅亡」。這些聰明的傢伙都是人工智慧和人類心智的頂尖專家,可他們從不會因為這些潛在的威脅而失眠。

「機器末日論」建立在對智力概念的錯誤理解之上,而這種理解要歸功於「偉大的存在之鏈」(the Great Chain of Being)(譯註:是中世紀從古希臘哲學中衍生出來的一種觀念,認為自然世界和人類社會是有等級和優劣秩序的)和尼采主義者的權力意志論,而與現代科學無關。這種誤解把智力看成是一種威力無窮的靈丹妙藥,每個生物體都或多或少地擁有它。

人類擁有的智力比動物更多,而未來的人工智慧計算機或機器人(「一頭AI」,用了一種新的量詞)將比人類更聰明。既然我們人類已經用了我們的中等智力馴化或滅絕了低等智力的動物(既然技術先進的社會已經侵略或消滅了技術落後的原始社會),那麼超級聰明的AI就會以同樣的方式對待人類。既然「一頭AI」的思考速度比我們快數百萬倍,並且它還能用自己的超級智力通過不斷迭代來提升自己的這種能力(這種情況有時被稱為「嘭」,一本喜劇書中出現的擬聲詞)(譯註:這裡意指意識的突然覺醒)。這種自我迭代一旦開始,人類就無法阻止它了。

然而,這種情況就好比是在擔心,既然噴氣式飛機超越了老鷹的飛行能力,總有一天飛機會像老鷹一樣盤旋於天空,捕獲我們的牲畜。人們對AI的第一種誤解在於,混淆了智力與動機——也即是對於慾望的感受、對於目標的追求、對於需求的滿足——之間的區別。即便人類發明了超越了人類智力的機器人,為什麼這些機器人一定想要奴役它們的主人,或者想要主宰這個世界呢?智力是一種運用新工具來實現目標的能力,但目標是與智力無關的:聰明與想要得到某個東西並不是一回事。只是很碰巧,在自然生態系統中,智人的智力是達爾文所謂的自然選擇的副產品,是一個天然的競爭過程。在生物的大腦中,智力與主宰競爭對手、獲取資源等目標產生了聯繫(其他動物在不同程度上也具有這樣的聯繫)。然而,將靈長類動物大腦邊緣的迴路與智力本身的性質混淆起來,是明顯錯誤的。人工智慧系統是被人為設計出來的,而不是自然進化出來的,它的思維能力就像是阿爾·卡普(Al Capp)的連環漫畫《萊爾·艾布納》(Li』l Abner)中的漫畫人物什穆(shmoos),他們是滿臉雀斑的利他主義者,用自己無窮的智慧把自己烤熟,以飽人類的口福。複雜系統理論(譯註:一種研究複雜系統和現象的科學研究領域,AI、股市、氣象、生態都屬於複雜系統)中沒有任何定律認為,有智力的行為主體必定會成為殘忍的征服者。

第二種誤解是認為,智力是一種無限制的連續能力,是能夠解決一切問題的全能的靈丹妙藥,可以實現任何目標。這種誤解讓人們提出了一些毫無意義的問題,比如,什麼時候AI可以「超越人類智力」?擁有上帝般全知全能的終極「通用人工智慧」(AGI)會是什麼樣子?實際上,智力是一種精巧的裝置:比如,被設計或者被編碼的軟體模型,在不同領域追求不同目標的知識。人類具有尋找食物、結交朋友、影響他人、吸引配偶、撫養小孩、全球旅行、從事其他人類愛好和消遣的能力。計算機也許可以被設計用於完成其中某些任務(比如,識別面孔),但卻不能被設計來干擾他人(比如,吸引配偶),它可以處理一些人類無法解決的問題(比如,模擬氣象變化,或者處理數以百萬計的會計賬目)。

問題不同,解決它們所需要的知識也不一樣。不同於「拉普拉斯的惡魔」(Laplace』s demon)——一種神秘的存在,它知道宇宙中每個粒子的位置和速度,並將這些信息輸入物理定律公式,計算出每樣事物在未來任何時點的狀態——真實生活中的認知主體必須要從混亂的客觀世界,以及從某個時點參與某個領域活動的人們那裡獲取信息。對知識的理解並不違背摩爾定律:它是通過不斷構建理論並接受現實檢驗,而不是通過速度越來越快的演算法來實現的。消化互聯網上的海量信息不足以讓AI擁有全知能力:大數據仍然是有限的數據,而宇宙的知識卻是無限的。

正是因為有了這些誤解,最近的輿論宣傳(AI會帶來永久的威脅)讓AI研究者頗感煩擾,這些宣傳讓觀察家們誤以為通用人工智慧的出現近在眼前。就我所知,根本沒有任何機構在研究通用人工智慧,這不僅僅是因為它的商業價值是不確定的,還因為這一概念在邏輯上就是自相矛盾的。當然,自2010年代以來,我們已經見證了AI能夠駕駛汽車、標記圖片、識別語音,見證了AI在《危險邊緣》(Jeopardy!)(譯註:美國智力競賽電視節目)、圍棋和阿塔里電腦遊戲(Atari computer games)(譯註:一類1980年代流行的電子遊戲)中擊敗了人類。

然而,AI的這些進步不是來自於對智力機制的理解,而是來自於處理速度更快、能力更強的晶元和豐富的大數據,這些數據可以讓計算機程序在數以百萬計的案例中得到訓練,併產生類似的新案例。每一個智力系統都是一個天才的白痴,幾乎沒有能力解決它不能解決的問題,並且也只能解決很小一部分它被設計出來用以解決的問題。比如,一個圖像標記系統將一張即將墜毀的飛機照片識別成了「一架飛機停在柏油跑道上」;一個電子遊戲娛樂系統對計分規則的細微變化感到困惑不解。雖然這些系統肯定會表現得越來越好,但仍然沒有「嘭」出現的跡象。這些系統的演進方向既不是要去接管實驗室,也不是要奴役它們的設計人員。

即便通用人工智慧想要展現權力意志,沒有人類的合作,它仍然只是無用的「缸中之腦」(譯註:著名哲學家希拉里·普特南提出的思想實驗:人的大腦被取下,放進有營養液的缸中,大腦神經末梢被連接在計算機上,用以產生正常的意識和思維,而身體則失去了活動能力)。計算機科學家拉姆齊·納姆(Ramez Naam)駁斥了甚囂塵上的AI意識覺醒論、技術奇點論和幾何指數的自我迭代論:

想像你是一個運行在某種微處理器上(或許,由數百萬計的微處理器組成)的AI,擁有超級智能。突然,你想要設計一個更快、更強大的處理器,用於你的運行。現在……靠!你必須要生產製造這種處理器。而生產工廠的運轉需要巨大的能量,它需要從周圍環境中獲取原材料,需要嚴格控制內部環境,保證氣閘、過濾器以及其他各種特殊設備正常運轉。獲取材料、運輸、加工、建造廠房、修建動力機房、測試、生產,所有這些工作都要花費時間和能量。現實世界是你螺旋式自我迭代的最大障礙。

現實世界不可能為很多數字技術災難的發生提供條件。當HAL(譯註:靠機械裝置維持生命的機械人)變得狂傲的時候,戴夫(譯註:Dave,《2001太空漫遊》中的人物,是HAL的操控者)可以用螺絲刀把它廢掉,讓它可憐兮兮地對著自己唱兒歌:《雙人自行車》(A Bicycle Built for Two)。當然,總是有人認為「末日機器」(Doomsday Computer)一定會出現,這種機器心狠手辣、無所不能、永久開啟,並且可以防止人類干預。應對這種威脅的辦法很簡單:不去製造它!

正當人們意識到把機器人想得太邪惡似乎是在庸人自擾的時候,人類衛道士又發現了一種新的數字技術災難。這種想像不是建立在弗蘭肯斯坦(Frankenstein)(譯註:試圖造人的科學怪人)或隆隆岩(Golem)(譯註:希伯來傳說中有行動力、無思考力的假人)的故事之上的,而是建立在精靈和(Genie)和金·米達斯(King Midas)的故事之上的。精靈允許人們許三個願,但第三個願望的內容是阻止前兩個願望實現(譯註:這是一個阿拉伯故事),而米達斯則後悔自己將他觸碰到的每樣事物都變成了黃金,包括他的食物和家人。這種危險有時被稱為「價值取向問題」(the Value Alignment Problem),也即是說,我們可能會給AI一個目標,然後絕望地呆在一旁,看著它按照自己的理解去執行目標,並最終損害人類的利益。如果我們讓AI去維持一個水庫的水位,它就有可能泄閘,把一個城鎮給淹了,而不管人類的死活。如果我們讓AI生產回形針,它就有可能把所有能接觸到的宇宙物質都製造成回形針,包括我們的私人物品和身體。如果我們讓它將人類的幸福最大化,它就有可能用多巴胺營養液對我們進行靜脈注射;或者,用計算機連接我們的大腦,讓我們坐在化學缸中,快樂致死;又或者,如果它經過訓練,通過反覆觀看笑臉圖片理解了幸福的概念,它就會用幾十億張納米大小的笑臉圖片塞滿整個銀河系。

這些段子可不是我編造的。有些人的確認為,這些場景很好地描繪了先進的人工智慧對人類所產生的威脅。所幸的是,這些場景是自敗的。它們取決於如下一些假設:

1)人類太聰明,居然能設計出全知全能的AI,但又太愚蠢,居然在沒能搞懂AI運作機制的情況下讓它控制了全世界;

2)AI太聰明,以至於它知道如何改變化學元素,重新連接大腦,但又愚蠢到因為犯下一些低級的理解錯誤,造成了巨大破壞。

要讓AI具備解決這種矛盾的能力,工程師可能心想給AI添加插件就行了,並為之前忘了做這項工作而後悔不迭,但添加插件是無濟於事的,因為這個問題涉及到智力。同樣,要想讓AI具備理解語言使用者在特定語境下的意圖,靠添加插件也是不管用的。機器人所能做的,只能是在類似於《糊塗偵探》(Get Smart)這樣的喜劇片中,響應「抓起服務員」的命令,將大堂經理舉過頭頂;或者通過拔出手槍、開槍射擊去「滅掉燈光」。

當我們拋開意識覺醒、技術自負、即時全知、控制宇宙每個粒子之類的幻想時,人工智慧就跟其他任何技術無異。它的發展是漸進的,其目的是被用於滿足人類的各種需求。在投入執行任務之前,它會經受嚴格測試,並總是會在效能和安全之間取得平衡。正如AI專家斯圖爾特·羅素(Stuart Russell)所說:「沒有任何人類工程師會說『修建不會垮的大橋』,他們只會說『修建大橋』。」同理,他認為,只有益處沒有危害的AI才是真正的AI。

當然,人工智慧還是提出了更為日常性的挑戰:我們該如何幫助那些工作被機器所取代了的人群?不過,這類工作還不會很快就消失。NASA在1965年發布的報告中提出的洞見至今仍是有效的:「人類是一種能量消耗最低、重量僅有150磅、思維非線性的通用計算機,哪怕是技能不熟練的工人也能生產出這種機器。」駕駛汽車是一種比卸下洗碗機、跑腿打雜、更換尿布以及此刻撰寫文章更容易的工程技術問題,至今,我們還沒有允許自動駕駛汽車行使在城市道路上。也許,機器人軍團最終可以在發展中國家為嬰兒接種疫苗、修建學校,或者在我們這樣的國家修建基礎設施,照顧老人,但要等到這一天,還有很多工作要做。用於設計軟體和機器人的人類才智,同樣可以被用於設計政府和私營部門政策,好讓失業的人有工作可做。

本文改編自斯蒂芬·平克新書《ENLIGHTENMENT NOW: The Case for Reason, Science, Humanism, and Progress》,首發於《Popular Science》之2018年春季智能專刊(the Spring 2018 Intelligence issue )。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 哲學園 的精彩文章:

突破這些阻力,你將成為更好的自己!
《無問西東》火了,看西南聯大最後一位翻譯家給我們留下什麼?

TAG:哲學園 |