人工智慧不會「大爆炸」,只會線性或 S 型前進
編者按:人們常常對人工智慧能否發展出比人類更聰明的智慧而進行辯論。本文作者Fran?ois Chollet在「The impossibility of intelligence explosion」一文中論述了智能爆炸的不可能性,在他看來智能的發展是一個經由環境、文化、大腦等共同進化所合力完成的過程。
1965年,I.J.古德首次提出「智能爆炸」概念,它與人工智慧有關:
讓我們將那種超級智能機器(ultraintelligent)定義為智力遠超任何人類的機器。因為機械設計是這個超級智能機器的其中一種功能,所以它可以設計出更優秀的機器;毫無疑問,這將是一次將人類智慧遠遠被甩在後面的「智能爆炸」。假如這部機器足夠順從而告訴我們如何控制它,那麼第一個超級智能機器也即是人類所需要的最後一項發明。
幾十年過去了,能夠使「超級智能」突然崛起而人類將意外終結的「智能爆炸」概念在人工智慧領域內佔據了主導地位。著名商界領袖將其視為一個比核戰爭和氣候變化更為嚴重的重大風險。機器學習領域的研究生都贊同這一觀點。2015年針對人工智慧研究人員的電子郵件調查顯示,有29%的受訪者認為,智能爆炸「很可能」或是「極有可能」發生。另有21%的人認為這種可能性需要嚴肅對待。
而其最基本的前提是,第一個「種子人工智慧」在不久的將來騰空出世,其解決問題的能力會略高於人類。這個種子人工智慧將開始設計更好的人工智慧系統,通過遞歸式的自我完善循環在短時間內以數量級的方式超越人類智慧,將其留在塵埃之中。這一理論的支持者也將智能視為一種超級力量,如同科幻電影《超驗駭客》中所展示的那樣,賦予其持有者塑造生存環境的近乎超自然的能力。因此,超級智能意味著近乎於無所不能,並將對人類的生存構成威脅。
這一科幻式論述引發了關於人工智慧風險與監管的必要性的危險且誤導性的公眾辯論。在本篇文章中,我持智能爆炸不可能發生的觀點,智能爆炸的概念來自於對智能本質與遞歸式自我完善系統行為的深刻誤解。我嘗試將自己的觀點基於對智能系統與遞歸系統的具體觀察之上。
一種源於對於智能誤解的缺陷推理
智能爆炸背後的邏輯,與20世紀60年代和70年代興起的人工智慧理論相似,是詭辯式的:人們以一種完全抽象的方式考慮「智能」,並不聯繫前後情境,也忽略了關於智能系統與遞歸式自我完善系統的有效證據。我們不一定非得如此。畢竟,我們身處一個充斥著智能系統(包括人類自己)和自我完善系統的星球之上,因此我們可以通過簡單觀察並向其學習找到解決那些即將到來的問題的方法,而不是提出無證據的循環推論。
為了討論智能以及可能的自我完善問題,我首先需要介紹必要的背景與情境信息。當我們在討論智能的時候,我們在談論什麼?準確定義智能本身就是一次挑戰。有關智能爆炸的敘述是將智能等同於由目前人類大腦或未來電子大腦所代表的個人智能代理用以解決一般問題的能力。這並不是關於它的完整描述,所以我將以這一定義為一個切入點,並展開論述。
智能是情景式的
關於智能爆炸理論的第一個問題是它沒有認識到智能必然是更廣泛系統的一部分,應該視智能為「罐子里的大腦」,它可以在某種條件下獨立隨意地使用。大腦只是生物組織的一部分,裡面不存在任何內在的智能。除了人的大腦之外,人的身體和感覺,人的感覺運動能共性,也是大腦中的基本組成部分。人所處的環境是大腦的基本組成部分。人類文化是思想的基本組成部分。這些都是人類所有思想的來源之處。因而不能把智能從它所表達的環境中分離出來。
尤其需要提到,不存在「一般」智力這種東西。在抽象層面上,我們通過「沒有免費午餐」定理知道這一點,意即在沒有實際情境的語境下,沒有一種演算法比隨機猜測的效果好。如果智能是一種解決問題的演算法,那麼它應該關於處理一個特殊問題。更具體的說,通過經驗觀察我們可以了解到所有智能系統都是高度專業化的。我們今天所創建的人工智慧系統基於超專業極其細化的任務,比如玩圍棋,或者是把圖像歸類為10000個已知類別。章魚的智能是專門用來處理章魚的問題。人類的智能是專門用來處理人類的問題。
如果我們在章魚的身體里放入一個新鮮的人類大腦並將其放歸海底,情況會如何呢?它能學會使用它那八條腿的身體嗎?它能活幾天?我們無法完成這個實驗,但是我們知道人類與動物的認知發展是由硬編碼固定式的、先天動力所驅動的。人類的嬰兒天生就有一套先進的反射行為和天生的學習模板,從而促使其早期的感覺運動的發展,這與人類感覺運動空間的結構有著本質的聯繫。大腦擁有硬編碼就相當於有了一個可以抓東西的手,一個可以吮吸的嘴巴,一個可以用來視覺跟蹤的基於頭部移動的眼睛,這些預先置入的概念需要通過人類的智能來控制身體。它甚至由喬姆斯基令人信服地論證了,人類的高級認知特徵,比如語言能力,是天生的。
同樣,人類可以想像章魚有著一套自己的硬編碼認知原語用來學習如何使用自己的身體,並在章魚的環境中生存。人類的大腦在人類的生存條件下極其具有特殊性,這是一種天生的專業化,並可能延伸到社會行為、語言與常識領域,而章魚的大腦同樣也非常專註於章魚的行為。人類嬰兒的大腦即使被正確地移植到章魚的身體里,也可能無法充分控制其獨特的感覺運動空間,並且會很快死掉。
如果我們將一個人的大腦和身體放入一個我們不了解的環境中,會發生什麼呢?被一群狼養大的毛克力,長大後會比他的犬類兄妹更聰明嗎?還是會像我們一樣聰明?如果我們用小愛因斯坦來代替小毛克力,他最終會致力於發展宇宙大理論嗎?我們的經驗性證據相對缺乏,但是就目前所了解的而言,脫離人類文化環境而成長起來的孩子並沒有發展出任何人類智慧。幼年時期開始在野外長大的野生孩子們實際上成為動物,並且在回歸文明之後也無法習得人類的行為和語言。在南非,被猴子撫養長大的Saturday Mthiyane五歲時被人類發現,他在成人後也一直表現得像猴子,一直用四肢跳躍行走,沒有語言能力並拒絕吃熟食。那些至少在某些性格形成時期與人類進行過接觸的孩子,在再教育方面的運氣會稍好一些,儘管他們不能完全掌握人類的機體應用。
如果智能從根本上來說與特定的感覺運動方式、特定的環境、特定的成長過程與特定的待解決問題有關,那麼人類就不可能僅僅通過調整大腦來武斷地增加替代型智能,好似通過給傳送帶提速來提高工廠生產力一樣。智能的擴張只能來自於思維、感覺運動方式與環境的共同進化。如果說人的大腦是判斷解決問題能力的決定性因素,那麼那些智商遠遠超過正常範圍的人就會生活在正常情況之外,他們會解決那些之前無法解決的問題,並將接管世界,就像某些人害怕比人類更聰明的人工智慧會做的那樣。而事實上,擁有超長認知能力的天才通常生活在平庸的環境中,很少有人去做那些引人注目的事情。在特曼里程碑式的「天才遺傳學研究」中,他指出,那些特別有天賦的實驗對象,大多會追求「像警察、海員、打字員和檔案管理員一樣較低下」的職業。目前大約有700萬人的智商高於150,他們比其餘的99.9%的人類有更好的認知能力,但是大多數不是你在新聞里讀到的那些人。在那些真正想要征服世界的人中,幾乎沒有人有著過人的才智。據說,希特勒高中輟學,兩次進入維也納藝術學院的嘗試均失敗了。那些最終在困難問題上取得突破的人,是在環境、性格、教育與智力的綜合基礎上完成突破的,他們站在巨人的肩膀之上。閃爍著智慧光芒的成功是在恰當的時間擁有解決重大問題的能力。這些突出問題的解決者大多都那麼聰明,他們的技能似乎只針對某一專業領域,並不會在自己的領域之外表現得超過平均水平。有些人獲得了更好的成就更多是因為他們有更優秀的團隊,或者是有更多的勇氣和職業道德,或者是有更大的想像力。有些人只是碰巧生活在正確的情境中,在合適的時間進行恰當的交往。智能是基本情境。
我們身處的環境嚴重限制了我們的個人智能
智能不是超級力量,擁有非凡的智能本身並不能使一個人在所處的環境中擁有超乎尋常的力量。然而,有充分的證據證明,雖然具有爭議性,但是用智商可以衡量原本的認知能力。這在特曼的研究中首次得到證實,後來又相繼被其他人證實,如2006年一項大規模研究發現,智商與社會經濟層面上的成功之間存在著明顯的相關性。因此,一個智商為130的人在統計學概率上比智商為70的人更有可能成功地解決生活中的問題,雖然在個人層面上無法保證。但是事實卻是如下情況:這一相關性在達到某一點之後就會失效。沒有相關證據表明智商為170的人比智商為130的人更有可能在自己的領域取得更大的成就。事實上,許多有影響力的科學家智商往往在120-130之間,費曼為126,DNA的共同發現者詹姆斯·沃森為124,這處於眾多平庸科學家的範圍值之內。與此同時,今天仍有大約5萬人的智商達到170或是更高,而其中有多少人能像沃森教授一樣解決了非常重要的問題?
為什麼原有的認知能力的實際效用會停滯在某個臨界值上呢?這指向了一個非常直觀的實時:取得高成就的確需要足夠的認知能力,但是目前解決問題的瓶頸並不在於潛在的認知能力本身,瓶頸在於我們所處的環境。那些決定了我們的智力表現如何的環境因素限制了大腦能做什麼的可能性,包括我們能長成為多麼具有智慧的人,如何能有效利用所開發的智能,以及解決問題的能力。所有證據表明,我們當前的環境,就像過去20萬年包括史前時期的整個歷史環境一樣,不允許高智商的個體充分開發和利用自己的認知潛能。1萬年前,一個具有高潛力的人類在低複雜度的環境中長大,會用少於5000個單詞說著一種語言,從來沒有人教他讀或寫,接觸的知識有限,受到的認知挑戰也很少。對於大多數當代人來說,情況可能會稍微好一些,但是沒有跡象表明我們的認知潛能已經超出了我們所生存的環境。
「不知怎麼的,我對於愛因斯坦的大腦重量與複雜程度並不感興趣,而對於那些懷有同樣天賦的在棉田和血汗工廠里工作與死亡的人們更感興趣。」—斯蒂芬·傑·古爾德
在叢林中長大的聰明人不過是無毛猿類。同樣,將一個擁有超級人類大腦的人工智慧放置在一個現代人的身體里,很可能不會比聰明的當代人有能力激發出更大的能力。如果這種情況可能出現,那麼擁有極高智商的人類的個人成就將在統計學意義上表現得超乎尋常,他們會實現對環境的強力控制,並能夠解決現實實踐中並不存在的重大的突出問題。
大多數人的智力並不是憑藉我們的大腦,而是在我們的文明中具象化
問題不僅僅是關於我們的身體、感覺和環境在多大程度上決定了大腦的智力發展程度,關鍵是,我們的生物大腦只是我們整個智力的一小部分組成。認知修復術外在於我們,它通過人類大腦而強化解決問題的能力。智能手機、筆記本電腦、谷歌搜索、你在學校里獲得的認知手段、書本、其他人、數字元號、編程。在所有認識修復邏輯中,最基本的是語言本身,它本質上是一種認知操作系統,沒有它我們就無法思考。這些東西並不僅僅是被灌輸進大腦然後被使用,這實際上是一種外部認知過程,通過時間、空間以及更為重要的個性等非生物方式來運行思維和尋找解決問題的方法。是這些認知修復術而不是我們的大腦,在我們認知能力中扮演著重要角色。
我們身體本身就是工具。一個個體從物理學意義上來說幾乎是無用的,因此,人類只是兩腳猿類。是那些經過數千年知識與外部系統集體積累的被我們稱之為「文明」的東西使我們超越了動物的本性。當一位科學家的研究取得進展時,他們大腦中所運行的思維過程只是這個方程式的一小部分,整個解決問題的過程將擴大至計算機、其他研究人員、論文筆記、數學符號等範圍。他們之所以成功是因為站在了巨人的肩膀之上,而自己所做的工作只不過是跨越了幾十年,跨越了成千上萬的人而走完了解決問題的最後一個子程序。他們自身之於整個問題解決的意義並不比單個晶體管在晶元上所扮演的角色重要。
個體大腦無法實現遞歸式智力增強
大量證據指向這個簡單的事實:單憑一個人的大腦無法設計出比自己更強大的智慧體。以下是純粹的經驗之談:數以十億計的生命個體如過眼雲煙來來去去,始終沒有一人成功過。結論顯而易見,一個人無法在自己的一生中創造出智慧體。也可以這麼說,只有將數十億視為基數,那麼就可能成功。
這些在幾千年的時間中積累了知識並發展出外部智能過程的數十億大腦產生了一個系統——文明,它最終會使人工大腦比人類個體更聰明。是整體的文明,不是你,不是我,也不是其他任何人,將創造出超級人工智慧。這是一個我們甚至無法理解的涉及無數人類,涉及無數時間跨度的過程。它不僅與生物智慧有關,而且更多與外部化的智慧有關,這涉及書籍、計算機、數學、科學、互聯網等。在個人層面上,我們是文明的載體,站在前人的肩膀上工作,並將我們的發現向下傳遞。我們是文明體系中解決問題的一小粒晶體管。
經過幾個世紀以來的共同研究,未來的超級人工智慧是否有能力創造出比自己更強大的人工智慧?不,人類無法超越。記住,沒有人,沒有任何智慧體能成功設計出比自己更聰明的東西。我們所要做的是,逐漸地、集體地建立起超越自我解決問題能力的外部系統。
然而,未來的人工智慧,包括那些模仿人類以及迄今為止所生產的其他智能系統在內,將有助於我們的文明發展,而人類的文明將反過來不斷擴大其生產人工智慧的能力。在這個意義上,人工智慧與計算機、書籍和語言本身沒有什麼不同:它是一種賦予我們文明力量的技術。因此,超級人工智慧的出現被作為一個奇點與計算機、書籍和語言的出現並無特殊之處。文明將發展出人工智慧,並將繼續前進。文明終究會超越我們現在的樣子,就像它超越一萬年前時我們的樣子。這是一個漸進的過程,不是一個突變。
那麼,智能爆炸的基礎前提,即具有比人類更強大的解決問題的能力並導致突變式的、遞歸式的、失控的「種子人工智慧」的說法是錯誤的。人類解決問題的能力,尤其是我們創造人工智慧的能力,已經在不斷提高,這些能力並不主要存在於我們的生物大腦中,而是存在於外部的、集體式的工具中。遞歸式循環長久以來就存在,「更棒的大腦」的崛起並不會對其產生質的影響,也不會超過以往任何一種提高智力的技術。人類的大腦本身並不是創造人工智慧過程中的重要瓶頸。
那麼就這一點,你可能會問,文明本身不就是一個正在運轉的進行自我完善的大腦嗎?那麼我們的文明智慧會發生大爆炸嗎?不會。因為至關重要的是,文明智慧水平的循環提升只會出現明顯的線性進步,不會出現大爆炸。但是原因是什麼呢?難道不是數學意義上遞歸式的增強X會導致X的指數級增長嗎?不會的。簡言之,因為沒有一個複雜的真實系統可以被簡單建模為`X(t + 1) = X(t) * a, a > 1`。任何系統無法在真空模式中生存,智能尤甚,更不用說人類文明。
我們對於遞歸式自我完善系統的了解
我們不必猜測「爆炸」是否會發生在智能系統有能力優化自身智能的時刻。當這種情況發生時,大多數系統也是在進行著遞歸式自我完善。而人類被這些變化包圍。因此我們能夠確切的知道這些系統在各種各樣的環境中,在各種各樣的時間尺度上如何運作。你自己就是一個遞歸式自我完善系統:教育使你更聰明,從而反過來使你更有效地教育自己。同樣,人類文明也在更長的時間跨度中進行遞歸式自我完善。機械電子化也會發生遞歸式自我完善,用更好的生產機器人製造出更好的生產機器人。軍事帝國同樣也會進行遞歸式自我擴張,帝國越大,軍事力量就越強。還有個人投資的遞歸式自我提高,你的錢越多,你賺的錢就越多。各種例子比比皆是。
以軟體為例。編寫軟體顯然可以增強軟體編寫能力:首先,我們編輯可以執行「自動編程」的編譯器。之後,我們使用編譯器開發出實現更強大編程功能的新語言。我們使用調試程序、IDEs、linters、bug predictors這些語言開發出高級開發工具。在未來,軟體甚至會自行書寫。
那麼,這個遞歸式自我完善過程的最終結果是什麼?你能用自己的電腦軟體把工作效率提高一倍嗎?明年呢?可以說,軟體的適用性一直在以可測量的線性速度提高,與此同時我們已經投入了指數級的努力在改善它。幾十年來,軟體開發人員的數量一直呈指數級增長,而我們所運行軟體晶體管數量也在不斷增長,這與摩爾定律相符。但是,我們的電腦變得有用只是相對於2012年、2002年或者是1992年。
原因是什麼呢?首先是因為軟體的有用性受到了應用情境的根本限制,就像智力一樣,它被其所表達的情境所定義與限制。軟體只是我們的經濟、我們的生活這個更大過程中的一個齒輪,就像個體的大腦只是人類文化這個更大進程中的一個齒輪一樣。這一情境嚴苛地限制了軟體發揮其最大潛在的可能性,就像我們所處的環境嚴苛地限制了個體的智力發展程度,即使是擁有超級大腦的天才。
除了前後情境的限制,即使系統的某個部分具有遞歸式自我完善的能力,系統的其他部分也可能成為瓶頸。在軟體中,對抗性過程會出現在其進行自我完善的過程中,這可能是由資源消耗問題、特徵蠕動問題、或是用戶體驗問題所引起。當涉及個人投資的問題時,你自己的支出率就存在這樣一個對抗過程,你擁有的越多,花的錢就越多。而提到智力問題,系統間的交流會阻礙針對基層模塊的任何改進行為,因為智能部件大腦在進行協調時會遇到太多麻煩。一個擁有更聰明人士的社會體系需要投入更多的聯繫與交流。高智商的人也更容易患上某些心理疾病,這也許不是巧合。過去的軍事帝國在超過一定規模之後走向崩潰也可能不是偶然事件。指數級的增長,會遇到指數級的摩擦。
一個值得我們注意的具體議題是科學進步,因為它在概念上非常接近於智能本身。作為一種解決問題的科學非常接近於與正在運行中的超級人工智慧。當然,科學也是一種進行遞歸式自我完善的系統,科學的進步會導致工具的發展,從而賦予科學以力量,比如實驗室硬體(如量子物理學發現了激光,從而使得新量子物理實驗成為可能)、概念工具(如新定理、新理論)、認知工具(如數學符號)、軟體工具、通信協議,這使得科學家能更好的彼此合作(比如網際網路)……
然而,現代科學卻是以可測量的線性方式進步。我在2012年的一篇題為《奇點不會來》的文章中詳細描述了這一現象。物理學在1950-2000年期間所取得的進步速度並沒有超過1900-1950年。可以說,兩個階段的進步近乎相同。今天數學領域的發現並沒有比1920年變快。幾十年來,醫學從所有指標來看呈線性發展模式。儘管我們在科學上投入了大量的精力,科研人員的數量以15-20年增加一倍的速率變化,這些研究人員還正在使用那些以指數級優化的計算機來提高科學生產力。
結果如何?是什麼瓶頸和對抗反應正在減緩科學的遞歸式自我提升?原因有很多,我根本數不清楚。而下文將提到其中一些。重要的是,提到的每一點都適用於處於遞歸式自我完善的人工智慧系統。
隨著時間的推移,在某一特定領域進行科學研究的難度會成倍增加。該領域的開創者收割了大多數唾手可得的成果,而在之後取得類似的成就需要付出更多的努力。沒有一位研究人員能像香農1948年的論文那樣,在信息理論方面取得如此進展。
當某一領域範圍更廣時,研究人員之間的分享與合作會變得更加困難。要跟上新出現的思想越來越難。記住,有N個節點的網路一共有N * (N - 1) / 2條邊。
隨著科學知識的擴展,需要在教育與培訓上投入的時間和精力也在增加。而單個研究人員的研究領域也變得越來越窄。
在現實世界,系統瓶頸、收益遞減與對抗性反映最終會圍繞在所有遞歸式自我完善的周圍進行干擾。自我完善的確會帶來進步,但是進步往往是線性的,或者是S型的。你所投入的第一枚「種子美元」通常不會帶來「財富爆炸」。相反,投資回報與不斷增長的支出之間的平衡通常會使你的儲蓄隨著時間的推移而大致呈線性增長狀態。這些是比思維的自我完善以數量級程度簡單化的系統。
同樣地,第一個超級人工智慧只是一個我們早就已經開始攀登的線性進步的又一個腳印。
總結
智能的發展只能來自於大腦、感覺運動能供性、環境與文化的共同進化,而不僅僅是在一個封閉的罐子中某些大腦齒輪孤立地發展。這種共同進化自宇宙大爆炸開始就緩緩啟動,隨著智能越來越基於數字化,它將繼續存在。由於這個過程的進展大致呈線性模式,因而不會發生所謂的「智能爆炸」。
記住:
不能脫離情境談智力,不存在一般智力這樣的東西。你的大腦比之你的身體、所處的環境、其他人以及整個文化來說是更為廣大的系統的一部分。
任何系統都不能在真空環境中生存;任何一個個體的智力都將被其存在的環境所定義與限制。目前,是我們的環境而不是大腦正在成為智能的瓶頸。
人類的智慧在很大程度上是外化的,它不存在於我們的大腦中,而是存在我們的文明之中。視人體本身為工具,我們的大腦是一個更大的認知系統的一個模塊。這個認知系統正在自我完善,並且已經存在了很長時間。
由於可能出現的瓶頸、遞減以及在更大範圍內產生的對抗反映,遞歸式自我完善系統在實踐中不會以指數級增長。從經驗角度來看,它更傾向於以線性或S型形式前進。而這尤其解釋了科學進步的原因,而科學可能是我們所觀察到的最接近於進行遞歸式自我完善的人工智慧的系統。
從文明層面上講,遞歸式智能發展已經發生。它將在人工智慧時代繼續發展,並大致呈現出線性方式。
編譯組出品。編輯:郝鵬程


※世間再無霍金,多圖回顧他的一生
※版權危機解決後,網易雲音樂在向抖音靠攏
TAG:36氪 |