當前位置:
首頁 > 軍情 > 基辛格論人工智慧:啟蒙如何終結

基辛格論人工智慧:啟蒙如何終結

【翻譯/觀察者網馬力】在3年前召開的一場關於跨大西洋問題的國際會議上,我發現會議日程里安排了一個以「人工智慧」為主題的環節。由於人工智慧並不在我通常關注的領域之內,我本想跳過那一場討論,但主講人開場的幾句話卻把我留在了位子上。

美國前國務卿、外交家、國際問題專家亨利·基辛格在2018年6月號美國《大西洋月刊》雜誌刊發評論文章:《啟蒙如何終結》。他認為,「無論從哲學層面來說,還是從人類智力層面來說,乃至從每一個層面上來說,人類社會還沒有為人工智慧技術的崛起做好準備」。

主講人向聽眾宣告,一個計算機程序很快就將向圍棋界的國際冠軍發起挑戰,隨後他介紹了那個計算機程序的運行方式。電腦竟然能夠掌握比國際象棋更加複雜的中國圍棋的對弈規則?這令我十分吃驚。在中國圍棋的比賽中,每一位棋手手執180枚或181枚棋子(這取決於兩位棋手選擇黑白何種顏色的棋子,黑子181枚,白子180枚),比賽開始時棋盤是空的,隨後兩位棋手輪流在棋盤上落子。判定圍棋取勝的標準是,看哪位棋手能通過更加高明的策略更有效地佔據棋盤上的空位,從而最終困死對手。

主講人表示,計算機程序並非在編製過程中就獲得了高超的對弈能力,這種能力是在實踐過程中通過自我訓練逐漸習得的。在圍棋規則的框架下,計算機程序已經與自己對弈了無數局,它從錯誤中吸取了教訓並藉此完善了演算法。經過這一過程之後,計算機程序的圍棋水平已經遠遠超過了為其編程的工程師。就在演講結束幾個月之後,一個名為「阿爾法狗」(AlphaGo)的人工智慧計算機程序毫無困難地戰勝了世界上最頂尖的圍棋選手。

當我聽到主講人為這一技術進步喝彩時,作為一名歷史學家和客串政治家,我的思路不再跟隨他的話語,而是停在了那裡。那些能夠自主學習的機器能夠通過獨特的方式獲得知識,並且能夠將獲得的知識應用在可能超出人類理解的領域,這會對人類歷史產生怎樣的影響呢?這些機器之間能夠互相交流嗎?在從未遇到過的行為選項面前,這些機器又會如何作出判斷呢?面對西班牙文化,印加人(南美洲安第斯山區克丘亞族的一支,講克丘亞語,他們的「王」被稱為「印加」;1532年,最後一任印加帝國國王被西班牙侵略者處以死刑,隨後印加帝國淪為了西班牙的殖民地——觀察者網注)曾是感到迷惑甚至心懷畏懼的;如今面對人工智慧的崛起,人類會步印加人的後塵嗎?人類是否正處於一個新的歷史階段的起點呢?

由於我自身缺乏在人工智慧領域的專業能力,在幾位分別來自相關技術行業和人文領域的朋友的建議和配合下,我組織了幾場關於人工智慧技術的非正式對話會。經過對話會上的討論之後,我對這個問題的憂慮反而加深了。

迄今為止,改變現代歷史發展軌跡程度最深的技術進步莫過於15世紀印刷機的發明,它使儀式性的教條被對經驗知識的探索所取代,它使宗教時代落幕,使理性時代得以開啟。人類對自然的理解和科學體系的建立取代了宗教信仰,它們成為判定人類意識覺醒的重要標準。人們將信息存儲起來,而且信息在規模日益擴大的圖書館中得以系統化。塑造當代世界秩序的思想和行為正是發端自理性時代。

不過在當下這場全新的、甚至更加徹底的技術革命中,當代世界秩序正面臨一場顛覆性的變革。我們很難充分判斷這場變革的影響,這場變革甚至可能到達一個高潮,屆時我們的世界將嚴重依賴由數據和演算法驅動的人工智慧機器人,而道德倫理和哲學規範將完全受到那些機器人的無視。

我們身處其中的互聯網時代已經給人類帶來了一些麻煩,而人工智慧時代的到來很可能會使情況變得更加複雜。當年啟蒙運動(the Enlightenment)所尋求的是將傳統真理(traditional verities)置於已被解放的、具有分析能力的人類理性面前接受檢驗。而如今互聯網則是通過對不斷增加的數據的積累和處理來定義知識。在互聯網時代,人類的認知能力失去了人的個性特徵,一切都以數據形式存在,數據成了這個時代的統治者。

相較於在具體語境中思考信息的意義或將信息賦予明確的概念,互聯網用戶更看重信息的檢索和處理。他們很少在互聯網上就歷史或哲學問題檢索信息,一般來說,互聯網用戶的信息檢索行為與他們當下的實際需求直接相關。在這一過程中,搜索引擎獲得了互聯網用戶信息檢索偏好的有關信息,這使其演算法能夠對搜索結果進行個性化處理,而搜索引擎甚至可能將用戶的信息檢索偏好提供給第三方,以用於政治或商業目的。真相變得不再絕對,在海量信息面前,智慧的作用恐怕也要弱化。

互聯網用戶們變得不再擅長獨立思考,他們開始被社交媒體上的各種觀點所左右。事實上,許多網民使用互聯網的目的僅在於通過上網來沖淡他們內心十分恐懼的孤獨感。上述因素削弱了人們形成並維護自身信念的剛毅品質,只有孤獨的行者才能一直堅持內心的信念,而創造力的本質正在於這種對自身信念孤獨的堅持。

此外,互聯網對政治的衝擊尤為明顯。互聯網能夠使社會上很多亞群體獲得更多曝光度,他們的特殊訴求或苦衷能夠通過網路獲得更多人的了解,這打破了人們以往對何為政治優先事項的認識。但政治家們也由於受到這些散亂壓力的影響,無暇思考問題產生的背景,這擠壓了政治家們對未來進行長遠規劃的空間。

互聯網時代的快速閱讀不利於人們進行深度思考;互聯網對奪人眼球的信息的影響力進行了放大,而那些經過縝密思考寫就的文章卻在網路上難以獲得大面積傳播;互聯網時代的價值觀受到亞群體觀點的嚴重影響,而在這一過程中人們十分缺乏深入的思考。儘管互聯網的出現為人類社會做出了巨大貢獻,但由於其影響利弊相抵,它未來恐怕會將槍口對準自己也未可知。

互聯網的出現和計算能力的提高為海量數據的積累和分析提供了極大便利,人類的理解能力因此獲得了前所未有的提升。在這一過程中,意義最為重大的技術創新出現在人工智慧領域。人工智慧技術能夠通過類似人腦才具有的信息處理能力進行創新性思維並解決複雜的、看似抽象的問題。

這已經遠遠超出了我們對「自動化」的理解。所謂「自動化」僅是針對手段而言,自動化技術通過對生產工具進行機械化或合理化改進來實現確定的生產目標。與自動化技術大為不同,人工智慧技術是針對結果而言的,人工智慧可以自行確定自身行為的目標。由於在某種程度上來說人工智慧所實現的目標部分取決於其自身,所以人工智慧具有一種內在的不穩定性。人工智慧系統在實際運行過程中不斷獲取新的數據並即時對這些新數據進行分析,在分析結果的基礎上,人工智慧系統可以不斷對自己的演算法進行優化。

所以說,人工智慧系統是一個不斷變化的、處於動態中的系統。在這一動態過程中,人工智慧系統表現出了一種此前被認為僅有人類才會具有的信息處理能力。它可以對未來做出戰略判斷,有些判斷是基於以代碼形式事先注入的數據(圍棋規則),有些判斷則是基於人工智慧系統自身所收集到的數據(與自己進行100萬次對弈過程中出現的各種情況)。

以無人駕駛汽車為例,它體現了傳統上以軟體驅動、完全受到人類控制的車載計算機行為與滲透進駕駛過程每一個細節的人工智慧行為這兩者之間的區別。人類駕駛汽車時需要面對數不清的各種情況,並需要在每一具體情況下做出特定的判斷,我們根本不可能預先想到所有的情況並事先為每一種可能的情況編寫程序。我們以一個十分有名的假設為例來進行說明:當一輛由人工智慧控制的無人駕駛汽車不得不在一位老人和一個小孩之間做出選擇必須撞向其中一人時,它會如何選擇呢?其背後的原因何在?它在做出選擇時會更看重哪些因素?它能夠自圓其說嗎?如果人工智慧程序能夠與人類交流的話,它很可能會這樣回答上述問題:「我不知道,我駕駛汽車時遵循的是數學原理,我不懂人類的那套規則」,它也可能這樣回答:「你搞不懂我的,我曾受到大量訓練來應對各種駕駛情況,但我從未受到訓練向人類解釋為何我會那樣應對那些情況」。這就是人工智慧無人駕駛技術當下的現實,不過不出10年,無人駕駛汽車很可能將行駛在我們的每一條街道上。

截至目前,人工智慧技術僅在有限幾個領域裡獲得了應用。如今,人工智慧科學家們正試圖將這一技術的應用領域擴大到社會生活的各個方面,未來的人工智慧將可以執行多種任務。在不遠的未來,將有越來越多的人類工作被人工智慧演算法所取代。不過,這些演算法只能對所觀察到的現象進行數學性理解,演算法並不能理解現象背後的原因。令人感到矛盾的是,隨著我們的世界越來越透明,人工智慧演算法卻會變得越來越神秘。未來的新世界與我們早已習慣的今日世界會有哪些不同呢?我們將如何在那個新世界裡生活呢?我們該如何管理人工智慧?該如何改進它?該如何避免它對人類造成傷害?該如何避免比人類更快、更好掌握某些能力的人工智慧(對它來說欲獲得那些能力僅需處理一些數據)使人類的能力趨於退化或使人類的境況趨於惡化?

人工智慧遲早將為醫學科學、清潔能源和環境保護等領域帶來極大的進步。不過,正因為人工智慧所面對的未來正處於不斷演進之中,它為我們帶來的結果就內在地具有某種模糊性和不確定性。在這方面,有如下四點值得我們注意:

首先,人工智慧可能為我們帶來意想不到的後果。在科幻小說的情節中,人工智慧機器人已經將其創造者列為攻擊目標了。不過,另一種情況的可能性更大,由於人工智慧並不是在一個完整的語境中理解信息的,它很可能無法正確理解人類的指令。最近一個有名的例子來自一個名為Tay的通過自然語言同人進行交流的人機智能對話系統,科學家的設計初衷是希望Tay能夠以一個19歲女孩的身份和語言特徵與人們進行友善、理性的交談。不過,結果證明,這個智能對話系統並不能真正理解「友善」和「理性」的含義,Tay所使用的語言反而體現出種族主義者和性別歧視者的一些特徵,有時候「她」講的話甚至能將人激怒。

一些專業技術人員認為,人機智能對話系統Tay的設計思路不夠合理,具體研發過程也出現了很多問題。不過,我們仍然能夠藉此就其背後的模糊之處提出一些疑問:我們能在多大程度上使人工智慧系統理解人類指令的具體語境?當人類也未能就「冒犯」一詞的準確含義達成共識的時候,我們能通過什麼辦法幫助Tay獲得「冒犯」一詞的準確概念?當人工智慧系統的運行偏離其設計者的意圖時,我們能早期發現並進行修正嗎?如果我們對人工智慧系統不施加任何干預,它會不會不可避免地在初期略微偏離設計意圖甚至久而久之沿著偏離的軌道滑向災難性的深淵?

第二點,在實現既定目標的過程中,人工智慧可能會改變人類的思維方式和價值觀。阿爾法狗在擊敗圍棋世界冠軍時所採用的策略是前所未見的,人類從未想到過圍棋會有那種走法而且至今也未能想出針對那種走法的應對之策。阿爾法狗所採用的圍棋走法是否已經超出了人類大腦的理解能力?人類是否能夠學會那種走法呢?

在人工智慧涉足圍棋領域之前,人類在進行圍棋對弈時往往抱著各不相同的甚至是多層面的目的:棋手們所追求的不僅是贏得棋盤上的勝利,他們還希望通過對弈過程領悟出可以在生活中其他領域獲得應用的策略和智慧。而對於人工智慧來說,它在棋盤上的目的只有一個:戰勝對手。

人工智慧不是像人類那樣通過對概念的理解而是通過數學運算來進行「學習」的,具體表現在對演算法的微調。所以,在學習如何贏得圍棋比賽的過程中,人工智慧與人類的思維方式是完全不同的,它已經改變了圍棋對弈的本質以及人類圍棋對弈的傳統思維範式。這樣一種對勝利毫無雜念的渴望是否是所有人工智慧程序的共同特徵呢?

已經有人工智慧項目希望通過研發能夠回答人類各種問題的設備來改變人類的思想。這種設備能夠回答一些事實性的諸如「現在外面氣溫如何」這樣的問題,但在回答關於存在本質或人生意義這樣的問題時,你會發現它可能給人類帶來一些深層的憂慮:我們真得願意自己的孩子在與不受束縛的人工智慧演算法進行交談時形成自己的價值觀嗎?為了保護提問者的隱私,我們是否應該限制人工智慧演算法對提問者的了解呢?在得出上述兩個問題的答案之後,我們又該如何確保人工智慧遵從我們的意願呢?

如果人工智慧的學習速度是人類的指數倍,那麼我們應該想到,它同樣能以指數倍的速度進行試錯,而人類的決策通常就是通過試錯才做出的。也就是說,人工智慧犯錯的速度要快於人類,其犯錯的嚴重性也是人類無法相比的。人工智慧科學家們通常認為,在人工智慧程序中注入「道德」或「理性」的指令也無濟於事,它們並不會使人工智慧演算法所犯的錯誤有絲毫減輕。實際上,人類所有的學科都是在人們沒有就各學科的重要概念(諸如「道德」、「理性」這樣的概念)達成共識的前提下發展起來的。如此說來,人工智慧是否會成為超越所有這些具體學科理論體系的一門終極學科呢?

第三,人工智慧有能力實現它被賦予的既定目標,但人工智慧無法解釋它實現目標過程背後的基本原理。在模式識別、大數據分析和遊戲等領域,人工智慧或許已經超越了人類。如果人工智慧的計算能力繼續快速進步,那麼它或許很快就能夠以與人類略為不同或截然不同的方式對場景進行優化。但到了那個時候,人工智慧是否能夠以人類能理解的方式來證明它的場景優化比人類做得更好呢?人工智慧的決策是否會超越人類語言的解釋能力或人類理性的理解能力呢?

縱觀人類歷史,我們創造了很多理解周遭的世界的方法——在中世紀,我們通過宗教來理解世界;在啟蒙時代,我們訴諸理性;在19世紀,我們通過歷史去分析世界;而到了20世紀,我們又找到了意識形態這個工具。至於當下這個我們正在投身其中的新世界,一個最難回答然而也最為重要的問題在於:如果人類個體對客觀世界的認知能力被人工智慧所超越,如果人類社會再也無法通過自己能夠理解的方式去解釋這個世界,屆時人類意識本身會落入怎樣的境遇呢?

在未來的人工智慧世界裡,人類經驗在機器眼中不過是一堆可以用自身內存處理的數據,從這一角度來說,人類意識又該如何定義呢?誰該為人工智慧機器人的行為負責呢?當人工智慧犯下錯誤時,責任歸屬該如何劃定呢?當人工智慧的思想比人類更加深邃、其行動能力比人類更加強大時,由人類制定的法律體系還能夠對人工智慧的行為做出裁定嗎?

最後,「人工智慧」(Artificial Intelligence)這個詞可能用得並不恰當。不可否認,人工智慧機器人能夠解決很多非常複雜且表面看起來非常抽象的問題,這些問題此前都是在人類認知能力的參與下獲得解決的。但人工智慧的獨特之處在於,它的「思維方式」是人類此前從未想到過的,更是此前從未採取過的。或者可以這樣表述,人工智慧前所未有的記憶能力和計算能力是其「思維方式」有別於人類的關鍵。由於在上述兩方面的壓倒性優勢,人工智慧可以在人類給它安排的任何遊戲中勝出。

但對於人類而言,我們在參與遊戲活動時,「贏」並非唯一的目的,我們還希望在遊戲中享受思考的樂趣。當我們將人工智慧的數據處理過程當作思考過程親自進行模擬,當我們將這一過程得出的結果視為人類思考的結果,那麼人類真正的思考能力就有可能退化,而思考能力正是人類認知能力的核心。

最近新推出的人工智慧程序「阿爾法零」(Alpha Zero)就體現了上述趨勢。這款人工智慧棋類程序的國際象棋水平在大師級之上,它的行棋風格在國際象棋歷史上也是前所未見的。僅僅通過幾個小時的自我對弈訓練,「阿爾法零」就獲得了人類用1500年才能達到的國際象棋水平,而它最初具備的僅僅是國際象棋的基本規則。在「阿爾法零」自我訓練的過程中,沒有任何人參與,也沒有任何來自人類的對弈數據被注入該人工智慧程序。如果「阿爾法零」在短短几個小時之內就獲得了國際象棋大師的對弈水平,那麼5年之後,人工智慧技術將發展到怎樣的高度呢?人工智慧對人類的認知能力會產生怎樣的影響呢?從本質上來說,人工智慧所做的其實是對選擇過程進行加速,那麼倫理道德在這一過程中又扮演著怎樣的角色呢?

一般來說,此類問題應該留給技術人員以及相關科學領域的專業人士去回答。哲學及其他人文學科領域的學者們曾在「世界秩序」這一概念的塑造方面貢獻了自己的力量,但由於他們對人工智慧程序的運行機制缺乏理解或者乾脆被人工智慧的表現所震驚以至於對其心生敬畏,他們在分析上述問題時並非處於很合適的地位。相比之下,科學界在十分興奮地探索人工智慧在諸多領域獲得成功的技術可行性,而技術界也在為人工智慧未來規模巨大的商業前景感到鼓舞。科學界和技術界這兩個群體都在探索推進人工智慧技術進步的邊界,但他們並沒有花太多時間試圖去理解這種技術進步到底意味著什麼。至於我們的政府,就其工作內容而言,與思考人工智慧所產生的對人類未來生存境況的影響比起來,他們對人工智慧技術在國家安全和情報工作方面的應用似乎更加感興趣。

「啟蒙運動」從根本上來說是由新技術出現所導致的人們對我們這個世界在哲學層面的理解所發生的變化。而我們當下的時代與啟蒙時期相比,在技術進步和哲學思考的互相作用方向上是相反的。我們一直在尋求一種指導綱領性的哲學,而在尋求這種哲學的過程中,我們卻創造出了一種很可能將主導一切的技術。其他很多國家已將人工智慧列為重要的國家級項目,但美國甚至還沒有開始對這項新技術所涉及的應用範圍以及它可能在各層面造成的影響進行系統性研究,而且為了避免被人工智慧取代,我們在人類的終極學習(ultimate learning)領域也還沒有啟動任何計劃。鑒於人類人文主義傳統(humanistic traditions)的命運與人工智慧技術密切相關,美國必須在國家層面對這項技術的發展保持高度關注。

就像我不了解人工智慧的技術細節一樣,人工智慧技術領域的研發人員們對政治和哲學也是缺乏認識的。他們應該把我在本文中提出的問題也提給自己,並在今後的研發過程中將那些問題納入考慮。此外,美國政府應該成立一個由各領域傑出思想家組成的總統委員會以便他們在國家層面協助制定未來人工智慧技術發展的遠景規劃。

有一點是明確的:如果我們不儘快行動起來,過不了多久我們就會發現一切已經太遲了。

(觀察者網馬力譯自2018年6月號美國《大西洋月刊》雜誌)


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 觀察者網軍工頻道 的精彩文章:

我軍無偵-9隱形長程無人機首度曝光 可在萬米高空隱身巡航
每日軍情:台軍首架自行升級F-16V戰機曝光 駐日美軍F15墜海

TAG:觀察者網軍工頻道 |