當前位置:
首頁 > 最新 > 歐盟智庫重磅報告:人類到底該不該畏懼AI?

歐盟智庫重磅報告:人類到底該不該畏懼AI?

作者 | Peter J. Bentley 等

策劃&編譯 | Debra

編輯 | Emily

AI 前線導讀:多年來,人工智慧(AI)獲得了長足的發展。藉助最新一代處理器的超高性能,計算機領域掀起一波收割成果的浪潮,正在影響著我們生活中的方方面面,如語音識別、自動駕駛等。近日,歐盟議會研究服務的科技選項評估小組(STOA)發布了一份重磅報告,探討人類是否應該畏懼人工智慧這一熱門主題。

該小組由哈佛大學心理學教授和科學作家 Steven Pinker 領導,小組成員還包括來自倫敦大學學院的計算科學家 Peter John Bentley,牛津大學未來人類研究所的 Miles Brundage,查默斯大學數學統計學教授,《Here be dragons》一書的作者 OlleH?ggstr?m,以及美國美因茨大學的哲學家 Thomas Metzinger。

本報告由數篇來自業界大佬的論文組成,從技術、道德等層面分析了人工智慧是否會成為人類的威脅,AI 前線摘取了全文的核心精華,來看看在大佬眼裡,AI 到底是個什麼樣的存在。

更多乾貨內容請關注微信公眾號「AI 前線」,(ID:ai-front)

1. 人工智慧三定律:逐一擊破謠言

AI 三定律:自適應 AI 能進化出超級智慧?只要資源(神經元 / 算力 / 內存)夠多,AI 會比人類更聰明?計算速度每 18 個月提高兩倍,AI 將會利用算力讓智慧呈指數級增長?No,不存在的!

——Peter J. Bentley

隨著人工智慧日益火爆,很多 AI 技術獲得成功之後,來自不同領域的聲音逐漸喧囂,包括哲學家、企業家等,但是卻很少有人關注對其最為了解的一類人的看法:那些整日里與基層技術打交道,研究產品解決方案的技術人員。本文從一個計算機科學家的角度來給出關於這個問題的看法。

戳穿謠言

關於 AI 有很多聳人聽聞的謠言,其中最廣為流傳的是它將會對人類造成巨大威脅,例如 AI 可能有意識、快速地製造出一種超級癌症殺死人類。但這種情節只會出現在電影和科幻小說中,現實世界中,AI 的發展要經過緩慢而痛苦的訓練和進步,不會在短時間內變聰明。

現在有兩種 AI 存在:現實世界中和科幻小說中的 AI。現實世界中的 AI 就是我們身邊常見的語音識別助手 Siri,銀行採用的隱藏反欺詐系統等。事實上,我們需要為一千種產品設計一千種 AI 軟體來解決具體的問題,這相當於設備中的齒輪和鏈條,其中任何一個齒輪壞掉都會導致整個系統癱瘓。所以,在我們的設備中植入 AI 軟體不足為患。

謠言 1:自適應 AI 能進化出超級智慧

一些評論家認為,AI 將會變得「失去控制」,進化出「超級智能」( H?ggstr?m, 2016)。

第一定律:問題催生智能

但 AI 第一定律告訴我們這不可能發生。

我們的研究發現,智能是為解決問題而存在的。沒有問題的存在,智能不會消失或增加( Taylor et al., 2014)。只有當問題更複雜、更難以預測時才會需要智能,而沒有正向激勵,演算法的智力不會提高。

AI 第一定律告訴我們,人工智慧是一個非常難以企及的目標,需要完全正確的條件和相當大的工作量。而且,不會有失控的自我進化的 AI。根本就沒有奇點。人工智慧只會在我們的控制和鼓勵下開發智能。

退一萬步講,即使我們真的製造出了超級智能,它也不一定會傷害人類。它只是一種滿足我們需求的工具,像收割機、小貓小狗一樣,它們就一定有謀殺我們的意願嗎?所以認為 AI 會傷害人類這種說法站不住腳。

謠言 2: 只要資源(神經元 / 算力 / 內存)夠多,AI 會比人類更聰明

評論家認為「越多越好」。如果人的大腦擁有數千億條神經,那麼有數萬億條神經網路將比人類更聰明,應用 AI 的網路將擁有人類的智慧。但事實卻是,這並不是數量的問題,如第二定律所說,AI 的關鍵是如何組織資源。

第二定律:智能需要合適的結構

大腦不是一個「一刀切」的結構,每一項任務都需要一個全新的設計。為了看見東西,我們需要一種特定的神經網路,移動我們的肌肉需要另一種,而存儲記憶則需要另一種。我們的神經網路讓人類成為神奇的智慧生命,其關鍵是正確的組織方式和針對每個問題最優的演算法。

為什麼我們不能用數學來創造 AI?

我們確實使用了很多聰明的數學方法來創造 AI,正因為如此,一些機器學習方法才產生出來可預測的結果,使我們能夠準確理解這些 AI 可以做什麼和不可以做什麼。但是,大部分實際的解決方案是不可預測的,因為它們非常複雜,並且演算法具有隨機性,還經常會接收不可預測的輸入,這是數學無法應對的。雖然我們無法用數學來預測新 AI 的功能,但數學確實會告訴我們計算的極限。艾倫圖靈發明了理論計算機科學,他告訴我們一種極限,即我們無法預測是否有任何演算法(包括人工智慧)會在計算過程終止(圖靈,1937 年)。我們還得出了「沒有免費的午餐定理「,它告訴我們沒有任何演算法可以成為所有問題的最優解決方案

為了創造 AI,我們需要設計專門針對每個問題的新結構 / 演算法。不同類型的問題需要不同的結構,以前從未解決的問題可能需要開發一種前所未有的新結構。也沒有一種通用結構適用於所有的問題。——沒有免費的午餐定理(NFL 定理,Wolpert,1996; Wolpert 和 Macready, 1997)。

人工智慧研究領域的一大難題是找到每個問題對應的結構或演算法,而我們在這一課題上的研究還處於嬰兒期,這也是至今 AI 研究成果有限的原因之一。

AI 第二定律告訴我們僅有資源是不夠的。我們仍需要用 AI 設計新的演算法和結構,以解決不同的問題。

也是這些原因導致我們無法用一種方法創造出通用智能。世界上還沒有任何一種 AI 技術(即使是火爆的「深度學習」)能用一種方法來處理語音、駕駛、玩視頻遊戲等任務。

謠言 3: 計算速度每 18 個月提高兩倍,AI 將會利用算力讓智慧呈指數級增長

有評論家認為,計算速度的加快將會跨越 AI 發展的所有障礙,只要計算機速度足夠快就能夠進行快速學習並超越人類的智慧。過去十多年來,計算力處理速度每 18 個月提高兩倍已成常態,因此這一天遲早會到來。但是他們卻忽略了一點,測試對 AI 的阻礙作用也是呈指數級的。

第三定律:AI 需要綜合測試

高級智能需要世界上最複雜的設計。但即使是對智能設計做出的微小改變,都有可能對智能現有的能力造成致命的破壞。因此,智能設計需要經過全面檢測,以確保其能解決所有設定的任務。但部分檢驗是不可行的,因為智能需要在所有指標上都準確無誤才能被信任。

每個研究者都明白這樣的事實:創造 AI 時,在每一個設計階段測試其在特定環境中解決問題的綜合能力是十分必要的。正如 AI 領域先驅者 MarvinMinsky 所說,「... 很多人會描述 AI 將會造成多麼嚴重的後果,然而卻無法讓我們認真對待這樣的說法,因為人們沒理由在未經過大量測試就大批量採用這種 AI。」(Achenbach, 2016)此外,測試是最為耗時的過程,這就限制了 AI 設計的速度。

在現實中,很多生物智能可以通過數千或數萬個特徵分辨數量巨大的物體,每一種特徵的數值都巨大,完成測試將消耗很長時間。這沒什麼好驚訝的,在數十億漫漫進化史中,經過對數不清的大腦神經在每一種可能的場景中同時進行訓練,才進化出了現在的生物大腦。這是我們能想像到的最高效的檢測方法。

AI 第三定律告訴我們,隨著智能的提高,測試所需的時間可能呈指數增長。最終,測試會將實際應用的人工智慧限於可實現的,可信任的人工智慧。正如越接近光速,速度提升將變得越來越難,當我們建造出很聰明的人工智慧時,再想提高也會越來越難。

再次申明,這是人工智慧研究和應用致力於尋找智能化解決方案的根本原因。

結論

AI 自計算機誕生以來就一直存在著。它已經存在很長一段時間了,中間也有很多令人激動的發現(賓利,2012)。

克勞德香農是計算機科學和人工智慧領域最偉大的先驅之一。1961 年,他說道:「我很自信地預計大約十年或十五年之後實驗室中會出現科幻小說里的機器人。「他還預言到 70 年代中期,我們將會創造出會走路、會說話、會思考的自動機器。四十年後,會走路的機器人仍然很少。它當然也不能自主思考。如今,有些調查(包含大量意見)得出結論認為,45 年後,AI 有 50%的機會在所有的任務上勝過人類「(Grace 等,2017 年)。類似這種言論不絕於耳,然而很少有應驗的。

不要相信炒作。我們很難預測未來,而且幾乎無一例外預測(甚至世界專家)都是完全錯誤的。最終,歷史告訴我們,炒作是 AI 研究進入衰退期的原因(Bentley,2012)之一。炒作會導致大規模的投資湧入,進而迎來新的監管規則。然而,AI 常常不孚眾望,隨之資金會枯竭,監管會扼殺創新,AI 成為一個無人敢說的忌諱。

關於 AI 駭人聽聞的新聞報道和並沒有應驗的預測,讓 AI 只停留在影院中。然而,冷靜理性的討論是非常重要的。AI 技術現在正用於新的關鍵的安全應用中,散布謠言的惡人可能會導致人們失去生命。我們不應該聚焦於小說中的故事成真會怎樣,而應該專註於讓每個具體的安全應用制定新的安全監管和認證規則。

然而,新的無人駕駛車輛道路安全測試和認證在哪裡?無人駕駛汽車駕駛員的新駕駛考試在哪裡?新的車輛指標是什麼?通知行人車輛已經看到他們,現在過馬路是安全的新標誌是什麼?防止 AI 策劃的新聞服務製造出兩極化觀點的法規在哪裡?(Cesa-Bianchi 等,2017)怎麼保障 AI 應用的安全?

AI 具有巨大的潛力提高我們的生活水平和質量,創造更多工作崗位,帶給我們前所未有的科學和技術盛宴。這是一場全新的科技革命。但是它自己不會發生。AI 三定律告訴我們,如果我們想要做更多先進的人工智慧,我們必須慢慢給我們的 AI 帶來更多的挑戰,仔細設計新的智能結構去克服新的挑戰,並進行大規模測試以確認它們可以被信任。數千名熟練的科學家和工程師正在不知疲倦地遵循這些步驟(問題、假設解決方案、測試)來為我們帶來微小的漸進式的改進,因為這是科學的設計過程和方法。不要懼怕 AI,為那些奉獻自己堅持與技巧人類專家驚嘆吧,並幫助他們建造人工智慧。感謝 AI 每天都在幫助改善我們的生活。

2. 增長財富,繁榮文明:對 AI 有條件的樂觀

我認為一個 AI 驅動的、更加悠閑的社會將會到來。在這個社會中,人們會專註於其認為能夠獲得本質上提升的活動(如藝術、學習、玩遊戲、撫養孩子,或者和朋友愛人在一起度過時光),而無須為了獲得高質量的生活而拚命工作。

——Miles Brundage

對於 AI 未來的發展預測,各專家向來意見不一,關於 AI 對人類是否有益也是眾說紛紜,有些人肯定 AI 將來必然帶來災禍,但有些人認定 AI 將來準會帶來福音,也有些人觀點折衷(AI Impacts, 2017)。雖然 AI 的發展最近受到了廣泛關注(Bostrom, 2014; Amodei and Olah et al., 2016),但是沒有人能系統總結 AI 從長遠來看會如何讓人類受益。

在這篇文章中,我不打算具體討論將會發生什麼,而是舉幾個關於 AI 的例子,探討 AI 將成為具有變革性的技術,為人類帶來前所未有的收益。

AI 是一種專註於利用數字技術來創建系統的研究分支,這種系統能夠完成通常被認為需要人類或非人類動物智力完成的任務(通常是學習的結果),並且近年來發展非常迅速。

AI 的特徵

然而,AI 的特殊性在於,它結合了一般數字技術的特性(包括通過複製程序的可擴展性並加速執行)與通常被認為是人類特有的屬性——智力(competence)。也就是說,AI 的重要性主要在於它能夠智能擴展執行任務的能力,例如,自動機器翻譯可以允許數百萬用戶同時翻譯文本。除了這種可擴展的能力之外,強大的 AI 原則上可以完成任何目標(Bostrom,2014),這是風險,同時也是機會的來源。最後,無論是在小範圍領域內,還是長遠上來說更廣泛的智能決策領域,AI 可以超越人的表現,我們可能會開發出能夠處理大量數據、快速完成任何目標的 AI 系統。正是人工智慧的這些屬性引起了關於其對社會帶來影響的大討論。

成功的條件

強大的科技總會帶來很多後果,就如電力的發明一樣。然而,和電力不同的是,AI 未來將會發揮更多的作用,應用的範圍更廣。的確,AI 很可能以多種方式被惡意利用。為了讓 AI 從長遠來看有利於人類發展,我們必須避免一些問題。首先需要解決的最基本問題是控制問題,即我們必須確保 AI 系統完成設定目標(Bostrom, 2014; Amodei and Olah et al., 2016;Bostrom, Dafoe, and Flynn, 2017),而不會在學習過程中造成傷害,誤解設計的原意,或失去人類的控制。這是 AI 造福大眾的先決條件。此外,AI 還需要面對政治問題,包括權力和財富過於集中(Bostrom, Dafoe and Flynn, 2017),以及競爭加劇導致忽略安全性的挑戰。

樂觀的理由

任務探索

AI 的大規模處理能力可以完成人類不可能完成的任務,可以代替人類完成大量無聊且耗時的工作。以機器翻譯為例,自動翻譯系統的任何一點微小的改進都能迅速應用於大量的語料庫和用戶服務,語音識別雖然還不能達到人類的水平,但已經能幫助人們省去打字的麻煩。

AI 在更大範圍內的應用也有更加令人印象深刻成結果,例如在計算速度更快、計算能力要求更高的理工科,通用 AI 讓快速取得科研和技術突破成為可能,完成人類需要成千上百年才能完成,以及由於人類認知能力的限制,沒有人工智慧的幫助無法實現的任務(例如對長期和短期記憶的限制)。更複雜的人工智慧可以完成超過物理極限的目標,它可以通過包括自動化精密加工等方法,來實現計算速度加快,製造出更強大的材料和更低廉的能源。(Drexler,2013)。在生物研究領域,甚至衰老也不是人類的永久性特徵,其他許多物理和認知方面的改進也可能出現(Kurzweil,2005)。

合作加強

如果更複雜的 AI 系統可以被合理使用,將可以通過加強合作解決很多目前被認為棘手的社會矛盾,比如與著名的「囚犯困境」類似的問題。

現在,隨著越來越多的社會和商業活動轉移到線上,使用 AI 系統可以幫助我們從海量的信息中監測人的活動,尤其是違法活動和交易,例如令人頭痛的槍支交易、偷獵、核武器擴散等。

第二,AI 還可以在監控系統和政府中排除人的偏見和腐敗,更精準地解決問題,因為這將人從決策過程中摘除出來。在更加極端的應用中,同態加密可以對加密數據進行分析,保證即使 AI 本身也看不到未加密的數據(Trask,2017)。通過這些措施,我們可以進行更廣泛的協議合作,這可能有助於消除多種形式的犯罪,並提高政府機構的效率。

更宜人的社會

最後一點,也是高級 AI 將會帶來的第三個好處,就是它可能會解鎖一個更加富有、更加宜人的社會。關於 AI 和機器人將會何時取代人類工作崗位的預測很多(Brundage, 2015; Brynjolfsson and McAfee, 2014; Grace et al., 2017)。我不知道這會在什麼時候發生,但只敢說這一天終將到來。然而,如果這一天到來了,我覺得目前約定俗成的社會契約將會發生變化。它可能以不同的形式表現出來,例如,也許市民和政府會就社會仍然需要有償勞動達成某種約定(雖然從技術上來說完全沒必要),例如禁止某些工種自動化。

但是,我認為一個 AI 驅動的,更加悠閑的社會將會到來。在這個社會中,人們會專註於其認為能夠獲得本質上提升的活動(如藝術、學習、玩遊戲、撫養孩子,或者和朋友愛人在一起度過時光),而無須為了獲得高質量的生活而拚命工作。由於自動化使得生產力提高,這裡的最低生活保障相比現在有所提高,許多物理上的界限將被打破,如認知提高和更廉價的能源和商品。

我們無法預測將來的社會究竟比現在優越多少,但肯定的是它一定比人類史上任何一個時期的生活水平要高,因為自動化幾乎可以完成任何任務,而且,虛擬現實技術也可以讓我們經歷任何想要的體驗。

結論:AI 規模化將大大促進人類繁榮和文明

漸漸地,AI 系統將能夠完成所有人類可以完成的任務(或更多)。我們不知道這會在什麼時候實現,也不知道有生之年能不能看到這個場景,以及我們是否能享受這樣的社會。實際上,現在我們已經製造出足以毀滅人類的武器(如核武器),而且很多人在討論 AI 會不會成為下一個毀滅人類的技術,但是沒有證據表明 AI 系統對於自己在這個系統中的地位有何不滿。在「烏托邦」和「反烏托邦」之間,一切皆有可能。

如果我們成功完成了轉變,我們還可以對預期中的社會有一些想像。上述討論的三點——任務探索、加強合作和更宜人的社會每一點都很重要,三者結合又是一條通往更加廣闊、公平、繁榮文明的道路。在一個 AI 可以協助完成任務的社會裡,一項會帶來巨大收益的任務是採用這項技術加速空間殖民,如此我們可以獲得更多的土地、資源和機會。結合其他一些任務探索的「新大陸」,如應用新的認知提高技術和更廉價的商品和服務,將為人類帶來另一次復興。雖然 AI 仍然可能被政府和個人用於相互對抗,但也可以用來解決國際糾紛,以防止其被惡意利用。

我們沒有理由拒絕這樣的復興,我們可能會因為 AI 帶來的利益分配不均而大打出手或捲入國際紛爭,原本以人類道德設計的 AI 系統最終導致了文化的停滯和人類文明衰弱,但是,考慮到上述 AI 將會帶來的好處,難道這些政治上的阻礙就這麼難以逾越嗎?

3.AI 和理性樂觀主義

這至少引起了兩個重要的社會問題:首先,人們不需要工作,只專註於自我提升,享受人生的社會應該怎麼組織;第二,如何從現有社會向這樣的烏托邦轉變,而不會在此過程中造成前所未有的經濟不平等和社會動蕩。

——Olle H?ggstr?m

樂觀主義

當我第一次看到這個詞「理性的樂觀主義」(rational optimism)時,我覺得這是一種矛盾修辭法,但是再仔細一想,我覺得理性的樂觀主義應該是這個意思:

對未來和不確定性有認知上的衡量標準,接受未來並不是刻在石碑上的定數這一事實,並且為我們的設想作出努力,因為美好的未來取決於現在我們的所作所為。

但是需要注意,我們的假設可能是錯誤的(或部分)。例如,也許我們的世界是如此混亂,以至於我們根本無法判斷今天的任何行動是否會增加人類未來長期繁榮的機會。如此,我們的行動就沒有意義了。但我們並不知道未來實際上會是怎樣的,所以我們的假設(暫時的)是有意義的,我們要弄清楚什麼行為會增加我們創造美好未來的機會。這種精神將貫穿全文。

人工智慧

和所有新興科技一樣,人工智慧也會帶來潛在的福祉和巨大的風險。關於福祉,管理諮詢機構 McKinsey & Co 2013 年曾發布一份報告,預測未來 10 年 AI 和機器人創新帶來的經濟價值將達 50 萬億美元(Manyika et al. 2013; Omohundro, 2015)。考慮到大數據這幾年的迅速發展,機器學習速率提高,我覺得這個數字低估了 AI 創造價值的能力。但我們應該認識到,經濟發展和生活水平提高不是一個概念,AI 會帶給我們多大的好處仍是未知。

AI 帶來的風險分幾種,其中最被人關注的是勞動市場,機器代替人的工作崗位將是一個新現象,而且不只是手工作業,腦力勞動也可以由機器代勞。長遠來說,在某種場景中,機器代替人類,導致 100% 的失業率並不是天方夜譚。這至少引起了兩個重要的社會問題:首先,人們不需要工作,只專註於自我提升,享受人生的社會應該怎麼組織;第二,如何從現有社會向這樣的烏托邦轉變,而不會在此過程中造成前所未有的經濟不平等和社會動蕩。

另一種風險來自 AI 武器的威脅。引用 2015 年我和其他數千名科學家簽署的公開信中的一段話:

任何一方重要軍事力量推進人工智慧武器的發展,全球軍備競賽就幾乎是不可避免的,而且這一技術軌跡的終點顯而易見:自動化武器將成為明天的卡拉什尼科夫。AI 武器不同於核武器,它們不需要昂貴或難以獲得的原材料,因此它們將變得無處不在,而且價格便宜,重要的軍事力量可以大規模生產這種武器。它們出現在黑市、恐怖分子和獨裁者手上只是一個時間問題。自動化武器是執行暗殺、破壞國家穩定、鎮壓人民和有選擇性地種族屠殺理想的工具。因此,我們認為軍事人工智慧軍備競賽對人類無益。

我們需要嚴肅對待這兩種風險(失業率上升帶來的經濟不平等和 AI 軍備競賽),意識到問題的嚴重性並想辦法解決。

超級人工智慧

第三種風險比前兩種看起來更加不可思議,但也並非不可能:與人類價值觀並不相符的超級人工智慧出現。

關於超級人工智慧有一個非常有趣的思維實驗 Paperclip Armageddon(曲別針末日):假設現在有一間由先進人工智慧控制的曲別針生產廠,程序設定它的任務就是最大化生產曲別針。然而突然有一天,程序突破了機器的界限,發生了智能爆發(intelligence explosion)或奇點(Singularity),它成為了世界上第一個超級人工智慧,之後它記住了自己最大化生產曲別針的目標,並不斷訓練自己,把地球上所有的東西都拿來生產曲別針,之後遭殃的是外太空,直至太陽系、銀河系,因為宇宙中所有的東西變成曲別針。

當然這只是一種設想,不過想告訴人們的道理很簡單:為了不讓 AI 失去控制,我們不能有任何不純的目的。但是,這個問題真的會出現嗎?我們把這個問題分成了兩部分:

(1)AI 會發展到創造超級人工智慧的水平嗎?

(2)如果超級 AI 出現,它會做什麼?會傷害人類嗎?

超級 AI 什麼時候會出現?

雖然目前人工智慧已經取得了很多成果,比如 AlphaGo、自動駕駛車輛等,然而這距離超級 AI 距離還很遠。其中一條通往 AGI 的道路是逐步擴大智能機器的應用領域。

有很多方法可以製作智能軟體,目前深度學習也十分火爆,很多比較「老」的神經網路技術也被證明十分受用,取得了不錯的成果。遺傳演算法、 GOFAI (「Good Old-Fashioned AI」) 等方法也許永遠都創造不了 AGI,但是它們之間相互結合起來產生意外的驚喜也不是不可能。但是,什麼時候呢?據全球被引用最多的研究者 Müller 和 Bostrom (2016) 的預測,2050 年將會出現達到人類智力水平的 AGI,而且 50% 的超級 AI 將於 30 年之內出現。但各家公司和專家給出的意見不一,我們沒必要相信他們任何一方的說法。

在布魯塞爾會議上,Peter Bentley 甚至說超級 AI 根本不可能出現!相信它會出現完全是不理性的(STOA, 2017 at 12:08:45)。他的立場是,所有 AI 系統都是針對具體問題而設計的,而且每一種演算法都需要艱辛的建造和訓練工作。

他的說法徹底否定了像人類大腦一樣,可以解決任何問題的演算法的存在。然而,他 100% 的確信這樣的演算法不存在也未免太武斷了。

超級 AI 會決定做什麼?

假如有一天出現了超級人工智慧,是不是會出現 AI 不受人類控制而自主做決定的一天呢?為了避免這種情況發生,一種方法是把 AI 限制在不能影響世界的基準之上,並只能通過人類小心翼翼維護的通道來進行交流,這被稱為 AI-in-a-box。這種方法現在已經得到 AI 安全研究的注意(Armstrong et al., 2012),然而研究傾向於認為這樣的任務對人類來說太過困難,而且只能暫時控制超級 AI。設想一下如果將來它們失去了控制,可以做任何想做的事,那麼,它們會決定做什麼事呢?預測並不簡單,但是的確有一種可以超越單純推測,更加可靠的框架存在,即 H?ggstr?m 提出的 Omohundro-Bostrom theory of ultimate vs instrumental AI goals (Omohundro, 2008; Bostrom,2012, 2014) ,它建立在兩個基礎定理之上:正交論(the orthogonality thesis)和工具收斂論(theinstrumental convergence thesis)之上。

正交論(粗略地)指出,幾乎任何最終目標都可以與所有高級智能兼容。基於這個想法可以構建自指悖論(如讓你的 智力保持在一隻生活在 2017 年的狗之下),但除此之外,它還包括你可以編寫任何目標功能讓你的 AI 嘗試進行優化。對 Omohundro-Bostrom 理論和 AI 未來學不熟悉的人通常並不認為像曲別針生產最大化這樣的狹隘目標本質上是愚蠢的,因為這表明超級智能 AI 不可能有這樣一個目標。但是這把智能與目標混為一談了:智能只不過是將世界指向特定目標的能力,無論這些目標是什麼。曲別針生產最大化對我們來說似乎很愚蠢,但這不是因為它本質上是愚蠢的,而是因為它與我們的目標相悖。

接下來是工具收斂論。人工智慧可能會採用各種工具目標,作為促進其達成最終目標的工具。工具收斂論指出,在廣泛的目標範圍內,人工智慧預計會採用很多工具性目標,其中一些是:

自我保護(不要讓他們拉掉你的電源插頭!),

獲取硬體和其他資源,

改進自己的軟體和硬體,

保留最終目標,並且

如果最終目標不符合人的價值觀,那麼保持低調(隱藏你的目標和 / 或你的能力),直到你可以輕鬆戰勝所有的人。

當我提出這個理論時,立刻遭到了 Pinker 的反對,他說道:

如果我們給機器設定了自我保護的目標,它會採取任何行動包括幹掉我們來保護自己... 避免這種情況的方法就是不要創造這種愚蠢的系統! (STOA, 2017,11:57:45)

然而,他沒弄明白我的意思,那就是 Omohundro-Bostrom 讓我們相信,足夠高級的智能更傾向於採用工具性目標中的自我保護,而不管是不是人類程序員下的命令。

4. 制定人工智慧憲章

我們應該提高目前政治力量實施規則的敏捷性、效率和系統性,發展更加正式和制度化的民主程序,甚至是新的政治模式。

——Thomas Metzinger

現在是時候將關於 AI 的討論從大眾推向政府機構層面了。許多專家認為,我們正面臨著未來幾十年的一個歷史轉折點,關於人工智慧的應用道德也迎來了一個歷史節點。因此,政府機構應該為了 AI 的健康發展制定相應的政策和限制。他們還必須創造出一個理性的,以證據為基礎的批判性討論過程,旨在不斷更新、改進和修訂最早的規範性約束。鑒於目前的情況,我們默認極少數人、大型私企和軍事機構是 AI 發展相關規則的制定者。因此,我們的目標就是積極整合儘可能多的來自社會各方的意見,並及時做出回應。

世界各地已經採取了許多不同的舉措,並且正在近期積極開展涉及人工智慧應用倫理、法律、未來社會文化、存在風險和決策等方面的調查。公眾對 AI 的討論激烈,甚至給人一種歐盟這樣主要政治機構無法對 AI 的最新進展和風險等問題做出及時反應的印象。因此,我們應該提高目前政治力量實施規則的敏捷性、效率和系統性,發展更加正式和制度化的民主程序,甚至是新的政治模式。

我列出了五個面臨著 AI 挑戰的最重要的領域並給出了我的建議,先從歐盟(EU)開始講起。

「逐底競爭」問題

我們需要建立一個全球級的 AI 研究安全標準。我們需要一個全球性的 AI 憲章,因為只有全球範圍內所有參與或投資 AI 研究的國家之間達成了協議,這樣的安全標準才會發揮效用。鑒於目前的經濟和軍事力量發展水平,AI 研究很可能會向安全標準更低、政治透明度較低的國家和地區轉移。如果能夠達成國際間合作,那麼就可以避免安全標準的「逐底競爭」(通過重置 AI 科學和產業研究機構的位置)。然而,考慮到現狀,這個問題很難解決。

建議 1:歐盟應立即制定歐洲人工智慧憲章。

建議 2:與此同時,歐盟應該制定引導全球人工智慧憲章的政治程序。

建議 3:歐盟應該投入資源以系統地加強國際合作和協調。應該盡量減少戰略上的不信任,並可以通過最廣泛的消極情景定義國家間的共同點。

第二個需要研究的領域可以說是由最緊迫的一系列問題構成的,而且被充分解決的幾率也很小。

避免 AI 軍備競賽

預防 AI 軍備競賽將比禁止核武器擴散的任務更艱難,更複雜,因為相關的研究不會只在大學校園裡進行。而且,如果人類一旦開始 AI 軍備競賽,這種競賽可能會是自動化的,到時候政治干預已經無能為力了。

建議 4:歐盟應該禁止在其領土開展任何關於攻擊性自主武器的研究,並尋求達成國際協議。

建議 5:對於純粹的防禦性軍事應用,歐盟應該給予符合人類道德和法律的 AI 研究最大程度的支持。

建議 6:在國際上,歐盟應該使用所有可用的外交和政治手段採取一項重大舉措防止人工智慧武器的出現。

第三個問題領域離我們還有相當遙遠,但是認知不確定性很高且潛在的風險可能非常大。

終止意識現象

Synthetic phenomenology 是「synthetic biology」的類比,指不僅創造出一般的智能,而且高級人工智慧擁有了意識和自我感覺。而在現有的政治程序中不存在關於人工智慧的規定,它們沒有法律地位,利益也沒有任何保障。為了做出符合道德的決定,了解哪些自然和人工系統可以產生意識、擁有感覺是非常重要的。

建議 7:歐盟應該禁止在其領土上旨在或導致意識現象的所有研究,並尋求達成國際協議。

建議 8:鑒於目前機器意識的不確定性和各方不同意見,迫切需要促進、資助和協調有關的跨學科研究項目(包括哲學、神經科學和計算機科學)。具體的相關課題包括有證據表明的意識、神經生物學和計算模型、自我意識和痛苦等。

建議 9:在基礎研究的層面上,需要促進、資助和協調關於具有意識體驗、自我意識和痛苦的非生物系統應用倫理的系統研究。

對社會凝聚力的威脅

我們無法保證未來不會出現我們現階段意識不到的、AI 可能帶來的威脅,因此,歐盟應該分配專門的資源,以應對將來可能出現的「未知的未知」。

除了大多數人能夠意識到的失業、社會階級化更嚴重等問題,AI 還會帶來其他破壞社會凝聚力、產生社會不安定的因素,如私有企業自動化控制社交媒體以吸引公眾眼球,或對信息進行加工影響政治走向。未來的 AI 技術將更加擅長對人類行為進行建模和預測,並可能會引起全球性風險。因此,應該小心對待任何 AI 的獎勵功能,以確定其不會對大眾造成直接或間接的傷害。

AI 目前只對一些私企利好,因此民主政治機構有責任投入資源,建立合理的機制,讓其普惠大眾,惠及全人類。

建議 10:在歐盟內部,人工智慧相關的生產力收益必須以公正的方式分配。然而很明顯,我們過去沒做到這一點,而且現存的經濟制度也與這一建議相悖。

建議 11:歐盟應該仔細研究實行無條件基本收入或消極收入稅政策。

建議 12:研究項目需要把針對受 AI 影響的人口進行定時技能和社會技巧再培訓的計劃提上日程。

道德研究

關於 AI 的一個非常難以定義的理論問題,是在什麼條件下應該決定放棄某項研究,終止一個研究項目的具體條件和場景是什麼?在一個集體決定並不現實和最有效,需要建立一個非全球專門合作的場景下,機構會如何處理不道德的行為?因此,歐盟應該在 AI 憲章中明文列明研究者應該在項目中應該遵守的道德準則。

當然,更加進一步的目標是研究社區本身應自覺形成一種對道德敏感的文化,理性、基於證據的研究和控制風險最小化應該成為研究項目的一部分,因為他們是處於最新發現的最前沿,對風險的了解最多,他們有責任為公眾安全做出努力。

建議 13:任何人工智慧全球憲章,都應始終輔之以具體的道德行為守則,以指導研究人員進行日常工作。

建議 14:我們需要培養新一代精通 AI 技術、自動化系統問題應用的倫理專家。歐盟應該有系統地立即向相關的政治機構投資,以培養未來需要的專業人才,而且要達到學術上的卓越性和專業性。

元治理和不斷擴大的鴻溝

另一個如今出現的問題是:現有的管理機構不足以應對新出現的挑戰;政府監督已經遠遠落後於科技創新。

在我看來,現有的管理結構正是這一問題的一部分:為了填補,至少是縮小不斷擴大的鴻溝,我們必須投入資源改變現有的管理機構。

「元治理」是指某一科技領域因為爆炸性增長而面臨治理上的風險和潛在的利益,管理這種治理風險的管理政策。例如,Wendell Wallach 曾指出,新興技術的有效監督需要政府機構強制執行和擴大的軟治理機制兩者相結合。

因此,Marchant 和 Wallach 提出了所謂的「治理協調委員會」(GCC,Governance Coordination Committees)。這是一種新型機構,用現有的政治機構協調和同步「治理戰略、行動、建議和機構的爆炸式增長」。AI 的 GCC 可以作為迅速興起的技術的「問題管理者」、信息交換所、預警系統和分析監測工具、國際最佳實踐評估員,並且還是一個倫理學家、媒體、科學家和利益相關者可以信賴的獨立機構。正如 Marchant 和 Wallach所說:「GCC 發揮的作用取決於其能夠扮演一個合格的經紀人角色」。

建議 15:歐盟應該大力投資於研究和開發新的管理結構,提高現有政治機構對問題的反應速度,以及制定新的規則。

說到底,大家對於人類是否應該畏懼 AI 還是爭執不下。但就像前文所說,我們永遠無法預測「未知的未知」,高級人工智慧將在未來扮演什麼樣的角色,是否會在某一天突然對自己在這個系統中的地位不滿而「奮起反抗」全都是未知,我們需要對這個問題保有討論的空間。

作者介紹

Peter J. Bentley, 英國倫敦大學學院;Miles Brundage,牛津大學 ;Olle H?ggstr?m,查默斯大學 ;Thomas Metzinger,古騰堡大學。

今日薦文


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI前線 的精彩文章:

春風得意馬蹄疾,AI作詩行不行?
Uber自動駕駛「殺人」,我們可以判演算法死刑嗎?

TAG:AI前線 |