當前位置:
首頁 > 最新 > 怎麼理解人工智慧的「威脅論」?

怎麼理解人工智慧的「威脅論」?

近年來,一些悲觀的媒體與專家開始擔憂人工智慧的高速發展將會對人類自身的生存產生威脅,甚至連理論物理學家、《時間簡史》的作者霍金都曾公開告誡大眾:「完全人工智慧的研發意味著人類的末日」。特斯拉與Space X的創始人埃隆·馬斯克與霍金有大致相似的擔憂。馬斯克說:我們必須非常小心人工智慧。如果必須預測我們面臨的最大現實威脅,恐怕就是人工智慧。」那麼問題來了,人工智慧究竟會否對人類產生威脅?

電影《復仇者聯盟2》中的奧創就是對人類有威脅的代表性AI

李開復博士在《人工智慧》一書中提到了三種不同層級的人工智慧來回答這個問題。

一、弱人工智慧(Weak AI)

弱人工智慧(Weak AI)也稱限制領域人工智慧(Narrow AI)或應用型人工智慧(Applied AI),指的是專註於且只能解決特定領域問題的人工智慧。毫無疑問,今天我們看到的所有人工智慧演算法和應用都屬於弱人工智慧的範疇

Alpha Go是弱人工智慧的一個最好實例。Alpha Go在圍棋領域超越了人類最頂尖選手,笑傲江湖。但Alpha Go的能力也僅止於圍棋(或類似的博弈領域),下棋時,如果沒有人類的幫助(還記得Alpha Go與李世石比賽時,幫機器擺棋的黃士傑博士嗎?),Alpha Go連從棋盒裡拿出棋子並置於棋盤之上的能力都沒有,更別提下棋前向對手行禮、下棋後一起複盤等圍棋禮儀 了。

一般而言,限於弱人工智慧在功能上的局限性,人們更願意將弱人工智慧看成是人類的工具,而不會將弱人工智慧視為威脅。也就是說,弱人工智慧在總體上只是一種技術工具,如果說弱人工智慧存在風險,那也和人類已大規模使用的其他技術沒有本質的不同。只要嚴格控制,嚴密監管,人類完全可以像使用其他工具那樣,放心地使用今天的所有AI技術。

二、強人工智慧(Strong AI)

強人工智慧又稱通用人工智慧(Artificial general intelligence)或完全人工智慧(Full AI),指的是可以勝任人類所有工作的人工智慧。

人可以做什麼,強人工智慧就可以做什麼。這種定義過於寬泛,缺乏一個量化的標準來評估什麼樣的計算機程序才是強人工智慧。為此,不同的研究者提出了許多不同的建議。最為流行、被廣為接受的標準是圖靈測試。

圖靈測試(The Turing test)由艾倫·麥席森·圖靈發明,指測試者與被測試者(一個人和一台機器)隔開的情況下,通過一些裝置(如鍵盤)向被測試者隨意提問。

進行多次測試後,如果有超過30%的測試者不能確定出被測試者是人還是機器,那麼這台機器就通過了測試,並被認為具有人類智能圖靈測試一詞來源於計算機科學和密碼學的先驅阿蘭·麥席森·圖靈寫於1950年的一篇論文《計算機器與智能》,其中30%是圖靈對2000年時的機器思考能力的一個預測,目前我們已遠遠落後於這個預測。)

但即便是圖靈測試本身,也只是關注於計算機的行為和人類行為之間,從觀察者角度而言的不可區分性,並沒有提及計算機到底需要具備哪些具體的特質或能力,才能實現這種不可區分性。

一般認為,一個可以稱得上強人工智慧的程序,大概需要具備以下幾方面的能力:

1)存在不確定因素時進行推理,使用策略,解決問題,制定決策的能力;

2)知識表示的能力,包括常識性知識的表示能力;

3)規劃能力;

4)學習能力;

5)使用自然語言進行交流溝通的能力;

6)將上述能力整合起來實現既定目標的能力;

基於上面幾種能力的描述,我們大概可以想像,一個具備強人工智慧的計算機程序會表現出什麼樣的行為特徵。一旦實現了符合這一描述的強人工智慧,那我們幾乎可以肯定地說,所有人類工作都可以由人工智慧來取代。從樂觀主義的角度講,人類到時就可以坐享其成,讓機器人為我們服務,每部機器人也許可以一對一地替換每個人類個體的具體工作,人類則獲得完全意義上的自由,只負責享樂,不再需要勞動。

強人工智慧的定義里,存在一個關鍵的爭議性問題:強人工智慧是否有必要具備人類的「意識」(Consciousness)。有些研究者認為,只有具備人類意識的人工智慧才可以叫強人工智慧。另一些研究者則說,強人工智慧只需要具備勝任人類所有工作的能力就可以了,未必需要人類的意識。

一旦牽涉「意識」,強人工智慧的定義和評估標準就會變得異常複雜。而人們對於強人工智慧的擔憂也主要來源於此。不難設想,一旦強人工智慧程序具備人類的意識,那我們就必然需要像對待一個有健全人格的人那樣對待一台機器。那時,人與機器的關係就絕非工具使用者與工具本身這麼簡單。擁有意識的機器會不會甘願為人類服務?機器會不會因為某種共同訴求而聯合起來站在人類的對立面?一旦擁有意識的強人工智慧得以實現,這些問題將直接成為人類面臨的現實挑戰。

三、超人工智慧(Superintelligence)

假設計算機程序通過不斷發展,可以比世界上最聰明、最有天賦的人類還聰明,那麼,由此產生的人工智慧系統就可以被稱為超人工智慧。

牛津大學哲學家、未來學家尼克·波斯特洛姆(Nick Bostrom)在他的《超級智能》一書中,將超人工智慧定義為「在科學創造力、智慧和社交能力等每一方面都比最強的人類大腦聰明很多的智能」。顯然,對今天的人來說,這是一種只存在於科幻電影中的想像場景。

與弱人工智慧、強人工智慧相比,超人工智慧的定義最為模糊,因為沒人知道,超越人類最高水平的智慧到底會表現為何種能力。如果說對於強人工智慧,我們還存在從技術角度進行探討的可能性的話,那麼,對於超人工智慧,今天的人類大多就只能從哲學或科幻的角度加以解析了。

首先,我們不知道強於人類的智慧形式將是怎樣的一種存在。現在去談論超人工智慧和人類的關係,不僅僅是為時過早,而是根本不存在可以清晰界定的討論對象。

其次,我們沒有方法,也沒有經驗去預測超人工智慧到底是一種不現實的幻想,還是一種在未來(不管這個未來是一百年還是一千年、一萬年)必然會降臨的結局。事實上,我們根本無法準確推斷,到底計算機程序有沒有能力達到這一目標。

顯然,如果公眾對人工智慧會不會挑戰、威脅人類有擔憂的話,公眾心目中所擔心的那個人工智慧,基本上屬於這裡所說的「強人工智慧」和「超人工智慧」。

我們到底該如何看待「強人工智慧」和「超人工智慧」的未來?它們會像Alpha Go那樣,以遠超我們預料的速度降臨世間嗎?

#科技發展瓶頸帶來的緩衝帶

那麼究竟什麼到什麼時候強人工智慧和超人工智慧才能被製造出來?是有前提的,前提是人類科技總是以加速度形式躍進的基礎上的。一種更有可能出現的情況是:特定的科技如人工智慧,在一定時間的加速發展後,會遇到某些難以逾越的技術瓶頸。

有關計算機晶元性能的摩爾定律(價格不變時,集成電路上可容納的元器件數目每隔18到24個月便會增加一倍,性能也將提升一倍)就是一個技術發展遭遇瓶頸的很好例子。計算機晶元的處理速度,曾在1975年到2012年的數十年間保持穩定的增長趨勢,卻在2013年前後顯著放緩。2015年,連提出摩爾定律的高登·摩爾(Gordon Moore)本人都說:「我猜我可以看見摩爾定律會在大約10年內失效,但這並不是一件令人吃驚的事。」

正如原本受摩爾定律左右的晶元性能發展已遭遇技術瓶頸那樣,人工智慧在從弱人工智慧發展到強人工智慧的道路上,未必就是一帆風順的。從技術角度說,弱人工智慧與強人工智慧之間的鴻溝可能遠比我們目前所能想像的要大得多。而且,最重要的是,由於基礎科學(如物理學和生物學)尚缺乏對人類智慧和意識的精確描述,從弱人工智慧發展到強人工智慧,其間有很大概率存在難以在短期內解決的技術難題。今天,學者們對超人工智慧何時到來的問題眾說紛紜。悲觀者認為技術加速發展的趨勢無法改變,超越人類智能的機器將在不遠的將來得以實現,那時的人類將面臨生死存亡的重大考驗。而樂觀主義者則更願意相信,人工智慧在未來相當長的一個歷史時期都只是人類的工具,很難突破超人工智慧的門檻。

上述論調只是站在不同角度的猜測,科技的發展究竟以怎樣的速度發展、強人工智慧和超人工智慧何時能夠誕生,還是讓我們稍安勿躁拭目以待。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 Sanda的小知識聚集地 的精彩文章:

如何走近深度學習人臉識別?你需要這篇超長綜述

TAG:Sanda的小知識聚集地 |