當前位置:
首頁 > 知識 > 郝景芳:當人更好,還是當 AI 化的人更好?

郝景芳:當人更好,還是當 AI 化的人更好?

智能產品正在變得更加智能,如果把時間線拉得很長很長,一直長到未來人出生後植入的人工晶元彷彿出生證明一樣成為標配,你就再也無法分辨誰是人,誰是 AI 化的人了。那麼這一天來臨時,人類會覺得當人更好,還是當 AI 化的人更好?

郝景芳在新書《人之彼岸》中構思了六個中短篇科幻故事,它們的主角無疑都是人與 AI。人與 AI 隔岸而望,作為理性的 AI,是否一定能把人類非理性的一套心理表徵學個差不多?在物理環境變成了智能產品的天下之後,人又該如何自處?六篇科幻故事之後,郝景芳用兩篇非科幻思考回答了我們關於 AI 的所有困惑。


與人工智慧相比,人類的可貴之處

如果機器學習這麼厲害,人工智慧什麼都能學會,是不是很快就要取代人類了?

可以肯定的是,目前的人工智慧還不是什麼都能做,我們離萬能超級人工智慧還有很遠的距離。

那是運算速度的問題嗎?如果晶元算力按照摩爾定律、指數增長一直持續,我們會不會很快達到智能的奇點?

我個人的觀點是,不完全是運算速度的問題,即便運算速度持續翻番,也還有一些階梯的困難需要一個一個地跨越。這些困難也許並不是永遠不可能跨越,但至少不是目前的演算法能簡單跨越的,而必須有新的演算法或者理論突破。

很多事物的發展是階梯狀的。我們往往容易從一件事的成功,推測未來所有事的成功,然而遇到了下一個挑戰,仍然需要新的等待和突破。

關於人工智慧這件事,人們的議論往往太過於「now or never」,要麼認為目前已經條件成熟,只要算力增加,就能奇點來臨;要麼認為這都是痴人說夢,機器永遠學不會人類的心智。但實際上更有可能的是,很遠的未來有可能做到,但需要翻越一個又一個理論台階。

「阿爾法狗」的強大是所有人工智慧的強大,它面臨的困難,也是人工智慧問題的縮影。「阿爾法狗」對一些人類認為很困難的問題卻覺得很簡單,對人類認為簡單的問題卻覺得困難。舉一個很小的例子。這樣一個問題:如果一個人從超市的貨架上拿了一瓶酒就跑出門,店員會做什麼?為什麼?它就會覺得困難,難以回答。

如果是一個人,會如何回答這個問題呢?人會覺得這個問題太簡單了啊,店員有可能會直接去追,因為要把店裡的商品追回來;也有可能會打電話報警,因為自己不想冒險;或者告訴老闆;或者喊路人幫忙。諸如此類。

但是目前的人工智慧會覺得這個問題很難,無法回答。原因主要在於以下幾個方面:

第一,是綜合認知的能力;

第二,是理解他人的能力;

第三,是自我表徵的能力。


第一個難點,綜合認知的能力。

這個問題對於我們每個人而言都是非常簡單的,頭腦中甚至一下子就能想到那種畫面感。但對人工智慧來說就是很難理解的。最主要的差別在於常識。

當我們理解這段話,我們頭腦中實際上是反映出很多背景信息,包括:

1. 他想喝酒;

2. 他沒有付錢;

3. 酒擺在超市是一種商品;

4. 從超市拿東西需要付錢;

5. 他沒有付錢就出門是違規的;

6. 他是想逃跑;

7. 超市店員有義務保護超市商品,不能允許這種事情發生。

在所有這些背景信息支持下,我們可以一眼辨認出這個動作畫面的情境。除了我們自然腦補的這些背景信息,也還是有一些小概率背景信息,有可能影響對情境的解讀。也許這個人是店主,有急事出門,如果是店主,自然不用付錢,店員也不會見怪, 但這種可能性不大。任何一個情境的解讀都需要大量常識作為背景信息。

常識包含我們習以為常的知識總和,包含我們對整個環境和經濟系統的理解。這些理解都太平常,我們就稱之為常識。人工智慧目前還沒有這些常識,它並不知道一瓶酒擺在超市裡和公園裡有什麼差別,也不知道超市買東西的慣例流程。從語法上說,從超市拿酒和從公園拿酒都是符合語法的表達,但我們知道,其中一個合理,另一個不合理。

你也許會說,這是因為機器缺少生活經驗,輸入經驗就可以了。我們這一次當然可以給機器輸入酒的含義、超市的含義、超市的購買規則、小偷的含義、店員的職責,但好不容易輸入了所有這些信息,會發現下一句話涉及大量有關街頭和交通的常識,依然要手動輸入。到了最後,整個世界的無數知識碎片我們都需要輸入,如何調用又成了問題。

「常識」經常被認為是區別AI和人的重要分野。「常識」是把各個門類信息彙集到一起、形成廣泛知識背景網的能力。這種能力我們人人都有,因而並不覺得稀奇,然而機器沒有,我們才知道其可貴。

為什麼機器難以具有常識?有多重原因,目前人們仍在嘗試去理解。首先的直接原因是,機器缺少物理世界的生活經驗,所處理的是人類的二手信息,對於周圍的物理世界沒有真實接觸,不知道什麼是可能的,什麼是不可能的。例如,「石頭放在雞蛋上」還是「雞蛋放在石頭上」只是詞語遊戲,對於 AI 沒有真實意義。AI 也不知道人繞房子一周會回到原點。

除了缺乏直接的物理世界的經歷,還有可能是更核心的原因,那就是人工智慧目前還缺少建立「世界模型」的綜合能力。

人類擁有「完形」認知的心理能力,能讓我們把碎片信息編製完整。這是一種高度統合的能力,我們能把軀體五感統合起來,共同構成對世界的感覺。同樣,人從各個方面得到的碎片知識也有一種統合的能力,大腦會把碎片粘貼起來, 把碎片之間的部分補齊,以期構成一個完整的知識世界。

事實上,人的「完形」並不僅是「拼湊」碎片信息,而是建立一個模型,然後用模型來理解碎片信息。「完形」是把信息連接成可以理解的圖景。中間有大片空白我們要「腦補」。我們能從驗證碼的碎點圖片中看出連貫的字母,而計算機程序做不到。我們能把沒有關係的人連接在同一個故事裡, 只需要想像一兩重關係,就能組成複雜的陰謀論。


第二個難點,理解他人的能力。

即便人工智慧未來能夠把各個學科的相關知識都學習到, 建構起「世界知識體系」,但在理解情境相關的問題時,仍面臨如何調用正確信息的問題。當一個人對另一個人生氣,應該從他們環境和背景的海量信息中調用哪些知識,來理解他生氣的理由?

對人而言,這不成問題,我們能非常容易猜測到,對生氣的兩個人而言,什麼是重要的因素,什麼是有可能導致他們憤怒的導火索。這主要是源於我們對人的理解,對我們自己和周圍人的理解,我們知道什麼樣的信息會引人興奮,什麼樣的信息會讓人沮喪。讀心的能力讓我們輕易做出推斷。

至少目前人工智慧還不具備這樣的能力。且不說理解複雜的場景,僅僅就「樹上蹲著五隻鳥,開槍打下來一隻,還剩幾隻」這樣的問題,它們也還回答不上來。它們無法推斷,鳥兒因為害怕,就會逃走。

正如著名心理學家、語言學家史蒂芬·平克所說:「如果不是建立在一個龐大的關於外部世界以及他人意圖的內隱知識結構的基礎之上,語言本身並不起作用。」缺乏對於他人心理的常識系統,使得人工智慧仍然難以「理解」人類日常的語言。

未來人工智慧有可能學會讀懂人類的情感和意圖嗎?

很多人都提到,目前人工智慧已經可以精細識別人類的表情,能夠讀懂人的情緒。是的,人類的情緒屬於一種外顯圖像,是比較容易識別的,這和識別東北虎、識別癌細胞類似,是圖像識別的一個範疇。但這和理解人的情感完全是兩回事。即便它們未來能從圖像上識別出一個人此時的情緒,想要「解釋」此人的情緒,也需要遠為複雜的對人心的理解。

也有很多人提到,人工智慧可以通過與人對話理解人的情感。但這實際上也離得很遠。目前它們能做的只是智能對應,當聽到人類說出句子 A,在語料庫中尋求識別匹配最合適的行為或回應。當你說「我不開心」,它們可以匹配說「多喝點熱水」,但不理解什麼是開心。如果想讓它們分析不開心的理由,推測不開心之後的做法,就遠遠不夠了。其中的差別可以形容為:人工智慧使用語言,是匹配句子和句子。而人類使用語言,是匹配句子和真實內心的感覺。

人工智慧識別人類情感和意圖,還有可能有更本質的困難,那就是人工智慧無法以自己映照他人。

人類識別他人的情感和意圖,並不是因為大數據學習。實際上人一生能遇見的人、交談和交往的經歷都是很有限的。人能夠從少數經歷中學到有關他人的很多情感和行為知識, 能直覺感知他人的心境,不是因為人類頭腦處理能力更快, 而是因為人類能夠以自己映照他人,將心比心。

最直接的映照,是鏡面反射。人腦中有一些細胞,能夠直接反射他人的行為意圖,叫作鏡像神經元。這種神經元不僅人類擁有,在較高級的靈長類動物頭腦中也有。當一個人看見另一個人拿起鎚子,自己即使手裡沒有鎚子,與「動手砸」相關的神經元也會「亮」起來。

這種「讀懂他人」屬於生理性質的,大腦對他人的意圖直接有反映,反映出來的意圖,可以被觀看者直接感受到, 因此叫「鏡像神經元」。人工智慧可能生成這種直接的反映嗎?缺乏生理共同點,應該不太可能。

另一方面,人們可以用自我觀察映照出他人的情感和意圖。面對一個情境的分析,人們可以把自己代入同樣的情境, 假想自己會有什麼樣的感情。能夠讓人悲歡離合的影視文學,就是因為人有代入感,才會讓人喜愛。這一方面來源於人類的情感相似性,都有人之常情,另一方面人可以通過讀取自己的心思過程,以己度人。

也就是說,人類對他人的理解,除了可以「外部觀察」和「語言交流」,還能有「內部觀察」。事實上,「內部觀察」是如此強大,我們對於很多從來沒見過的事情,只要代入自己想想,就能對其中的前因後果猜出個大概。現在的問題是,如果機器完全沒有類人的情感,僅靠「外部觀察」和「語言交流」,能達到同樣的理解他人的效果嗎?我不知道。


第三個難點,自我表徵的能力。

在上面,我們已經提到了自我觀察問題,但還僅限於理解情感方面。那如果不涉及情感方面呢?機器學習純理性知識總是無比強大的吧? 我們會看到,即便是在純理性知識方面,目前的機器學習也不是完美無缺的,其中之一就是「元認知」問題。

目前,即便是「阿爾法狗」下棋天下無敵,也有明顯的局限: 第一,它說不出自己在做什麼。「阿爾法狗」沒有對自我的觀察。它不知道自己正在「下圍棋」,而只是根據輸入數據計算勝利的路徑,至於是什麼遊戲的勝利,它並不清楚也不關心,勝利了也不會高興。第二,它說不出自己為什麼這麼做。「阿爾法狗」的「深度學習」,目前是一種「黑箱」學習。人們給它數據輸入,看到輸出,可是它不知道中間發生了什麼。人們覺得它奇著百出,不知道為什麼,非常神秘。而它自己也說不出自己是如何思考的。

從某種程度上說,人工智慧目前就像電影《雨人》中的那類自閉的孩子:一眼就數得清地上的牙籤、能心算極大數字的乘法、背得下來全世界的地圖,卻答不出有關自己的問題。它只懂研究每秒 300 盤的棋路,卻不知道「我正在下棋」這件事。

缺少元認知,首先是因為缺少「我」的概念。不知道有「我」存在,因此不能以「我」為主體表達事情。也因為沒有「我」的意識,因此從來不會違抗程序員的命令,只會服從。同樣也不能以「我」為中心思考高一層次的決策。

未來人工智慧有可能形成「我」的概念嗎?自我意識問題目前幾乎接近於哲學探討,還沒有好的科學研究結論。姑且不論自我意識問題,現在只討論,缺少元認知,對於變成超級智能有什麼阻礙嗎?為什麼一定要元認知呢?「阿爾法狗」不用知道自己為什麼贏,贏了不就行了?

最大的問題在於,缺乏元認知,有可能是抽象理解程度不夠的緣故。

「自我表徵能力」既涉及自我,也涉及表徵,表徵就是抽象表達信息的能力。舉個簡單的例子,對於同一件事的說法,最具象的表達是「10101010101010……」,稍微抽象一層的表達是「用某色棋子爭奪地盤」,再抽象一層的表達是「下圍棋」。最後一個層次不僅是對步驟的表達,更是對整個行為——我正在從事這個遊戲——的表達,需要跳出遊戲。每一層次抽象都需要一種更高層次的審視。

人類的認知特徵中,有不少仍是謎題,其中一種就是強大的特徵提取和模式識別機制。它如何產生,仍然有很多不解的地方。我們可以知道的是,大腦有多層調節機制,其最高層次調節具有很強的抽象能力。可能正是這種抽象能力讓兒童可以非常快速地識別物體。小孩子可以快速學習,進行小數據學習,而且可以得到「類」的概念。小孩子輕易分得清「鴨子」這個概念,和每一隻具體不同的鴨子,有什麼不同。前者是抽象的「類」,後者是具體的東西。小孩子不需要看多少張鴨子的照片,就能得到「鴨子」這個抽象「類」的概念。人類非常善於製造各種層次的概念,有一些概念幾乎所有人都懂,但實際上很難找到明確的定義、邊界或現實對應物,例如「蔬菜」 「健康」「魅力」「愛」,甚至是「智能」。壞處是易形成偏見,但好處是經常能夠敏銳地把握大類的特徵差異,用極為簡化的概念把握信息。

可以說,人工智慧和人類智能最大的差異或許是:真實世界與抽象符號之間的關聯性。人工智慧處理的是符號與符號之間的關係,而人類頭腦處理的是真實世界到符號的投影。

名人推薦

郝景芳在《北京摺疊》中展現出來的充滿魅力的想像力,在這本新書中同樣有漂亮的呈現。

創新工場董事長兼 CEO李開復博士

看到郝景芳的新書書稿,還是感覺有不少變化。她從前的文章有輕盈的色彩,而這一次,我看到更多故事情節的變化,有不少現實的關照,可以看得出,她一直在尋求突破自己。她的小說還是有很多有思想性的追問,構造出的世界也有著對人類的關懷。

《三體》作者劉慈欣

在郝景芳的第一部長篇小說里,她想像兩個被思維形式分開的世界以及一群在兩個星球之間的深淵裡掙扎的孩子。《人之彼岸》講的也是這樣的故事,但不同之處是這次被思維形式分開的兩個星球是人類智能的過去和人工智慧的未來,而掙扎的孩子是我們這一代人。如果你對人工智慧感興趣或焦慮,我建議你看這部書。這裡沒有麻痹心靈的雞湯,也沒有聳人聽聞的威脅論,你能看到的是建立在沉重的歷史情感土地上的後現代理性大廈,是利用百科全書知識音符類比升華出的無聲音樂,是一個在數字世界漫遊的詩人編織出的朝霞神經網路。在郝景芳的小說里,人工智慧是人類自我認知的試金石。

2012 年和 2013 年雨果獎得主劉宇昆

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 開智微播 的精彩文章:

3步寫出一篇地道的科幻小說

TAG:開智微播 |