當前位置:
首頁 > 最新 > 人工智慧到底會不會統治人類?

人工智慧到底會不會統治人類?

本期音頻:

亦可在喜馬拉雅網易雲音樂中搜索「心理朋克」訂閱節目哦^_^

今天這期節目是一期特別放送,我們來聊人工智慧AI。人工智慧這個話題在2016年的時候因為AlphaGo成為熱點,一直熱了一年多,到今年其實已經涼涼了。但是最近這段時間發生了兩件事,又把它給拉回到我們的視線里,所以咱們就趁這個機會說一說AI。

發生了哪兩件事呢?

首先是幾周前Google演示了它們最新的手機助手應用,在他們的演示視頻里,這個基於AI的手機助手已經可以用語音幫主人打電話啦,並且從說的內容到語氣幾乎都已經以假亂真,這把大家給驚著了。

第二件事,當然就是羅永浩的鎚子科技發布了一台號稱能革掉現在電腦的命的TNT工作站。TNT就是Touch and Talk,「手按住然後說」。羅永浩之所以搞出這麼個東西,他的出發點就是現在的AI水平,尤其是基於AI的語音識別其實是非常弱智的,如果你直接用語音跟AI下命令,那它往往錯誤百出,所以必須得先按住一個目標然後說話,通過鎖定目標大大減小AI的計算難度。

當然,這兩件事傳達出來的信息是相反的,一件是說人工智慧還很弱智,而另一件讓我們看到AI的智能水平正在快速進化。

那我想借著這波新聞講點什麼呢?我想講一講實現人工智慧的兩種思路。

這兩種思路的區分並不是一種專業上的說法,而是我自己看了一些資料之後的歸納。我當然不是人工智慧的專家,所以肯定也沒法跟大家講技術細節,我想講的其實是人工智慧大框架上的、很基礎的一些東西,我想大家也會對這些東西更感興趣。

那麼AI有哪兩種實現的思路呢?我把它們分別叫做:「效果模擬思路」和「機制模擬思路」。

「效果模擬思路」

先來說「效果模擬思路」。所謂效果模擬,就是說我只要在結果上模擬出人的智能可以做到的那些事情就可以了,至於內部怎麼實現的,是不是用跟人腦一樣的方式來實現,這個無所謂。

前些年大放異彩的阿爾法狗(AlphaGo)從本質上來說其實就是這種思路下的產物。阿爾法狗背後的基礎是這些年最引人注目的一種AI技術——深度神經網路(Deep Neural Network)。

這種技術從最根本上來說,是模擬人腦神經元的組織方式來實現智能(但你聽到這句話先不要以為它就是模擬人腦,我先說下去,等會兒解釋)。

深度神經網路的前身是一種叫人工神經網路模型(Artificial Neural Network)的程序。

下面貼了一張圖,是人工神經網路模型的一個例子:

下面我儘可能簡單地解釋一下人工神經網路模型的一些關鍵特性,這部分內容可能比我們節目平時講的東西略難一點,大家可能得豎起耳朵認真聽。

人工神經網路模型是這樣的:

大家從圖上可以看到,模型里有些人工神經元是負責編碼輸入的信號,有些負責輸出計算結果,還有些隱藏在輸入與輸出之間,負責信號的傳遞和轉化。

模型里的每個神經元只對接收到的信息做很簡單的運算。比如基於這樣一個規則:只要輸入的信號大於1,那就輸出1,如果不是,就輸出0。

這些人工神經元之間,以不同的強度連接在一起,也就是圖上每條線上都有一個表示連接強度的數字。

比如說,如果強度是0.5,而之前那個神經元輸出的信號是1,那麼通過這條線傳給下一個神經元的數字就變成了1*0.5=0.5。

而模型最關鍵的一點是,模型每輸入一次數據,神經元之間的連接強度(也就是那些線條上的數字)就會根據之前設定好的一個規則發生改變。這樣一來,AI專家就可以用大量的數據來調整神經元之間的這些連接強度。

一個模型一開始可能完全無法將輸入信號轉化成你預設好的輸出信號,但經過大量數據的「訓練」後,那些神經元之間的連接強度不斷地調整,輸出結果就會越來越符合設定的要求——換句話說,它會變得越來越「智能」。

大家在新聞里經常聽到說專家用幾百萬張圖片來訓練一個AI,其實就是這個過程。

這就是人工神經網路模型的基本概念。

而AlphaGo里這種深度神經網路,簡單粗暴地理解其實就是圖裡這種初級的人工神經網路模型的超級強化升級版,

它最大的一個特徵是中間層特別多,所以才叫「深度」網路嘛。

雖然乍一看,人工神經網路模型很像人腦里的神經元網路,但它們之間的相似點也就到此為止了。

在人工神經網路模型里,信號的傳導、神經元連接強度的調整規則都是基於函數與演算法,網路的連接形態也和人腦神經元的連接形態有很大差別。所以它與其說是對大腦的模擬,不如說更像是一種純粹的數學模型。它與人腦解決同樣問題的方式很可能是風馬牛不相及的。

這其實就是阿爾法狗的狀況:它的棋力遠勝過人類最強棋手,但它的「下棋思路」與人類棋手其實完全沒有關係。它只是產生了特別會下棋這樣一個看似很「智能」的結果,但它的實現機制,其實跟人類智能完全無關。

這也就是為什麼這幾年民間很多人擔心「哎呀,人工智慧再發展下去,會不會自我意識覺醒,然後統治人類啊」,但像Google的吳軍博士這樣的專家卻一點兒也不擔心這種事情,到處反駁這種AI威脅論。

因為在這些專家看來,按照以深度神經網路為代表的這種「效果模擬思路」發展下去,那麼即便AI會變得比現在還智能一百倍,那它也只不過是針對某一個特定問題的最優演算法罷了,它再怎麼發展,也不太可能會像人類這樣去「思考」,就更別提獲得「自我意識」這種特別玄虛的事情了。

但是(凡事都有但是),在「效果模擬思路」這種當前的絕對主流之外,還有另外一種現在好像很邊緣、但不可以忽視的思路,那就是「機制模擬思路」。

「機制模擬思路」

如果說「效果模擬」是曲線救國,那「機制模擬」就是硬碰硬啦。

這種思路是說:要讓機器獲得智能,那麼我們就得先弄明白真實人類的智能到底是怎麼回事,得先弄清楚人類智能、甚至是智能里最核心的那個東西——意識的本質是什麼,然後以此為基礎,在計算機里複製出人類的智能。

如果說「效果模擬」是一種旨在「解決問題」的工程師思路,那麼「機制模擬」就可以說是科學家式的思路了。科學家往往不考慮解決實際問題,而喜歡「探尋本質」。

目前,這種「非主流」思路最重要的代表,大概就是美國認知科學家、人工智慧學家侯世達(Douglas Hofstadter)了。

侯世達不是華裔,他的名字其實叫道格拉斯·霍夫施塔特,是美國印第安納大學藝術與科學學院的教授。他會一點中文,給自己取了這麼個中文名。

在侯世達看來,現在主流的AI研究雖然很強大,可是與真正的人工智慧沒有任何關係,而真正的AI,就應當建立在破解智慧本身奧秘的基礎之上。

侯世達

侯世達對智能本質的思考,集中體現在他的一本曠世名著《哥德爾、艾舍爾、巴赫:集異璧之大成》里,這本書也簡稱為GEB。

這本書在理工科的科研人員圈子裡知名度非常高,很多人也都有買過這本書,但我估計從頭到尾讀完的人不多,因為書里有些內容實在是有點晦澀,很多人都是把它當圖騰一樣供在書架上。

這本GEB里從頭到尾都是關於智能本質的各種深刻洞見。我們就拿智能最核心的那個東西——意識來說吧。如果我們擔心將來人工智慧會擁有意識,那麼擔心之前,我們首先得弄明白,意識到底是什麼。

每天早上當我們醒來的時候,意識就開始感知這個世界:比如今天陽光很好,我肚子餓了,昨晚做了個噩夢……。

這樣來看,意識好像可以定義成「人腦對物理世界和身心感受的映照」。

但這就是意識的本質嗎?並不是。

GEB里說,意識最神奇的一點,是它還可以映照意識自身,也就是「自省」或者叫「自我覺知」。

國內人工智慧學者張江在解讀《GEB》這本書的《一條永恆的金帶》這篇文章里這樣寫:

「自我意識的核心就是自我。自我並不是我所觀察到的外在事物,而就是這個觀察、意識本身。所以,我的身體、我的記憶甚至我的感受都不等同於我,真正的我恰恰不是所有這些有形的東西,而是體察、認識這些有形東西自身的能力。」

也就是說,意識的本質,可能就是「自指」(自己的自,指頭的指,自指,我這個南方人一說連著的翹舌平舌音舌頭就打結,理解萬歲)。

下面貼了《GEB》里大量引用的畫家艾舍爾的一幅名畫《畫廊》:

在這幅畫里,一個年輕人正在畫廊里欣賞一幅畫,而他面前的這幅畫里有一個畫廊。畫中的畫廊里也有一個年輕人正在欣賞著面前的畫作——也就是說,這位年輕人其實是生活在他正在看著的這幅畫作裡面。

畫作的內容,最後指向了它自己。也許這就是對意識本質最生動的描繪。

那麼,有沒有可能在計算機里寫出這種自指的程序呢?所謂自指的程序,就是程序輸出的結果與它的運行表現完全一致。雖然嚴格意義上的「自指」程序現在還沒有出現,但它在理論上卻是完全可行的!

那麼,這是不是意味著,如果有一天人類真的寫出第一個能夠「自指」的程序,那麼AI的自我意識也就在程序運行的那一刻覺醒了呢?理論上來說,有這種可能。

人類寫出的第一個自指程序,可能同時也就是世界上第一個人造意識。

所以,雖然這種在計算機里模擬出人類意識的路線目前來看顯得很邊緣,但如果它將來成為可能,那麼前面提到的那種對AI加害人類的憂慮就不能說是杞人憂天啦。因為按這種技術路線製造出來的AI,很有可能會真的擁有人類思維的核心——自我意識。

如果一台比人類聰明得多的機器擁有意識,那麼我們當然有理由擔心它對人類到底是善還是惡。

那這些就是我對人工智慧兩種實現思路的理解,一種模擬智能的效果,一種試圖破解智能的本質。希望這些內容對你理解人工智慧有幫助。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 心理朋克 的精彩文章:

TAG:心理朋克 |