當前位置:
首頁 > 新聞 > 還原論方法無法解開意識之謎,理解意識需要整體考慮

還原論方法無法解開意識之謎,理解意識需要整體考慮

引言

Alva No? 目前是加州大學伯克利分校的哲學教授。他的研究領域集中在認知科學、分析哲學的起源、現象學、心智哲學、藝術理論、感知理論和維特根斯坦。


思想和評論

在科學領域,還原論(reductionism)的意思是發現複雜現象之下的機制,一種可能的方法是將其約簡成更簡單的組分。這種方法是很多已經發展成熟的研究領域的基礎,比如經典力學、化學等。比如在認知科學背景中,我們可以通過研究神經元的生物學機制來發現認知的奧秘。在工程領域,當前最佳的深度學習也受到了神經科學發現的啟發。

但是,No? 提出目前使用還原論方法來進行的神經科學研究遠遠不能理解我們意識背後的原理。在我看來,還原論也遠不足以構建出真正的人工意識機器。

他對意識的起源持有一種「行為性(enactive)」的看法,他也特別討論了視覺意識,幾十年來他一直都在積極研究這一主題。他的書 [1] 中談到,視覺意識應當源自與周圍環境的交互,而不是某種直接在我們的大腦中發生的作為單向視覺流的東西。因為它無法解決主觀視覺意識從客觀的電子和化學信號中產生的方式,所以我們必須將人腦和身體的不同部分視為一個整體,因為它們一起才能讓人擁有視覺體驗。類似地,當前最佳的深度學習方法也不足以解決視覺意識的奧秘,更不要說發展出人工意識了。

還原論方法無法解開意識之謎,理解意識需要整體考慮

大腦的模塊化理論已經被大眾廣為接受,該理論宣稱大腦的不同部分負責不同的任務。比如,視覺系統負責視覺感知,運動區域負責動作。我們在日常生活中也常常無意識地提到這一思想,比如某人可能會說「那傢伙腦子裡負責看東西的地方壞掉了吧?」在這個句子中,人們假設大腦里有一個區域是負責看東西的,而不會做其它事。但是,正如 No? 提到的 Hubel 和 Wiesel 案例(這是他們的一項後續研究),研究者發現「兩個視覺流」中的背流(dorsal stream)實際上提供的是與視覺輸入協調的動作的轉換。另一方面,視覺系統(以及其它的感知)不可能是獨立的,還依賴於身體的運動和指引 [2]。

還原論方法無法解開意識之謎,理解意識需要整體考慮

但是,回頭看看當前的 AI 應用,比如自動駕駛汽車、Facebook 自動推薦或圖像識別,它們都遵循簡單的輸入輸出映射模式;即 AI 演算法會學習並嘗試尋找輸入和最優輸出之間的最佳映射函數。在深度卷積神經網路中,分類和感知都是作為同一網路的一部分而訓練的。當訓練足夠時,這些網路能夠將(准)符號表徵(目標類別)與相機感知到的圖像像素鏈接起來。如果我們使用 CNN 構建一個人工智慧體(比如機器人),那麼符號表徵就永遠不會為該人工智慧體本身提供任何意義。「番茄」或「籃球」究竟是什麼?它們有相似的外形,但它們能為人工智慧體做什麼?所以 CNN 網路也是一種單一的模塊網路,只能處理視覺信息。如果我們想要構建對這兩個目標的視覺意識,No? 的觀點是:只有當人工智慧體理解視覺目標所處的真實世界的形境(context)時,這些符號表徵才具有意義。

另外,還出現了 AlphaGo,儘管它沒有實際的身體,但它還是擊敗了世界冠軍。儘管強化學習本身是一種通過物理交互探索外部世界的出色方法,但不幸的是 AlphaGo 中的深度強化學習僅被用於探索圍棋的最優下法。因此,根據 No? 的觀點(本文作者也同意),這不過就是一個桌面計算器。強化學習演算法是一種優良的工具,讓我們可以通過我們的行為探索世界,並由此發展出感知意識。AlphaGo 本身只是先進強化學習演算法的一個優良測試平台,但卻沒有身體,無法通過感知和動作來探索世界,它永遠無法理解圍棋的每一步的意義。

根據 No? 的感覺運動偶然性理論(sensorimotor contingency theory),我們應該從整體角度理解我們的大腦,而不是將其理解成分離的。比如,感知和動作有類似定律的規律,不能被分開。我們的運動動作的影響會導致感知世界發生改變,而且我們的這些行動也能幫助我們真正了解我們感知的是什麼物體。簡而言之,我們會通過採取行動來為自己提供更好的感知,這能提升我們對世界的理解,然後提升我們採取行動的能力。通過構建這些感覺運動技能,我們得到了理解世界中的事物和規律的智能。然而,目前當前最佳的 AI 還缺乏這樣的能力。

因此,在理想情況下,也許我們可以構建一個嘗試接住飛來的籃球和測試番茄柔軟度的機器人,以便其真正理解(即有視覺意識地理解)番茄和籃球之間究竟有何不同。


Alva No? 的原始文章

如果你停下來思考一下,你能通過一個複雜系統中某些部分的詳細描述來理解該系統,這個想法實際上是很不切實際的。

如果你只關注單個鳥的內部情況,你不太可能非常了解鳥群行為組織的原則。而且你也不太可能通過研究羽毛的性質來搞清楚鳥飛行的方式。

第二個例子來自視覺科學先驅 David Marr,並且他也在拒絕視覺理論的神經還原論的背景中推進了它。為了理解我們觀看事物的方式,他相信需要思考動物在觀察事物時所採取的行動。視覺的任務是什麼?視覺是為了什麼?只有在那時,有了在動物及其需求和興趣層面的現象的描述,我們才能問:我們(或自然)可能怎樣構建出能夠執行或實現這一功能的機器或動物?而且只有到那時候我們才能去了解:單個的腦細胞有怎樣的貢獻來實現這樣的整體成果?它們會不會無法做出這樣的貢獻?

有意思的是,Marr 的著作發表之時,David Hubel 和 Thorsten Wiesel 剛好也因他們在哺乳動物視覺系統中的信息處理的研究成果獲得了諾貝爾獎。基於幾代科學家的研究成果,他們發現了貓和猴的細胞的感受野(receptive field)。用非專業術語說,他們發現不同細胞會被調整到對單一一種刺激的響應更好(比如線、條紋、運動)。他們沒有提出也沒有回答一個隱約顯現的問題:單個神經元構成的迴路何以創造出有意識的視覺體驗?這個問題有一個答案——某種版本的還原論思想;可能不僅 Hubel 和 Wiesel 想當然地採用這一思想,而且那些評估他們的研究是否值得科學領域最高獎項的科學家也想當然地採納了這一思想。

事實上,我們仍然不了解大腦中的視覺意識是如何產生的。而且我們可以回到 Marr 的書,了解一下可能的原因是什麼。我們根本就不能通過了解單個細胞的運作來理解整體(不只是大腦,而是整個生物體)的情況。在將感受野用於理解或解釋任何事情之前,還有許多概念性的工作要做。

我和其他人已經探討過這個問題一段時間了,但對大眾的認知還沒有產生什麼明顯影響。現在有「大腦年」、「大腦的十年」、「連接組計劃」、「腦計劃」等等。所以出現了一個值得提及的事件——也許是一個真正具有歷史意義的事件:一組來自世界各地的頂尖神經科學家聚首一處在《Neuron》期刊上發表了一篇意見文章(doi: 10.1016/j.neuron.2016.12.041):呼籲神經科學「糾正還原論的偏錯」並擁抱「更多元化的神經科學」。

記得嗎?Hubel 和 Wiesel 因在貓和猴大腦上的單細胞電極研究而獲得了諾貝爾獎。那時候可用的僅有的另一種研究大腦的工具是屍檢。自那以後,研究活著的人類和其它動物的大腦的技術和方法經過了爆炸式的發展,出現了 fMRI、PET 和其它成像工具,甚至還有更新的基因操作技術和個體發生迴路控制(ontogenetic circuit control)。將這些新的發現技術與大數據和越來越高的計算能力結合起來,卻讓研究進入了理論或解釋性的死胡同。更多信息並不意味著更多知識。無法被理解的數據就只是雜訊而已。實際上,這比雜訊還糟糕。這是偽裝成見解的雜訊。

每個人都知道無法在單個細胞中找到意識。但現在我們有工具可以從時間和空間上建模分散式的細胞群。我們當然可以在這些更大的集群中找到心智的核心!在我們知道問題是什麼之前,我們不太可能發現任何東西。(或者我們會發現某些東西,但毫無頭緒那是什麼,就像哥倫布到達美洲時,他認為他到了印度。我舉這個例子是因為 Hubel 在 1981 年的諾貝爾獎獲獎辭中將他與 Wiesel 的研究比作是哥倫布的探索。)

在《Neuron》上發表那篇文章的 John Krakauer 等人並不是悲觀主義者——並不比 Marr 更悲觀。他們提到,要理解人類心智或非人類動物的心智,我們需要研究大腦之外的情況,去了解動物的行為,也就是動物生活和行為的方式、面臨的問題、所處的環境等。這不僅僅是分子生物學的問題,而是整個生物學的問題;這不僅僅涉及神經活動,也關乎認知和意識。在我們仔細研究行為之前,我們將無法理解大腦實現心智的方式。

哲學不是也從未成為過哲學家的認知屬性。科學需要哲學,不僅是科學家應該關注哲學家的工作,而且甚至更重要的是至少有些時候(也許是出現危機的時候)需要科學家來研究哲學。他們需要自己去質疑他們的預設前提以及做困難的概念塑造工作,以為他們自己設定更可靠的基礎。我很讚賞這些科學家對價值的理解——為了他們的科學研究,他們需要設定框架以及為他們的研究方法設定更好的背景。

科學從來都不只是信息或數據。科學的目標是理解,是知識。通過呼籲拒絕想法簡單的還原論以及鼓勵腦科學家思考理解生物體與其周遭環境和生物體內部情況之間的關係,這些神經科學家能在建立適當的認知和意識神經科學方面邁出重要的一步。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

Waymo首次公開自動駕駛技術:讓AI學會「危機想像力」
NeurIPS 2018最佳論文出爐:UT陳天琦、華為上榜

TAG:機器之心 |