當前位置:
首頁 > 最新 > 製造有意識的機器是可能的嗎?神經科學家說,yes!

製造有意識的機器是可能的嗎?神經科學家說,yes!

原標題:製造有意識的機器是可能的嗎?神經科學家說,yes!


授權轉自:心智與實在


作者:謝莉·范(Shelly Fan


譯者:王培


原文發表於SingularityHub,2017111

譯者序:


我一直不太認同意識與演算法等價的觀點,但這篇文章倒是讓我想讀一讀迪昂的這本新書,了解一下認知和神經科學在研究意識方面的最新進展。


我們不可能意識到我們不能意識到的東西。——朱利安·傑恩斯


"The Origin of Consciousness in the Breakdown of the Bicameral Mind"



與導演試圖讓你相信的不同,安德魯·嘉蘭(Andrew Garland)在2015年的電影傑作《機械姬》中的主角並不是迦勒(Caleb),一個年輕的程序員,他的任務是評估機器的意識。相反,迦勒要評估的機器艾娃(Ava)才是主角,它是一個長得酷似人類的AI,帶著孩子般的稚氣和高深莫測的心智。


與大多數跟大腦有關的電影一樣,《機械姬》留給觀眾的是開放式結局:艾娃真的有意識嗎?這種結尾方式很聰明地迴避了那個棘手問題:意識是什麼,機器能有意識嗎?而這一問題是大多數以AI為主題的電影不得不面對的挑戰。


好萊塢製片人並不是唯一被這些問題難倒的人,隨著機器智能飛速發展——不僅在諸如DOTA和圍棋方面超越了人類表現,而且還可以不在人類專家的干預下做到這一點——這些問題再次進入了主流科學的視野。


機器已經到了要有意識的邊緣了嗎?


最近,法蘭西學院的斯坦尼斯拉斯·迪昂、加州大學洛杉磯分校的哈克萬·勞(Hakwan Lau)以及巴黎文理研究大學的西德·庫韋德爾(Sid Kouider)等認知科學家在《科學》上發表了一篇文章,他們對這個問題的回答是:還沒到,不過已經有了清晰的前進路線。

理由是什麼呢?意識就是「絕對演算法」,這些作者寫道。他們從關於信息處理的各種方式中得出了這一結論,這使得把大腦當作硬體來製造具有了可能性。


意識沒什麼神秘的,沒有額外的驚訝——事實上,要想產生意識,甚至連問那個人人都熟知的經驗性問題都是不必要的:具有意識是一種怎樣的體驗?


如果意識純粹來自於三磅重的大腦中的演算法,那麼讓機器擁有意識就是把生物問題轉化為了演算法問題。


當今強大的機器學習技術就借鑒了神經生物學,作者們寫道,與此類似,我們也許可以通過研究我們大腦的構造來實現人工意識,而大腦能夠產生意識,並且是像計算機演算法那樣產生的意識。


從大腦到機器


毫無疑問,AI領域可以從我們的大腦那裡學到太多東西,不論是大腦的結構還是功能。


比如,橫掃人類的阿爾法狗背後所運用的深度神經網路就是一種演算法結構,它建立在多層次生物神經網的基礎之上,就像我們大腦的細胞自組織所形成的神經網路,只不過它的基礎並不那麼牢靠。


增強學習是「訓練」的一種類型,可以教會AI從數百外種案例中學習。它基於已有上百年歷史的技術,任何養過狗的人對它都不會陌生:如果狗做出了正確的反應(或得到了人想要的結果),就對它進行獎勵;或者讓它反覆嘗試。


從這種意義上講,將人類意識的結構轉到機器身上,似乎是一件很容易做到的事,但仍然存在著一個很大的問題。


在AI領域,沒人正在致力於打造有意識的機器,因為我們沒有理論依據,我們完全不知道該怎麼做,」在接受《科學》期刊採訪時,斯圖爾特·羅素(Stuart Russell)博士說。他是2015年出版的《人工智慧:一種現代方法》Artificial Intelligence: A Modern Approach一書的作者。

多層次意識


很早以前,我們就在思考如何讓機器具有意識。但難題在於,我們得先知道什麼是意識。


在迪昂和他的同事看來,意識就是由兩個「維度」構成的多層次結構:C1是大腦中已有的信息,C2是獲取和監控關於自我信息的能力。對於意識而言,兩個維度都很重要,是相輔相成的。


比如說,你正在開車,突然油量表的燈亮了,汽車需要加油了。在這裡,感知到油量表的燈亮了是C1——一種我們可以與之互動的心智表徵:我們可以注意到它,根據它採取行動(給汽車加滿油),並在日後回想和談論當時的場景(「我是開到郊區的時候沒油的!」)。


「我們想要從意識中區分出來的第一層維度就是全域適用性概念,」迪昂在接受《科學》採訪時表示。當你意識到一個單詞,你的整個大腦都會意識到它,他補充說,某種意義上講,你可以在大腦的所有模塊(區域)中使用這一信息。


C1不僅僅是「心智畫板」,它還表徵了整個腦部結構,使得大腦可以從我們的感知或相關事件的記憶中提取出多種信息模塊。


與潛意識過程不同,該過程通常依賴於大腦中處理某項特定任務的特定「模塊」(區域),C1是全域性工作空間,能夠讓大腦整合信息,決定採取行動,直到行動結束。


就像《飢餓遊戲》中所講述的,我們所謂的「意識」就是某個時點上的表徵,這種表徵贏得了進入心智工作空間的機會。獲勝的表徵分散在不同的大腦計算迴路中,並一直處於決策的聚光燈下,指導著人們的行為。


由於這些特徵,C1所代表的意識是高度穩定和全域性的——所有相關的大腦迴路都會被激發,作者解釋說。


對於一個像智能汽車這樣的複雜機器而言,C1是通往解決及時問題的第一步,比如,看見油燈亮了。在這一案例中,油燈本身就是一種潛意識信號:當它亮了,汽車中的其他部件還沒得到這一信息,汽車——即便它安裝了人工視覺處理系統——也會毫不猶豫地錯過加油站。

有了C1,油箱會對汽車電腦發出警報(讓油燈進入汽車的「意識大腦」),而這反過來又會讓汽車內置的GPS去尋找鄰近的加油站。


「我們認為,在一台機器中,C1可以被轉化為一種系統,該系統可以從任何一種處理模塊中獲取信息,並且讓這些信息適用於任何其他處理模塊,從而使得它們都可以使用這些信息,」迪昂說。「這是意識的第一層含義。」


元認知


從某種意義上講,C1反映了大腦認知外部信息的能力,C2則是進行內部反省。


作者們把意識的第二個面向,C2,定義為「元認知」,它反映了你是否知道或感知到了某個事物,或者你是否不過是犯了一個錯誤(「我認為我也許在上一個加油站加滿油了,但我忘了要收據,現在我不能確信我已經加了油」)。這一維度反映了意識與自我意識之間的關係。


C2是一種意識層次,它可以讓你對你做出的決定感到更有信心,還是更沒有信心。用演算法術語來講,它是一種演算法,可以算出一個決策(或計算)的正確概率,哪怕它通常被我們體驗為是一種「直覺」。


C2也有記憶力和好奇心。這些自我監控的演算法使得我們可以知道我們知道些什麼,或者不知道些什麼——所謂的「元記憶」,它負責對你舌尖上的美食留下記憶。監控我們知道些什麼(或者不知道些什麼)對於孩子而言尤其重要,迪昂說。


「小孩子絕對需要監控他們自己知道些什麼,以便做出進一步探索,變得更加好奇,從而學到更多的東西,」他解釋說。


意識的這兩個方面能夠給我們帶來協同效應:C1將相關信息拉進心智工作空間(同時扔掉其他「可能的」想法或方案),而C2通過長期反省幫助我們了解有意識的想法是否會帶來有益的應對之舉。


回到油燈的例子。C1可以讓汽車解決當前問題——這些演算法能夠讓汽車的各個零件響應該信息,從而讓汽車意識到這個問題。

但要解決這一問題,汽車還需要一個屬於它自己的「認知能力目錄」——它能意識到它可以利用哪些資源,比如,可以使用GPS去尋找加油站。


「擁有這種自我知識的汽車,就是我們所謂的擁有了C2,」迪昂說。由於信息具有全域可用性,並且由於信息能夠以機器自省的方式得到監控,汽車就會關注到油燈亮了,並採取像人一樣的行動——降低汽油消耗,尋找最近的加油站。


「當前最優秀的學習系統迴避了任何自我監控,」作者們注意到。


他們的理論似乎走對了方向。執行自我監控系統的幾個案例——要麼是通過演算法的結構,要麼是作為一個獨立的網路——已經讓AI產生了「內在的元認知模型,使得人類可以為它開發出(有限的、模糊的、實用的)自我認知。」


通往有意識的機器


擁有C1和C2的機器會像有意識的人那樣行動嗎?非常有可能:一台智能車將會「知道」它正在看某個物體,對自己感到有信心,並將這種信心傳遞給他人,並為遇到的問題找出最好的解決方案。如果它的自我監控機制出了問題,它可能會產生「幻念」,甚至體驗到與人類相似的視力幻覺。


由於有了C1,機器就可以靈活使用它所擁有的信息;由於有了C2,它就知道自己的認知局限,迪昂說。「我認為(機器)會有意識,」並且不僅僅是類似於人類的那種意識。


如果你認為意識遠不止是信息的全域分享和自我監控,那麼我可以告訴你,很多人都是這麼認為的。


「純粹從功能上去定義意識可能會讓一些讀者感到不甚滿意,」作者們承認。


「但我們的確試圖採納一種激進的立場,也許它可以簡化意識問題。意識是一種功能屬性,並且當我們持續將這些功能添加到機器,到了某個臨界點,這些屬性就會成為我們所說的意識,」迪昂總結道。


關於作者



謝莉·范是加州大學舊金山分校神經科學家,她研究讓老齡化大腦變年輕的方式。此外,她還是一個活躍的科普作家,對生物技術、AI和所有關於神經的事物著迷。她會在閑暇時間劃皮划艇,騎車露營,讓自己投身於大自然。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 哲學園 的精彩文章:

《哥德爾、埃舍爾、巴赫:集異璧之大成》神書姐妹篇
你沒見過的二戰三巨頭,他們是如何評價中國戰場的

TAG:哲學園 |