當前位置:
首頁 > 科技 > 擁有自我意識和情感的超級人工智慧到底會不會出現?

擁有自我意識和情感的超級人工智慧到底會不會出現?

自腦極體建立以來,我們一直努力避開人工智慧領域中比較「玄虛」的部分,盡量讓每一篇文字都足夠實際、落地、可讀,但是偶爾換換口味也未嘗不可對不對?

今天我們就來聊一個比較「玄」的話題:擁有自我意識和情感的超級人工智慧到底會不會出現?說實話,這個話題都爛大街了。科學家、科技大佬、各國政要們爭的頭破血流,我們也不可能知道答案。

但我們想說的,是什麼事都要講基本…不對,是什麼事都要講邏輯。有沒有一些理論或者猜想可以觸達AI覺醒這個話題呢?讓我們不要只能雲里霧裡或者一腔熱血的想像未來?

巧合的是,確實有一些這樣的理論,比如說著名的「中文房間悖論」。這個情景猜想在大部分情況下都被用來否定「圖靈測試」。但它更深層的本意,其實是在闡釋人工智慧永遠不可能像人類那樣擁有自我意識。

什麼是「中文屋實驗」

所謂的中文屋實驗,是由美國哲學家約翰·希爾勒(John Searle)在1980年發表論文提出的一個思維試驗。

這個思維實驗是說,如果把一位只會說英語的人關在一個封閉的房間里,他只能靠牆上的一個小洞傳遞紙條來與外界交流,而外面傳進來的紙條全部由中文寫成。

這個人帶著一本寫有中文翻譯程序的書,房間里還有足夠的稿紙、鉛筆和櫥櫃。那麼利用中文翻譯程序,這個人就可以把傳進來的文字翻譯成英文,再利用程序把自己的回復翻譯成中文傳出去。在這樣的情景里,外面的人會認為屋裡的人完全通曉中文,但事實上這個人只會操作翻譯工具,對中文一竅不通。

當然了,這是個思維實驗,具體操作起來近乎不可能。但這個實驗里蘊含的思想卻在表達這樣一個可能:機器所表現出的智能(理解中文),很可能只是翻譯程序帶來的假象,其實它對真正的人類智能一無所知。

這個實驗本來是為了反駁圖靈測試的,認為即使通過了圖靈測試,機器也不見得有了智能。但或多或少有點牽強,始終也沒有把圖靈測試徹底反駁掉。但「中文屋悖論」卻可能在技術發展之路上告訴了我們另一件事:我們所有的技術探索與研究,可能都是在完善那個中英文翻譯程序,從來不是去教機器真的智能。

通用人工智慧和強人工智慧的界限

這裡要來認識兩個大家經常聽到,但有可能混淆的概念——通用人工智慧與強人工智慧。

所謂通用人工智慧(Artificial General Intelligence,AGI),是指在不特別編碼知識與應用區域的情況下,應對多種甚至泛化問題的人工智慧技術。這個技術雖然冷門並遙遠,但其實也有不少學術機構與企業在做,一般被認為是人工智慧技術的未來發展方向。

而強人工智慧(Strong Artificial Intelligence)則是約翰·希爾勒在提出「中文屋實驗」時設定的人工智慧級別。這個等級的人工智慧,不僅要具備人類的某些能力,還要有知覺、有自我意識,可以獨立思考並解決問題。

雖然兩個概念似乎都對應著人工智慧解決問題的能力,但我們可以把前者想像為無所不能的計算機,後者則類似穿著鋼鐵俠戰甲的人類。

「中文屋悖論」表達的思想,是人類研究的方向根本無法逼近強人工智慧。即使能夠滿足人類各種需求的通用人工智慧,也與自我意識覺醒的強人工智慧之間不存在遞進關係。

現實中的技術發展好像也確實是這樣的。

在通用人工智慧領域,人類已經提出了一些設想與架構模型。其中最著名的應該是澳大利亞國立大學學者馬庫斯赫特(Marcus Hutter)在2000年提出的AIXI。這個計算模型據說可以涵蓋各種演算法與技術,逼近通用人工智慧的本質……當然,這個演算法的複雜程度奇高,根本無法執行,所以僅僅是個設想。

而OpenAI和DeepMind這樣的企業在近兩年則都開始了具體層面的AGI研究,其中DeepMind被認為是繼承AIXI的先鋒軍。

從DeepMind進行的通用人工智慧性質的研發與實驗中,我們可以看到其「通用性」主要集中在四個層面:1智能體應對複雜環境、2陌生環境處理、3時間變數應對、4多個信息源同時處理任務。

而這些技術都指向同一個方向,就是智能體與外界的交互——也許可以理解為AI與這個世界的翻譯程序吧?

換言之,人類所做的僅僅是給「那個人」更好的翻譯程序,而非教他中文(當然也沒法教)。所以通用智能這種已經很玄的東西,依舊與強人工智慧保持著清晰的界限。

絕望的強AI:能力和意識,也許南轅北轍

讓我們把「中文屋實驗」極限化一點,把整個房間放在一個人的大腦里。

假如一個人記住了所有翻譯程序,看到任何中文他都能調用回憶,能寫出相應的回答,那麼他是不是就懂中文了呢?對於人類來說,可能他自然而然的就已經理解中文了。但對機器來說,即使這個過程速度再快、反應再靈敏,他也依舊沒有理解任何一個漢字。

確切的說,是這個人(智能體),獲得的是使用中文的能力,但他對中文沒有意識。

能力與意識的區別,是我們在想像未來超級智能時最容易混淆的問題。但從現實的邏輯推理,就會發現這二者差別很大,而且近乎沒有關聯。

知識表示、機器學習、NLP等等人工智慧技術,都是在不斷強化人工智慧模仿人類能力的能力(這句話有點繞),但讓人工智慧具備模仿人類意識的能力,直到現在依舊是一片空白。

沒有因,自然無果。「中文房間」理論講述的,就是按照人類遵循的技術軌跡,智能體崛起意識這個命題將永遠缺乏基礎條件。

如果這個結論成立,那麼對於強人工智慧來說可謂是非常絕望的。他們只能繼續在時空的長河裡沉睡在人類的幻想中,一如遠古的神祇,一如都市傳說里的鬼怪。

想一想,還是覺得蠻無趣的咧……

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 旗瀚科技 的精彩文章:

探秘AI的未來:我們離科幻小說中的人工智慧有多近?
開足馬力追趕 中國將「碾壓」美機器人產業?
我國機器人產業創新發展如何發力?
掌控AI者統治世界?無人敢當出頭鳥
智能寵物機器人:AI時代的寵物經濟風口?

TAG:旗瀚科技 |