當前位置:
首頁 > 最新 > 連線雜誌:如何造一個有自我意識的機器人?

連線雜誌:如何造一個有自我意識的機器人?

科技行者報道

來源:wired.com

編譯整理:科技行者

宇宙中充滿了一些非常酷的東西:例如,每一小匙重達一噸的中子星,連光都能吞噬的特大質量黑洞,恰好能夠流穿過脫氧鋼的無窮小的中微子,以及地球上那些奇異的動植物們…不過,在宇宙所有已知的事物里,最神奇的莫過於人腦。

人類大腦能夠了解中子星,了解黑洞、中微子,以及地球上眾多的動植物。人類大腦能夠計算出數學真理,能夠辨別出道德上半真半假的陳述,也能夠思考出哲學上的模稜兩可。它能夠從我們腳下的泥土中,提取出原材料,構建城市,能建造汽車、飛機和火箭,以及有線和無線信號,並將這些迥然不同的「意識」匯聚成創造力、知識、甚至是殘酷行為的「母巢」。

如果說我們的大腦是宇宙中最酷的產物,絕不會引起爭論,畢竟如果沒有大腦,也就不可能有這些爭論。它們是所有爭論和辯論的基礎。

至少到目前為止,大腦是宇宙中最酷的東西了。或許將來有一天,人類會發現或創造出其他能夠去發現、創造、爭論、討論、哄騙的事物,它們可能來自於遙遠星球的飛船(這種可能性微乎其微),也可能會出現在某個實驗室里(這一點幾乎是可以肯定的)——而一些人認為,這些新型「會思考的機器(thinking machines)」可能發生在人工智慧里。

人工智慧早在六十年前已經問世。在世界各地的實驗室,小巧可愛的AI們正煥發著生機。有的AI下棋可以勝過人類最強棋手,有的AI正在學習駕駛一百萬輛汽車行駛一百萬英里,而有的AI正在學習拯救更多的生命,甚至超過大多數醫生或急救醫護人員在其整個職業生涯拯救過的生命數量,有的AI會確保我們的餐具乾燥且無污漬,或確保我們的衣服穿著得體且沒有起皺。人們正在打造無數的人工智慧,為其編寫程序,它們只會變得更加智能、更加無處不在,它們會變得更好,但它們永遠不會像我們人類一樣。而這是一件好事。

我們的自我意識程度是將人類與地球上其他生命形態區分的關鍵所在。大多數動物是有意識的,甚至有許多動物是有自我意識的,但是人類擁有的是高度的自我意識。人類的大腦中有一個連接到我們意識的放大器,並且轉到了最大值。

在人工智慧領域,充斥著各種對人類智能的不同特性的複製或模仿工作。其中他們必做的一件事是,複製人類意識的打開方式。也許從人工智慧研究中,我們收穫的最佳產物不是對計算機的理解,而是對人類自己的理解。

因此,我們不妨大膽設想一下,具備自我意識的機器人的打開方式,我們暫且把它稱作一個藍圖。

「藍圖」三要素

一個有自我意識的機器人聽起來很簡單,實則很複雜,我們需要:

機器身體或設備對外界刺激作出回應。這就好比是一輛車在感覺到下雨時會啟動擋風玻璃刮水器,或是當車前經過一個孩子時汽車會剎車一樣——然而這些都不是問題,因為這些我們都已構建好了。

其次,一種語言引擎。(這同樣也不是什麼問題。它可以通過在汽車上裝數百種不同的指示燈來實現,也可以選擇在語音識別系統,如IBM Watson、訊飛聽見)。

第三項也是最後一個組件則有一點不同尋常,這是一個獨立於機器的組件,用來觀察機器身體的其餘部分並發出行動指令。

綜上,我們需要三個要素:(1)會對刺激因素做出回應的身體;(2)一種通信方法;(3)一種演算法,用以推斷出這些通信的原因和動機。

機器思維與人腦思維仍相差甚遠

要理解人類意識,我們需要深入研究心理理論(Theory of Mind)。不過遺憾的是,這個概念是模糊的,因為它在我們的日常生活中消耗了我們大部分的計算能力——我們的大腦一致都被認為幾乎與心理理論機器一樣。那麼心理理論到底是什麼?

說白了,心理理論是一個人的大腦試圖了解另一個人的大腦在想什麼的一種理論,是個體對他人心理狀態及其與他人行為關係的推理或認知。例如,小紅想知道小明在思考什麼,於是小紅就會對小明當前的思想狀態創建理論進行推理,這樣做是為了猜測出小明下一步要做什麼。

在這個例子中,我們暫且把「小紅猜測小明在想什麼」稱之為一級心理理論,它也將變得越來越複雜。小紅也可能會很好奇小明是怎樣看待她的,這就屬於二級心理理論了,它是人類大多數的神經症和想法固執的根源。「小明認為我聰明嗎?」「小明喜歡我嗎?」「小明會希望我受傷嗎?」「小明是因為我做了什麼才變得心情好或心情壞嗎?」這類問題我們聽起來或許會覺得很熟悉,畢竟我們的生活中充滿了這樣的想法。而這僅僅是一個開始。

如果小紅想知道小明對於露西對湯姆的想法有什麼看法,那麼這就屬於三級心理理論了。再簡單地說,湯姆知道露西喜歡他嗎?或者,小紅可能想知道露西認為小明對小紅有什麼想法。這樣聽起來已經開始有點混亂,畢竟摻雜了好幾個名字,並且都用「思考」這個詞將其連在一起,但這恰恰就是我們的思想比任何其他層面上的意識思考更加迷人的所在。我們幾乎無法停止這樣思考。我們可以將其稱之為閑聊或社交活動,但我們的大腦認為這是它們的主要職責——也是它們的主要功能。有人推測,心理理論而非工具的使用,是一開始造成我們的人腦相對大小的原因所在。

以上聽起來頗有些哲學範疇了。而在橫衝直撞的人類世界裡,人腦良好的處理能力可以計算軌跡,形成一種意識,試圖了解另一個人的大腦在想什麼,因此有人發明了一個拋物線式的公式:F=ma,速度的平方。

不光是人類意識,大量研究表明,許多動物呈現出了不同程度的自我意識。譬如,動物可以辨別出鏡子里自己的臉。動物和其他動物會就如何解決一個難題進行交流,然後獲得雙贏。甚至有大量證據顯示,章魚也擁有自我意識。但是,正如獵豹是陸地上跑得最快的動物一樣,人類是心理理論界的皇后與國王。

我曾經看到過我的狗在觀察我並猜測我接下來要做什麼。它或許在想,我是要把棍子扔掉呢還是不扔?我是要把最後一口食物吃掉呢還是分享給它?我甚至還見過狗狗在設法解決二級心理理論的問題。當它與一個小夥伴玩耍時,它就會來估計我的意圖是什麼。我突然打開包了嗎?或者這是另一個遊戲?我的狗應該站哪一邊?在動物世界裡,狗是一個很好的心理理論例子,因為狗經過多年的進化,與人類接觸的比較多,漸漸學會了一些人類行為線索。

隨著機器人已經成為我們馴化的夥伴,要發展擁有自我意識的AI,就要繼續密切關注這個模型。他們中的一部分機器已經開始試圖猜測人類的想法,以及人類下一步會做什麼了。目前已經有人在開發一種汽車:能夠通過識別用戶臉部表情來確定用戶的注意力在哪裡、是否昏昏欲睡,這屬於一級心理理論,目前已被應用於上路的自動化駕駛汽車。

然而,對這些能力的進一步發展並不會引起自我意識的產生。下文有一個非常簡單的原因解釋了人類意識的神秘,儘管我們如今可以很輕鬆地在實驗室里製造出「有意識」的機器,但並非有「自我意識」或「類似於人類意識」。

人腦模塊之間並非協同工作,這正是機器的誤區

與我們理解的相悖,人腦不是一個單一的、完整的實體,而是一個集成了成千上萬不同模塊的中心,只有極少的部分互連。我們喜歡把大腦比作一個計算機晶元,甚至進一步將其精確地想像成一台電腦,有著獨立的中央處理單元,將RAM(短期記憶)、硬碟(長期記憶)、冷卻風扇(自主神經功能)、電源(消化)等等分離開來。

這雖是一個有趣的類比,但也是一個不可思議的誤導。電腦是一個有著一體化標準設計的精密設備,各個部分的幾乎都是出於同樣的目的在同一時間設計,而且他們的設計目的在於與其他電腦能夠協同工作。但這些都與人類思維毫不類似,甚至相差甚遠。

人類思維更像是華盛頓特區或大型公司,龐大而複雜。大腦的某些功能在數億年前便已建立,例如它可以為單個細胞提供能量,也可以通過細胞膜提供鈉和鉀。而幾百萬年前建成的神經元,可以確保血液的注入和氧氣的吸入。大腦里的每個模塊就像是一個擁擠的城市裡一個個單獨的建築一樣。其中的一些模塊甚至與其他模塊完全沒有交流。血液循環系統和呼吸系統可自由發展,但其他系統很容易發生爭吵、抬杠、異議、對其他系統造成破壞等,致使身體出問題。下面是一個例子:

幾個月前,我和女友從加拉帕戈斯群島動身去法國玻利尼西亞,需要花費兩星期到一個月的時間來穿越這片3000英里的大海。我女友不常暈船,但在南太平洋一個稱為輻合區的區域,洶湧的海面使我們的帆船進入了奇怪且不平穩的節奏,她感到非常難受,而這種可怕的感覺持續了幾天。

暈船就是我們的大腦模塊之間不與彼此交流(或自己做自己的事)的一個例子。當我們周圍環境運動的視覺線索與我們的內耳(感知平衡的所在)發出的信號不匹配時,大腦就會認為我們被人投了毒。而毒素會擾亂我們的大腦處理,導致其無能、產生異常數據,我們又不是水手,所以當我們看到的與運動不匹配時,我們的身體會認為我們已經失去了用兩條腿保持平衡的能力,結果就是,我們清空了腸胃(去除了毒素),並躺下來,完全不想動彈(這阻止了我們因搖晃而從高處摔倒,從而導致死亡的可能性發生)。

將人類大腦比作完美設計的台式電腦,這種類比顯然很失敗,而這個失敗的比喻將會引起一些可怕的立法和社會習俗的出現,因為我們似乎不能容忍與不同於我們自己(或平均水平)的設計。如果他們想要模仿人類行為的話,它還將會把人工智慧研究者引向錯誤的方向,不可靠且雜亂脫節的自然處理系統將不得不通過設計內建,我們也將不得不故意打破系統,將它們自然隨意地拼湊在一起。此外,我們還要模擬一個該模塊最奇特的功能,它用一種非常特殊的方式結合了心理理論。而正是這種結合引起了人類意識的產生,在我們為有自我意識的機器打造的藍圖中,它是最重要的一項功能。

機器還犯了一個最重要的錯誤

有了心理理論的概念,以及大腦模塊之間是不可靠且分離的這些知識,我們已經準備好去理解人類的意識,探索它是如何出現,以及它為什麼出現了。

就這一點指出了一個簡單的事實:人類意識並不是任何一種實物,它的出現沒什麼目的,也不會因進化而產生規模效益,但是在人腦的某兩個獨立模塊都非常有用時,它出現了,因此自我意識出現了。

其中的一個模塊是心理理論。而前文已經提到,心理理論將比任何其他高級的神經活動消耗更多大腦處理能力。而它又極其重要。因此這個模塊存在的問題在於,它不能用它的力量(心理力量)做選擇,而是將心理理論能力轉為身體指令。譬如,人覺得太冷就會起身調高空調。

fMRI機器的受試者展現出了一個心理理論特質。在實時觀察他們的大腦時,我們可以看到,每下一個決定,都在大腦的更高層次模塊意識到這個決定之前就做出了。過程大概如此:做出行動然後觀察自己行動最後告訴自己為什麼會這樣做(過程中,非常有用的心理理論工具仍將繼續運行,並整理自己的行動)。

更為明顯的例子來自於各種神經系統障礙患者。測試對象要麼是在視覺處理上有問題,要麼是兩個大腦半球之間是斷絕的,致使其每隻眼睛可以顯示出不同的圖片。例如,他們的一隻眼睛會看到一個耙子,而另一隻眼睛則會看到一堆雪。而他能夠看到耙子的那隻眼睛實際上是失明的,但由於模塊處理的圖像仍然是活躍的,所以當測試者被問及他所需要處理的圖像(看到雪的那隻眼)看到了什麼時,他會回答看到了「耙子」。是不是很有趣?然而真正有趣的是,儘管我們已經將整個過程解釋給了他們,這個人依然認為自己的答案是對的。

也就是說,執意建立一個有自我意識的機器,可能在浪費時間,也因此讓我認為所謂的「人工智慧威脅論」可能性極小。我能想到構建這樣機器的唯一原因,就是要僱用更多的精神病學家。

「藍圖」回顧

回顧整個藍圖的起因,曾有一個艾倫·圖靈的圖靈測試粉絲找到我,她認為建立自我意識的機器將產生一種超級智慧的頭腦,能夠給出治癒癌症以及冷核聚變的方法,那麼我們要如何實際組裝出這個具有自我意識的機器呢?

應用我們所知道的頭腦理論和不相連的模塊,我們首先要建立的是一個意識方案(這些都很簡單,並且肯定已經存在了)。使用現成的技術,理想中第一台機器應該看起來像一輛自動駕駛車輛一樣,而且工作方式也類似。多年來,實現真正自主駕駛車輛的最大限制是意識裝置:感測器讓車輛知道周圍將發生什麼情況,為機器裝上了眼睛和耳朵。

有了這些基本的感官,我們就使用機器學習演算法來構建人工智慧車輛要學習的各種行為。與大多數自動駕駛車輛的研究方向不同——那些工程師們通常想要教會他們的汽車如何安全地做某些事情——我們的團隊聚焦於教會一個城市網格中的感測器陣列觀察其他車輛,並猜測它們想做什麼:

-那輛藍色的日產車想要去雜貨店,因為「它餓了」。

-那輛紅色的貨車正打算進入一個加油站,因為「它需要能量」。

-那輛汽車「喝醉了」,它似乎視力不太好。

-而那一輛汽車反應速度比較慢,它充滿了腎上腺素。

成千上萬的這些需求和擬人化的描述被建立在一個巨大的短語或指令資料庫中。如果我們正在建造一個人形機器人,那麼我們將做同樣的事情來觀察人,並為人類似乎在執行的各種行為建立一個辭彙庫。感測器們將會通過掃描眼睛(這就是人類和動物的方式)來觀察意識對象。它們將通過我們的面部表情和身體姿勢(目前的系統已經能夠做到)來學習了解我們的心情。這個庫和感測器陣列將形成我們的頭腦理論模塊。其目的只是講述其他對象的行為。當我們讓它轉向自己的時候,魔法就會發生了。

我們的庫只是按照一階概念開始的,但是建立在二階、三階的想法之上。譬如下列思考方式:

-那輛黃色的福特車看到灰色的雪佛蘭沖著它來了嗎?-它稍微轉動了一下方向,那麼是的。

-那輛麵包車是否會認為這輛改裝過的高速汽車開得太過咄咄逼人?-它給它讓出的空間比給路上其他的汽車讓出的空間更大,那麼它確實是這麼認為的。

-那輛麵包車是否認為所有改裝過的高速汽車開得過於激進?-它正在給Corvette讓出了同樣大小的空間,這輛車上的里程錶顯示它離開經銷商只開出了兩英里,哦,那麼答案就是肯定的。

到目前為止,我們需要使我們的機器能夠具備自我感知,所以我們教它在城裡自己駕駛。然後,我們要求這輛人工智慧汽車觀察自己的行為,並猜出它在做什麼。這裡的關鍵是,不要給予完美的意識。譬如,不要讓它訪問已經標記好雜貨店位置的GPS單元。不要讓它知道車主手機的內容,丈夫發給妻子簡訊,要她在回家工作的路上接上孩子。為了模仿人類的行為,無知是關鍵。這樣就能確保最初的猜測,或者我們可能會稱之為「偏見」。

在我們的演算法中,「早期的假設」被賦予「相對較晚得出的理論」更高的權重,那個時候已經有了更多的數據(克服初始偏差需要數據優勢。50%的可能性足以初步建立想法,但是要克服初始猜測就需要更高的可能性,比如需要75%)。然後錯誤的猜測會被調整,並為未來的錯誤建立雲端圖片。因此,當一輛汽車每天停在加油站並插入電源插座時,即使汽車只充到85%的電量,頭腦演算法也假設它是安全的,或者足以為可能到來的颶風做好了撤離準備,就像三年前I-95那次瘋狂的逃跑,不會出現燃料耗盡的情況。

但它不知道的是,這輛汽車的乘客每天都在加油站吃一個微波爐加熱過的乳酪「小胖子」,還有一大堆炸薯條和半升蘇打水。後來,當這輛汽車經常去醫院的時候,它會認為這是一個關於汽車檢查的指令,而不會想到是車主充血性心力衰竭的發作。而所有機器的錯誤、困惑以及它對自己猜測的確定,又將給「人工智慧威脅論」帶來熱議。

意識也有語言

人工智慧演算法可能先於人工智慧誕生,演算法反映了一種人類意識的秘方成分,這種成分就是語言。語言比任何其他特質都更能夠讓我們覺得自己的大腦是一個單一的模塊,是一個單一的設備。

在提出「人類大腦不是一個單一的實體」引發爭議之前,讓我們來看看我們的身體,大腦是其中的一部分。我們的身體由數萬億個不同的細胞組成,其中許多細胞可以在我們的身體之外生活和延續。我們的身體可以在實驗室里活上幾十年(甚至無限期,可以搜索Henrietta Lacks了解更多這方面的情況)。整個器官都可以住在別人的身體里。而且我們體內還有更多的細胞並不是我們的,數量比那些組成我們身體的細胞還要多,因為有更多的微生物生活在我們的消化道里、皮膚上以及其他地方,數量比實際上構成我們身體的細胞總數還要多。這不僅僅是一種搭便車的行為。它們會影響我們的心情、健康、思想和我們的行為。它們是我們認為的「自我」的重要方面。

這可能就像聽起來一樣恐怖,但的確是事實。有人可以在沒有胳膊、腿和大部分軀幹的情況下生活,有人失去了一半的大腦,卻還過著還算正常的生活。想想看:人到三十,幾乎每一個細胞已經都被不同的細胞所取代了,幾乎沒有一個剛出生時候的細胞會殘留下來。然而,我們仍然覺得這是同一個人。了解所有這些生物性以及人腦理性化「同一性」的方式,對於識別人工智慧至關重要。

那麼語言到底有什麼了不起?

我上面提到,語言是意識的關鍵因素。這是在人工智慧領域開展工作的一個非常重要的概念。然而,我們的大腦當中有許多模塊,會為了獲取我們的注意力和我們的語言處理中心(它緊緊地圍繞著我們的注意力,幾乎成為一體,或者可以說是一樣的)而爭鬥不休。作為這方面的一個測試,你可以嘗試在聆聽有聲讀物或播客的同時與其他人交談,對於並發通信流來說,最為接近的場景是實時的同傳翻譯。

語言和注意力是我們大腦倒置的漏鬥上的窄口。成千上萬的不同模塊正在投入到這個漏斗之中。荷爾蒙湧入、我們所處環境的特徵、視覺和聽覺線索,甚至幻覺和不正確的假設。大堆大堆的數據只能以單一流的方式被提取,因為受到注意力系統和語言系統的限制,這也正是顯示器為台式機提供的工作方式,所有的並行處理在最後一刻都是串列的。

這種做法會帶來非常可怕的後果。我已經記不起我曾經有多少次覺得自己好像忘記了什麼事情,結果在幾小時或者幾天之後才意識到忘記的是什麼事。譬如,曾有一次我把筆記本落在了房間,等到房門關上我才想起來忘記了什麼事。那是凌晨四點,而我要趕著去搭乘早班飛機。我也找不到可以——當時,我大腦一部分模塊在尖叫著「危險」,但單一的輸出流則按部就班地進行,輸出了一片空白。

所有這一切的奇妙之處在於,我知道這是如何發生的——危險模塊知道情況,可是它無法通過意識的渠道發送出來,所以我還是關上了房門,只有當它發出能夠聽見的「咔嗒」聲的時候,信息才通過,所以我才想起來——在我腦海里響起的警報是我的一部分,但是不是我的整體,只有通過狹窄的語言走廊的東西才能被看到——這就是為什麼大腦語言中心受到傷害會影響正常生活和記憶模塊受損是一樣的道理。我應該在這裡說明一下,語言不只是口語。

當Watson在智力競賽節目Jeopardy中勝出的時候,讓「他」在人工智慧中獨一無二的是「他」的序列化輸出流,這使我們能夠與「他」聯繫、聽他說話,我們可以在他的小藍色顯示器上閱讀他的答案,這最終爆發的輸出讓Watson看起來很像人類,但它終究不是人類。我們的自動駕駛人工智慧車輛將不會擁有完全的自我意識,除非我們編程讓它告訴我們和它自己關於它的行為的故事,核心就在於,機器將會為它正在做的事情形成故事,但我們不應該讓它將這些故事與他人聯繫起來。

譬如,谷歌人工智慧可以畫畫、翻譯,並且在幾乎所有已經被創造出來的遊戲中擊敗了人類最好的對手,還可以比人類更好地駕駛汽車,谷歌已經閱讀並記住了幾乎所有被寫出來的書,並可以為你大聲朗讀這些書,它也像人類一樣犯錯誤,它容易產生偏見(或許是從環境和程序員那裡吸收來的),然而它缺少兩樣東西,就是自我引導循環(self-referential loop)和串列輸出流(serial output stream)。

一個更好的想法

為了讓我們的機器獲得類似人類的自我意識,我們必須讓它不顧上文所提到的「那台鎖在房間的筆記本」。這可能偶爾需要耗盡能量,通過編程為數以百計的輸入模塊分配權重,然後人為限制做出最終決定和頭腦理論故事所花費的時間和處理能力,這樣做比較容易。我們自己的大腦的構建方式就是通過擁有千兆位解析度的感測器,而每個輸入模塊都有兆次級吞吐量,但是輸出卻受到限制。然而我們不會將人工智慧視為人類,因為我們永遠也不會構建這樣的限制。

IBM的Watson中建立了一個這樣的限制,這是為了適應節目Jeopardy的規則。Jeopardy需要速度,Watson不得不快速確定他的答案是否確定,以知道是否要按搶答器搶答。事實證明,按搶答器的時機是贏得Jeopardy的關鍵。經常讓Watson看起來非常接近於人類的不是它給出的正確答案,而是在它的顯示器上看到它的第二、第三和第四個猜測是什麼,每個猜測後面都有確定程度的百分比。真正讓Watson接近於人類的是它犯錯的時刻,就好像節目Jeopardy最後一個答案是屬於「美國的城市」這個類別,而Watson對這個問題給出的答案卻是一個加拿大的城市。(這裡值得注意的是,對我們人類來說,機器人在失敗的時候顯得最為人性化。)

汽車製造商正忙著製造我們永遠不會稱之為具有自我意識的車輛,那或許是因為他們把它打造得太好了。而我們的藍圖是使機器在對其動機一無所知的同時提供關於這些動機的運行對話,一個更好的主意是建立一個知道其他汽車在做什麼的機器,沒有猜測,而且也完全沒有運行的對話。

這意味著訪問GPS單元、智能手機的文本、家用電腦的電子郵件,而且還可以訪問其他的車輛和所有城市的感測器數據。日產車告訴福特車,它將要去商場。每輛車都知道其他的每輛車都在做什麼。因此沒有碰撞。在高速公路上,具有相似目的地的汽車聚集在一起,磁性保險杠連接起來,共享一個滑流,並集體性地將每輛車的能量使用量減半。機器運行整齊劃一。它們顯示出車輛的所有能力特徵。它們知道它們需要知道的一切,而且有了新的數據,它們就會立即改變主意。沒有偏見。

我們很幸運,這是人工智慧研究人員今天建造的方向,它不會有那些我們在科幻故事中看到的怪癖,它將提供的是一個精心設計的系統,幾乎總是在做它的設計者讓它做的事情。事故將是非常罕見的,造成事故的原因能夠被理解,這種經驗將在機器當中廣泛分享,而且會不斷改進。

我們假設人工智慧將給予我們更多的智力和創意產品(它們已經在這樣做了),通過迭代學習的演算法(使用機器學習的神經網路)變得更好,實際上它們在每一個我們已經提供資源的領域都已經證明了自己比我們更好。谷歌alphago在第三場比賽中的有一步棋是如此不尋常,令圍棋專家們大為震驚,它的下法被描述為「富有創意」和「巧妙的」。谷歌有另一種演算法,可以畫出它所認為的貓的樣子,不是從其他地方複製的貓圖像,而是在學習了數百萬隻真實的貓的樣子後,畫出了一隻貓的「感覺」。

我們建造的大多數人工智慧都不會出現像人類的這種情況。他們或許會更智能,也更不偏心:智能汽車將會殺死和傷害更少的人,使用更少的資源,並解放我們無數個小時的時間;智能醫療在組織掃描發現癌症方面已經做得更好了。人工智慧律師在預審研究方面做得更好。——沒有什麼是人類能夠與人工智慧競爭的了,而是協同工作。

未來

未來,人工智慧的數量和複雜程度絕對可以擴展到令人難以置信的程度。許多將被設計的能夠模仿人類,因為它們能夠通過電話和聊天機器人提供有用的信息,並且它們試圖向我們出售商品和服務。絕大多數的人工智慧在單一任務中將是非常有效的,即使這項任務與駕駛汽車一樣複雜。幾乎沒有一個人工智慧會變得具有自我意識,這不應該是自動化機器的世界中存在的東西,因為這會使它們的工作變得更糟。

未來也有可能是我們自己內部演算法的擴展和改進,這個世界對於絕大多數人類來說每一天都在變得更加安全。或者說道德水準正在提升。我們的同情心正在擴大。我們每個人都是我們自己內部演算法的程序員,完善自己完全取決於我們自身。首先要了解我們的構建是如此地不完美,學會不要相信我們告訴自己的那些關於我們自己行為的故事,並讓我們自己在這個過程中致力於消除錯誤並安裝更新的功能。

因此,我們也許永遠不會建造一個像人類一樣的人工智慧。但是,我們人類意識卻可以得到更好的完善。

-END-

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 科技行者 的精彩文章:

一個芬蘭科學家認為現在的AI太蠢了,下海開搞AI互聯網

TAG:科技行者 |