當前位置:
首頁 > 探索 > 停,還是不停?

停,還是不停?

停,還是不停?

想像一下,你正驅車駕駛在城市的道路上。當你轉彎時,突然看見前方的路中間有個什麼東西。這個時候,你該怎麼做?

答案當然取決於那個「東西」是什麼。如果是一個破紙袋、一隻丟失的鞋子,或一捆風滾草,你可以毫不猶豫地直軋過去;但如果那是一堆碎玻璃,你肯定會繞過去。你可能會為一隻擋住了去路的小狗停下來,但會徑直向一群鴿子開去,因為你知道這些鴿子是會飛走的。你可能會衝過一座雪堆,但會避讓一個精心製作的雪人。簡而言之,你能很快作出最適合當下情況的決策,這是人類所謂的「常識」。

而需要這種常識的不僅只有人類司機而已,人工智慧(AI)系統對這種常識的缺乏,可能是導致全面部署全自動汽車的主要障礙。即便是當今最好的自動駕駛汽車,也無法很好的應對道路上的物體時所帶來的問題。它們能感知到那些人類駕駛員不會為之停車的「障礙物」,往往出人意料地猛踩剎車,讓其他駕駛員措手不及。人類司機的追尾事件是與自動駕駛汽車相關的最常見事故。

給自動駕駛汽車提供更多的訓練數據,或者明確規定在異常情況下它們該怎麼做,可能都無法解決自動駕駛汽車所面臨的挑戰。若要贏得信賴,自動駕駛汽車需要具備常識,它們要對世界有廣泛的了解,並且具有在新環境中適應新知識的能力。儘管當今的人工智慧系統在從圖像識別到語言處理等許多領域都取得了驚人的進步,但由於缺乏堅實的常識基礎,使得它們很容易出現不可預測的、非人性化錯誤。

常識是包羅萬象的,但它的一個必要部分是幾乎全人類都共享的那些「核心知識」,即我們與生俱來或者從生活中學到的知識。這不僅包括對物體、動物、他人和社會特性的廣泛了解,還需要在不同情況下可靈活運用這些知識的能力。例如,當你在路上靠近一堆玻璃時,你可以預測它們不會飛走,但一群鳥則很可能會。再比如,當你看到一個球彈到你的車前,你就知道它的後面可能還跟著一個想要撿球的小孩或小狗。從這個角度來看,「常識」一詞似乎所描繪的恰好是當前人工智慧所不能做的事情:利用對世界的一般知識,在事先訓練或預先編程的規則之外行事。

如今,最成功的人工智慧系統使用的是深度神經網路。它們是用來識別模式的演算法,是從大量人類標記的例子中收集到的統計數據而訓練出來的。這個訓練的過程與人類的學習方式非常不同。有些基礎概念似乎是我們與生俱來的,這些知識有助於引導我們理解事物——包括獨立的物體和事件的概念、空間的三維本質,以及因果關係本身。人類還似乎生來就具有社會性的新生概念:嬰兒能夠識別簡單的面部表情,他們對語言以及語言在溝通中所起到的作用有一定的認知,他們還具有一些誘使成年人與他們進行溝通的基本策略。這些知識是如此的基本和直接,我們甚至都意識不到它們的存在,或者意識不到是它們構成了所有未來學習的基礎。從數十年的人工智慧研究中,我們收穫的一個重大總結就是,將這些概念傳授給機器是一件多麼困難的事。

除了與生俱來的知識,兒童還會表現出主動探索世界的內在動力,他們想弄清事件的前因後果,做出預測,還會邀請成年人教他們那些他們想要知道的東西。概念的形成與兒童運動技能的發展以及對他們對自身身體的認識緊密相關,例如,嬰兒在能伸手給自己拿東西的同時,也開始思考為什麼其他人也能拿到東西。而當今最先進的機器學習系統都是始於一片空白,它們被動地行使職責,是沒有身體的統計模式學習者;相比之下,嬰兒的常識是通過與生俱來的知識與具體的、社交的、主動的、旨在創造和檢驗世界理論的學習相結合而增長的。

給人工智慧系統植入的常識主要集中在對人類知識的編目上,這包括手動地編程、眾包或網路挖掘常識的「判定」,或千篇一律的情況的計算表達。但是所有的這些嘗試都面臨著一個主要、甚至有可能是致命的障礙:我們的大部分核心直覺知識是沒有被寫出來,也沒有被說出來的,它們甚至不在我們的意識感知之中。

美國國防部先進研究項目局(DARPA)是人工智慧研究的一個主要資助機構,他們最近啟動了一個為期四年的「人類常識基礎」項目,採取了一種不同的途徑。研究人員要創造一個從「經驗」中學習的人工智慧系統,以獲得與18個月大的嬰兒相同的認知能力,這對他們來說是一個挑戰。讓人工智慧去與嬰兒相匹配是一個巨大的挑戰,這聽起來似乎有些奇怪,而這恰恰反映了人工智慧在特定、狹窄領域的成功與更普遍、更強大的智能之間的鴻溝。

根據發展心理學家的說法,嬰兒的核心知識是在一個可預測的時間尺度上發展起來的。例如在2-5個月大的時候,嬰兒會顯示出獲取了「物體恆存性」的知識:如果一個物體被另一個物體擋住了,那麼被擋住的物體仍然存在,即使嬰兒看不見它。在這段時期,嬰兒也表現出能意識到當物體發生碰撞時,它們不會穿過彼此,而是運動軌跡會發生變化;他們也知道「代理人」,即可行使意圖的實體,比如人或動物,可以改變物體的運動。到了9-15個月大時,嬰兒會有一個基本的「心智理論」:他們能理解別人能看到什麼或不能看到什麼,而到了18個月大時,他們能識別出別人何時需要幫助。

由於18個月以下的嬰兒無法告訴我們他們在想什麼,所以一些認知階段得靠間接的推斷,比如進行「期望悖反」(違背預期)的測試實驗。在測試中,嬰兒會觀看兩種場景中的一種,其中只有一種符合常識預期。這個理論認為,當出現違反預期的情景時,嬰兒會花更長的時間來觀察。而事實也證明,在這種測試方法下,嬰兒會盯著不合理的情景看更久。

在DARPA的「人類常識基礎」這項挑戰中,每個研究小組都負責開發一個計算機程序,它就像是一個模擬的「常識代理人」,懂得從視頻或虛擬現實中學習知識。DARPA的計劃是通過採用類似於在嬰兒身上進行的實驗,並測量這些代理人對「違反預期信號」的反應,來評估這些代理人的表現的。

這並不是第一次用測試人類智能的系統來評估人工智慧。2015年,一組研究人員發現,在一場智力測試中,人工智慧系統的成績可以媲美於4歲兒童的智商測試成績,當時英國廣播公司(BBC)報道稱:「人工智慧的智商相當於4歲兒童的智商」。最近,斯坦福大學的研究人員設計了一項「閱讀」測試,成為了《紐約郵報》的報道「人工智慧系統在閱讀理解方面打敗了人類」的基礎。然而,這些標題是具有誤導性的。與在這些測試中同樣表現出色的人類不同的是,每個人工智慧系統接受的都是某一個狹窄的領域的專門訓練,它們不具備任何一般能力。正如紐約大學的計算機科學家Ernest Davis所警告的那樣:「公眾很容易因為人工智慧系統通過了某個測試,就得出結論認為它們擁有了通過同樣測試的人類的智力。」

我認為DARPA的計劃有可能發生類似的事情。它可以產生一個受過專門訓練來通過DARPA的認知階段測試的人工智慧,但它們卻不具備在人類身上的這些階段性的一般智力。我想,無論是使用百科全書、培訓視頻還是虛擬環境,都沒有通往實際常識的捷徑。若要加深對世界的理解,一個代理人需要具備正確的先天知識、正確的學習架構,以及在世界上主動成長的機會。它們要體驗的不僅是物理現實,還應該體驗人類智力的所有社會和情感層面,這些都是我們的「認知」能力不可或缺的部分。

雖然我們已經取得了卓越的進步,但我們這個時代的機器智能仍處於狹隘且不可靠的處境。為了創造更加通用、更值得信賴的人工智慧,我們可能需要朝相反的方向大膽後退一步:將機器的學習方式設計得更像像嬰兒,而不是對它們進行專門的訓練以求它們能成功地達到某個特定的水準。畢竟,父母不會直接通過訓練來讓孩子表現出「違背期望」的信號;嬰兒在心理學實驗中的行為只是他們擁有一般智能的一個表現。如果我們能弄明白如何讓機器像孩子一樣學習,也許經過幾年的好奇心驅動、物質和社會學習,這些年輕的「常識代理人」最終將成為明智到足以託付汽車鑰匙的青少年。

原文標題為「How do you teach a car that a snowman won』t walk across the road?」,首發於2019年5月31日的Aeon。原文鏈接:https://aeon.co/ideas/how-do-you-teach-a-car-that-a-snowman-wont-walk-across-the-road. 中文內容僅供參考,一切內容以英文原版為準。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 原理 的精彩文章:

絲綢之路孕育的果樹
解開太陽物理的最大謎題

TAG:原理 |