當前位置:
首頁 > 知識 > 拯救我的人工智障,Nature子刊分析動物大腦學習過程,啟發神經網路研究

拯救我的人工智障,Nature子刊分析動物大腦學習過程,啟發神經網路研究

選自 Nature

作者:Anthony M. Zador

機器之心編譯

參與:一鳴、思

動物為什麼生下來沒多久就能學會又跑又跳?為什麼我們設計的神經網路有時候智障到連貓和狗還分不清楚?是時候從動物身上學習設計神經網路的經驗了。本論文從神經科學的角度出發,分析了動物快速學習的原因,並為人工智慧研究提出了一些可以借鑒的思想。

Reddit 很多機器學習研究者都表示雖然起初大腦與人工神經網路(ANN)之間會有啟發關係,但是隨著機器學習的發展,ANN 更多是在數學與計算方面的創新,很多「擬人化」的概念都是高度抽象的數學表示方法。不過正因為動物的學習和機器的學習都希望處理相似的任務,那麼相互之間還是可以借鑒的。

在這篇 Nature 論文中,作者表示大部分動物行為並非 ML 學習演算法,也不是監督學習或非監督學習那種範式,而是將模塊或迴路編碼在了基因組中。這樣不論是發展遷移學習、還是利用模型架構編碼先驗知識,或者初始化限定學習方向,這篇論文都有一定的借鑒意義。

具體而言,作者表示動物生來就具有高度結構化的大腦連接,使它們可以快速學習。由於這種連接方式過於複雜,無法全部完整地記錄在基因組中,其必須被「基因組瓶頸」壓縮。這種「基因組瓶頸」的壓縮方式可以給機器學習的快速學習機制帶來啟發。

什麼是「機器」學習

在人工神經網路研究中,「學習」是一個技術術語,和神經科學或心理學使用的方式不同。在人工神經網路中,學習指的是一個提取結構的過程,從輸入數據中提取統計學規律,並將這種結構編碼進網路中。

這些網路參數包括了所有可以記錄網路的信息。例如,在全連接神經網路中,假設有 N 個神經元,每個都有一個參數(如一個閾值),還有額外的 N^2 個參數用於表示神經元之間的連接強度(權重),則總共有 N N^2 個自由參數。當然,當神經元數量增加時,全連接網路的參數量主要由 N^2 主導。

現在主要有三種經典的神經網路用於從數據中提取結構,並將其編碼進網路參數中(如權重和閾值)。

在監督學習中,數據主要由樣本對組成:輸入數據和對應的標籤。學習的目標是找到合適的網路參數來正確預測輸入樣本對應的標籤。

在非監督學習中,數據沒有標籤。學習的目標在沒有具體的說明規律是什麼的情況下從數據中發現統計學規律。

在強化學習中,數據用於驅動行為,成功的行為會得到獎勵信號。

監督學習的核心是關注「泛化性」。當參數數量增長時,網路的表示能力——即網路能夠處理的輸入輸出映射關係的能力也隨之增長。如果網路有太多的自由參數,則網路可能會過擬合數據分布。

在人工神經網路研究中,網路的靈活性和其需要訓練的數據之間的關係被稱為「偏差-方差權衡」。越是靈活的網路就越是性能好,但是沒有足夠的訓練數據可能使得預測結果變得非常錯誤,甚至比一個簡單的、性能相對較低的網路中的預測結果更差。

圖 1:機器學習中的「偏差-方差權衡」可以被視為是一種形式化的「奧卡姆剃刀」。

什麼是「動物」的學習

在神經科學中,「學習」指的是由經驗導致的長期行為變化。在這種定義下,學習就包含了動物的各種行為,例如經典的自發性條件反射以及其它一系列反射活動。儘管神經科學和機器學習中術語「學習」的使用會有一些重合,當某種情況下,術語的差異很容易導致混淆。

對於機器學習來說,為了確保泛化性,訓練這樣的神經網路需要大量的數據集,例如視覺問答模型大概需要 10 的 7 次方標註樣本,或者說問答對。然而一年大概也有 10^7 秒,所以一個孩童需要每秒問一個問題,才能獲得等量的標註數據,這顯然是不可能的。所以,動物與機器的學習方法有很大的不同,它們並不是以一種有監督的方式來學習類別目標。

然而,在第一個 10^7 秒中,動物獲得的無標註數據是非常龐大的,它們從視覺到語音也是多模態的數據。如果存在的話,如何參考這種無監督學習範式,並構建新的學習模型才能更高效地學習知識。

為什麼動物學起來這麼高效

動物學起來快嗎?這是當然的,雖然人類需要花很長時間才能學會某些技能,但是很多動物在 10^6 秒甚至 10^5 秒內就能正常地活動與生存。松鼠在幾個月後就能從一棵樹跳到另一棵、小馬在幾小時內就能學會走路、而蜘蛛天生就會狩獵,這些都表明單靠無監督學習也不高效,很多能力都是天生的。

圖 2:先天機制與學習策略在進化過程中的權衡。

其中 a 圖表示如果先天機制與學習機制能獲得相同的性能,那麼動物肯定選擇先天。b 圖表示,如果先天 學習的混合策略能大幅度超越完全的先天,那麼學習可能更受歡迎。

現在有個問題,到底先天是怎麼來的,它能有助於 ML 高效學習嗎?

大腦連接的制定者

ML 無監督學習無法做到高效學習,它的效果一般也沒有監督學習好,那麼我們為什麼不探索先天模型,就像預訓練那樣。在動物的世界中,先天機制都是編碼在基因組中。

具體而言,基因組為相互連接的神經系統繪製藍圖,這種連接包括指定哪些神經元相互連接、連接的強度又是多少。這些藍圖是經過數億年進化選擇出來的,在無數的個體上「做著實驗」。這些藍圖指定的迴路為先天行為、以及一生中發生的任何學習過程都提供了框架。

但是在複雜動物中,基因組並沒有足夠的能力指定所有神經元之間的連接。例如人類大約有 3×10^9 的核苷酸,它能編碼超過 1GB 的信息。不過人類約有 10^11 神經元,每個神經元甚至有 10^3 個突觸,這樣算下來需要 3.7×10^15 bits 來指定 10^14 個連接。基因組攜帶的信息要比需要的信息低了 6 個數量級。

因此基因組只能指定某些構建的規則,這種規則可能是每個神經元連接最近的幾個神經元,有點類似機器學習中的初始化。但更可能的情況是,基因編碼的規則是某些特定的迴路,然後這些迴路能應用於不同部分的腦連接構建,這樣既能降低編碼信息的需求,同樣也能提供足夠的靈活性。

不管怎麼說,如果能發現基因編碼的某些迴路模式,那麼說不定真可以用在模型初始化中,從而加速學習過程。

動物學習如何幫助機器學習

本文之前已提出:動物之所以在出生後就能很快學會東西是因為他們高度結構化的大腦連接性。這種連接性搭建起了快速學習的腳手架。而天生的機制可以和學習機制一起工作。研究人員將人工神經網路和這一機制進行了類比,希望從中借鑒一些經驗。

並非從一無所知開始

研究人員發現的第一個經驗是:動物行為的一部分是天生的,而非從學習中習得。動物大腦不是空空如也的,而是有了很多泛用的學習演算法,已經準備學習一切。一些 AI 研究者想像到,強烈的生存選擇壓力使得動物只學慣用於生存需要的技能。動物有傾向地快速學習特定技能的想法和 AI 研究或認知科學中的「元學習」和「歸納偏置」的思想類似。

而天生機制的重要性表明,人工神經網路想要解決新的問題時,應當儘可能從已有的相關問題中構建解決方案。確實,這一觀點和「遷移學習」,人工智慧領域非常活躍的領域很相關。遷移學習要求將在一個任務中預訓練得到的網路遷移到另一個相關的任務上,以便加速學習過程。

雖然人工神經網路中的遷移學習需要轉移整個權重矩陣(或者網路中很重要的一個部分),作為開始的步驟。但是,動物大腦中的信息隨著一代一代的傳遞而變得越來越小,因為信息必須通過基因瓶頸。經過基因瓶頸傳遞的信息需要進行篩選,僅保留大腦連接和可塑性規則中更為通用的部分,因此也更容易泛化。

神經科學提出,也許存在一種更高性能的機制,一種遷移學習的泛化機制,不僅能夠在單一感知方式,如視覺任務中遷移工作,而是能夠跨多感官方式地工作。

網路結構非常重要

另一個神經科學中發現的思想是:基因組不能編碼整個數據表示或行為,也不能直接編碼整個優化規則。基因組只能編碼連接原則和規律,這些原則和規律會被行為和表示實例化。這說明連接的拓撲結構和網路架構是人工系統中的優化目標。

然而,現在的人工神經網路研究只發掘了可能網路架構的一小部分。更高性能、類似大腦皮層的架構仍待發現。

最近,一些新的研究工具也許可以發現大腦皮層的鏈接規律,啟發人工神經網路的進一步實驗。

參考 Reddit:https://www.reddit.com/r/MachineLearning/comments/ctu0aj/research_a_critique_of_pure_learning_and_what/

本文為機器之心編譯,轉載請聯繫公眾號獲得授權。

------------------------------------------------

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

人類大腦如何工作?五篇計算神經學論文告訴你
Python簡史:開發者的小小副業如何成為全球最熱編程語言?

TAG:機器之心 |