當前位置:
首頁 > 科技 > 紐約大學聯合谷歌大腦提出「COG」數據集,可提高系統的「視覺推理」能力

紐約大學聯合谷歌大腦提出「COG」數據集,可提高系統的「視覺推理」能力

原文來源:arXiv

作者:Guangyu Robert Yang、Igor Ganichev、Xiao-Jing Wang、Jonathon Shlens、David Sussillo

「雷克世界」編譯:嗯~是阿童木呀、KABUDA、EVA

可以這樣說,人工智慧中一個令人煩惱的問題是對發生在複雜的、不斷變化的視覺刺激中的事件進行推理,比如視頻分析或遊戲。在認知心理學和神經科學中豐富的視覺推理和記憶傳統的啟發下,我們開發了一個人工的、可配置的視覺問題和答案數據集(COG),用於在人類和動物中進行平行實驗。COG比視頻分析的一般問題要簡單得多,但它解決了許多與視覺、邏輯推理和記憶有關的問題——這些問題對現代的深度學習架構來說仍然具有挑戰性。此外,我們還提出了一個深度學習架構,它在其他診斷VQA數據集(例如CLEVR)和COG數據集的簡單設置上表現得非常出色。然而,一些COG的設置會導致數據集變得越來越難以進行學習。訓練結束後,該網路可以零次泛化到許多新任務中。對在COG上訓練的網路架構的初步分析表明,該網路以一種人類可解釋的方式完成了任務。

圖1:來自COG數據集的圖像和指令樣本序列。COG數據集中的任務對目標識別、關係理解以及記憶的操作和調整以解決問題。每個任務都可以涉及當前圖像和之前圖像中所顯示的目標。 需要注意的是,在最後一個樣本中,指令涉及的是「last」,而不是「last b」。前者排除圖像中當前的「b」。(白色箭頭)顯示了每個圖像的目標指示響應。為了清晰起見,使用高解析度圖像和適當的英語表示。

人工智慧的一個主要目標是建立一個能夠強大且靈活地推理出感官環境的系統。視覺提供了一個非常豐富和高度適用的領域,用以鍛煉我們建立一個能夠對複雜刺激物形成邏輯推理的系統的能力。研究視覺推理的一個途徑是視覺問題回答(VQA)數據集,其中,模型學習該如何正確回答關於靜態圖像的具有挑戰性的自然語言問題。雖然在這些多模態數據集的研究上取得了非常顯著的成果,但這些數據集突出顯示了當前方法所存在的若干局限性。首先,在VQA數據集上進行訓練的模型的訓練程度無法確定,僅僅是遵循圖像中固有的統計信息,而不是對問題的邏輯組成部分進行推理。其次,這些數據集避免了時間和記憶的複雜性,而這兩個因素在智能體設計、視頻的分析和總結中具有至關重要的作用。

圖2:組合型COG數據集的生成。COG數據集基於一組操作符(A),它們被組合以形成各種任務圖形(B)。(C)通過指定圖形中所有運算符的屬性來對任務進行實例化。任務實例用於生成圖像序列和語義任務指令。(D)正向執行圖形和圖像序列以執行常規任務。(E)生成一致的、具有最小偏差的圖像序列需要以逆向拓撲順序反向通過圖形,並按逆時間順序通過圖像序列。

為了解決VQA數據集中有關空間關係的邏輯推理所存在的不足,Johnson及其同事最近提出使用CLEVR直接對基本視覺推理模型進行測試,以便與其他VQA數據集一起使用。CLEVR數據集提供了人工的、靜態的圖像以及有關這些圖像的自然語言問題,從而鍛煉模型執行邏輯和視覺推理的能力。最近的研究結果表明,網路以接近完美的精確度取得了令人印象深刻的性能表現成績。

在這項研究中,我們解決了視覺推理中關於時間和記憶的第二個局限性問題。推理智能體必須記住其視覺歷史的相關部分,忽略不相關的細節,根據新的信息更新和操作記憶,並在接下來的時間裡利用此記憶做出決策。我們的方法是創建一個人工數據集,它具有時間變化數據中所存在的許多複雜性,同時也避免了在處理視頻時所遇到的許多視覺複雜性和技術難度性問題(例如,視頻解碼、跨時間平滑幀的冗餘)。特別是,我們從認知心理學(cognitive psychology)和現代系統神經科學(modern systems neuroscience)的幾十年研究中獲得靈感,在這些領域中,長期以來都是將視覺推理解剖為基於空間和邏輯推理、記憶組合性和語義理解的核心組件。為了實現這一目標,我們建立了一個人工數據集—COG,能夠執行與人類認知實驗同時進行的視覺推理。

圖3:所提出網路的架構圖

COG數據集基於一種編程語言,該語言構建一系列任務三元組:一個圖像序列、一個語言指令和一系列正確的答案。這些隨機生成的三元組在大量任務中進行視覺推理,並需要文本的語義理解、序列中每個圖像的視覺感知以及工作記憶,從而確定隨時間不同變化的答案(如圖1所示)。我們對編程語言中的若干個參數進行了強調,從而使研究人員能夠將問題難度按照從容易到具有挑戰性進行設置調整。

最後,我們引入了一個多模態循環體系結構,用於進行記憶視覺推理。該網路將語義和視覺模塊與狀態控制器相結合,對視覺注意力和記憶進行調節,以便正確執行視覺任務。經過一系列的研究,我們證明這個模型在CLEVR數據集上達到了近乎最先進的性能表現。此外,該網路提供了一個強大的基線,可以在一系列設置中的COG數據集上實現良好的性能表現。通過消融研究和網路動力學分析,我們發現該網路採用的是人類可解釋的注意力機制來解決這些視覺推理任務的。我們希望COG數據集、相應的體系結構以及相關的基線能夠為隨時間變化的視覺刺激推理的研究提供有用的基準。

圖4:通過單個CLEVR樣本的注意力和輸出,對提出網路的思考過程進行可視化。(A)來自CLEVR驗證集的樣本問題和圖像。(B)每個思考步驟的有效特徵注意力圖。(C)相對空間注意力圖。(D)語義注意力。(E)前五名的語言輸出。紅色和藍色分別表示更強和更弱。在同時關注到「小金屬球體」的特徵注意力和「紅色橡膠物體後面」的空間注意力之後,在語言輸出中反應了有關物體的顏色(黃色)。後來在思考過程中,網路關注了「大啞光球」的特徵注意力,而同時語言輸出中出現了正確答案(yes)。

在該項研究中,我們建立了一個合成的、組合型數據集,該數據集需要一個系統能夠基於英語指令對圖像序列執行各種任務。我們COG數據集中包含的任務,測試了一系列認知推理技能,尤為重要的是,這需要對過去的目標有顯式記憶(explicit memory)。該數據集擁有最小偏差和高度可配置性,旨在通過大量的指定性任務生成豐富的性能指標。

我們還構建了一個循環神行網路模型,該模型利用注意力機制和門控機制,以一種自然的,且具有人性化的方式處理COG數據集。除此之外,該模型還在另一個名為CLEVR的視覺推理數據集上實現了近乎最先進的性能表現。該模型使用循環控制器來關注圖像和指令的不同部分,並以一種迭代的方式生成語言輸出。這些迭代注意力信號為模型的逐步思考過程提供了多個窗口,並為模型該如何將複雜的指令分解為更小的計算提供了線索。最後,該網路可以即刻泛化到完全未經訓練的任務上,從而展現出對新任務的零次學習(zero-shot)能力。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷克世界 的精彩文章:

一文詳解如何使用Python和Keras構建屬於你的AlphaZero AI
CatBoost、LightGBM、XGBoost,這些演算法你都了解嗎?

TAG:雷克世界 |