麻省理工學院AI模型:只需少量的訓練數據就能學習對象之間的關係
深度學習往往需要大量的數據,不然就會出現過度擬合。然而,獲取大規模數據往往非常困難,而且深度學習並不是特別擅長將過去掌握的知識應用於新的情況。與傳統方法不同,符號AI可以用更少的數據,記錄下為做出決策所採取的一系列步驟。
據外媒報道,麻省理工學院、Watson AI實驗室以及DeepMind的研究人員進行的一項新研究證明了,符號AI應用於圖像理解任務具有很大的潛力。他們說,在測試中,他們的混合模型學習了與顏色和形狀等對象相關的概念,利用這些知識在一個場景中用最少的訓練數據和「無顯式編程」來推測對象關係。
符號AI研究論文的主要作者Jiayuan Mao在一份聲明中說:「兒童學習一種概念的方式是將辭彙和圖像聯繫起來,但符號AI模型與兒童相比,學習同一種概念需要的數據要少得多,並能更好的將知識轉化應用到新的場景中。」
該團隊的模型包括一個將感知組件(該組件將圖像轉換為基於對象的表示),以及一個語言層(該語言層從單詞和句子中提取含義,並創建告知AI如何回答問題的「符號程序」,即指令)。模型的第三個模塊在場景中運行符號程序,並給出答案,當模型出錯時就對其進行更新。
研究人員根據斯坦福大學CLEVR圖像理解測試集的相關問題和答案對圖像進行了訓練(例如:物體的顏色是什麼?以及有多少物體都在綠色圓柱體的右側,並且與小藍球具有相同的材料?)。隨著模型的學習,問題會變得越來越難,一旦它掌握了對象級概念,該模型就開始學習如何將對象及其屬性相互關聯。
研究人員訓練了一個混合AI模型來回答「綠色立方體左邊的紅色物體與紫色啞光物具有相同形狀嗎?」之類的問題
在實驗中,符號AI模型能夠幾乎完美地解釋新的場景和概念。據研究人員報告,符號AI模型整個訓練過程,只用了5000張圖像和10萬個問題,就輕鬆地超越了其他前沿的AI系統。該團隊將在未來的工作中進一步改進符號AI模型在真實照片上的表現,並將其擴展應用到視頻理解和機器人操作上。


※MWC上搶眼新星,國內旗艦「勁敵」!三星S10E真機諜照曝光
※戴爾及ALIENWARE創新日 多款新品發布
TAG:天極網 |