DeepMind給人工智慧搞了一套IQ測試題
問耕 發自 凹非寺
量子位 出品 | 公眾號 QbitAI
阿基米德在泡澡的時候,發現了富力原理,也發現了如何計算王冠的體積。
這就是一種抽象推理能力。
對於智能你來說,這個能力是不可或缺的一環。對人工智慧也不例外。但是,神經網路的智能到底是有推理能力,還是僅靠膚淺的統計數據?
為了回答這個問題,DeepMind想了一個方法。
給AI搞了一套IQ測試題。
例如,下面這個問題:請問右下角應該是哪個圖案?
基於觀察、推理能力,一個智能體可以推斷出這個問題的答案。基於這樣的理念,DeepMind構建了一個問題生成器,涉及一組抽象因素,包括漸進之類的關係,以及顏色和大小等屬性。
雖然這個生成器使用了一組潛在因素,但仍然會產生大量獨特的問題。
接下來,通過約束生成器可用的因子或組合,就可以創建用於訓練和測試模型的不同問題集,看看模型究竟能「聰明」到什麼程度。
通過實驗,DeepMind發現,當模型在測試中能夠正確推斷出任務背後的抽象概念時,就能產生良好的性能表現——IQ測試正確率可達87%,否則的話,蒙對答案的概率只有32%。
這份研究結果表明,想得出關於泛化的普遍結論可能是無益的。
參與測試的模型,表現良好與否取決於一系列因素,而幾乎在所有情況下,系統在需要推斷超出其經驗的輸入,或處理完全不熟悉的屬性時,表現不佳。
總之,這是一個很有意思的方向。
很多人在看到這個研究時,都發出了Interesting的評價~
如果你對這個研究感興趣,詳細的論文在此:
Measuring abstract reasoning in neural networks
傳送門:
http://proceedings.mlr.press/v80/santoro18a/santoro18a.pdf
為了鼓勵大家繼續研究,DeepMind還開源了數據集。
傳送門:
https://github.com/deepmind/abstract-reasoning-matrices
—完—
※一顆賽艇!上海交大搞出SRNN,比普通RNN也就快135倍
※用於PC的驍龍1000近似實錘了,高通員工LinkedIn泄露天機
TAG:量子位 |