當前位置:
首頁 > 新聞 > 讓機器學會關係推理,進一步逼近強人工智慧

讓機器學會關係推理,進一步逼近強人工智慧

AlphaGo和自動駕駛系統都非常的聰明,但它們都沒能突破強人工智慧的極限。而幸運的是,AI科學家正拓寬機器智能的意義。

在戰勝人類的AlphaGo之後,DeepMind的研究人員又開始研發一種新的機器學習方式,並將該研究發表在了本周的《新科學家》上。在兩篇論文中,DeepMind 的科學家解釋了機器學習中關係推理的重要性,因為這是人類智慧基礎的認知能力。

圖丨人類的關係推理能力

簡單地說,關係推理就是判斷不同心理表徵之間的關係;比如物體、單詞或想法之間的關係。這種推理對人類認知發展至關重要,對人類解決問題的能力也至關重要。

在現有的機器學習系統中,大多數系統沒有能力去理解概念之間的關係。例如,視覺系統可以識別圖片中的狗或貓,但它不會知道圖片中的狗在追逐貓。

DeepMind開發的兩個系統則加入了概念理解的能力,通過修改現有的機器學習方法,使機器能夠了解靜態物體之間的物理關係以及隨時間移動的物體行為。

研究人員使用簡單物體的數據集CLEVR來演示了第一個功能。在系統訓練結束後,可以詢問系統某個物體是否在另一個物體之前,或哪一個物體最接近另一個物體。機器學習系統的表現比以往任何同類系統都要好,在某些情況下甚至超過了人類的表現。

圖丨DeepMind論文配圖,機器學習對各項物理系統的預測

在第二篇論文中,研究人員展示了系統預測簡單物體行為的能力。研究人員使用了一個類似的、被修改過的機器學習系統,演示系統如何學習在二維空間中預測簡單物體的行為。

人類通常在三維空間做這樣的實驗,比如抓住一個球或者開車。但心理學實驗表明,當預測動作對物體的影響時,人類大腦會使用「直覺物理」引擎,這比簡單地識別場景中的物體要複雜得多。

雖然論文中的這一進步並不新奇,但卻正是研究人員所需要的。今天的很多機器學習系統都令人印象深刻,但其中大部分其實都只涉及狹義的機器學習任務。因此,如果設計者沒有新的創意,器學習系統就很難像人類一樣進行真正的對話或解決困高難度問題。

圖丨機器的認知表現

研究人類智慧的哈佛大學心理學教授Sam Gershman說,如果我們想讓人工智慧的表現接近我們自己,我們需要考慮的是,模仿人類智慧來設計人工智慧機器。

他說:「我們的大腦以對象,代理(agent)和事件之間的關係代表世界,這種方式在很大程度上限制了我們從數據中得出的推論,使得我們很難學習一些東西,而很容易學習另一些東西。所以在這個意義上,DeepMind是朝著正確方向邁出了一步:模仿人類大腦受到的制約因素,使機器能夠學習那些對於人類來說容易學習的任務。「

然而,Gershman也警告說不要誇大DeepMind工作的意義。他說:「任何特定機器學習任務的超人表現都不意味著超人類的智慧。」

關係推理也只是人類智慧的一個要素。Gershman在他去年發表的一篇論文中,探討了目前人工智慧所缺失的人類智慧。例如,人類有語意組合的能力,有從現有知識中構建新的想法來解決問題的能力,而這些人工智慧都沒有。

Gershman說:「對於人類智慧來說,關係推理是必要條件但不是充分條件。」


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 DeepTech深科技 的精彩文章:

嬰兒基因組測序已進入中國市場
美國使用特殊頻段為農村孩子提供網路,不能輸在起跑線上!
中國刷新世界紀錄!「墨子號」實現1203公里光子糾纏,潘建偉團隊跨越超安全通信障礙

TAG:DeepTech深科技 |

您可能感興趣

深度學習與強化學習相結合,谷歌訓練機械臂的長期推理能力
深度 | 從規則推理到數據學習:人工智慧該學習人類的思維方式嗎?
英特爾聯手微軟,在前端設備進行人工智慧推理
胡蜂也會邏輯推理
這部女性主導的懸疑推理劇,完美詮釋如何用智慧碾壓敵人!
深度|因果推理和監督學習的統一概念框架:兩者並不是對立的
DeepMind用深度學習模仿大腦推理,預測編碼智能推進一大步!
AI學會了視覺推理,「腦補」看不清的物體
個人向,整理了一些不錯的懸疑推理動漫
《我是大偵探》不再燒腦推理減弱 賣力拚演技,推理在哪裡?
會推理的人有飯吃
研究:嬰兒在學會說話前就能進行邏輯推理
最會寫推理故事的理工男
應用於智能體的空間物理定性推理技術
當一個解密的推理師
學語文同時練推理?孩子連手機都不玩了丨返團
心理派推理的好與壞
高智商推理電影,神一樣的反轉結局,感覺智商需要充值繳費了
偵探入門推理題,猜猜他們的職業!
火影忍者,宇智波一族的兩位偵探,推理能力不輸柯南