人工智慧學會觸覺,愛撫親昵指日可待
來源:知社學術圈
這樣的機器人,您想來幾個呢?
直立行走,將人雙手解放出來,既能使用工具勞動生產,又能抒發情感創造藝術,有詞為證:
持手相看淚眼,竟無語凝噎。。。
那麼,日新月異、一騎千里的人工智慧,什麼時候才能學會愛撫親昵風花雪月呢?今天上線的一篇Nature論文,麻省理工學院的研究人員朝這個方向邁進了一大步。
秘密就在上面這個手套,看起來普普通通,只是上面安裝了包含548個柔性壓阻感測器的陣列,覆蓋全手掌,可以感知觸摸時的壓力大小,範圍在30到500mN之間,離散為150個級別,一秒鐘可以採樣7.3次,並輸出相應電信號。也就是說,這個手套有相當不錯的時空解析度和壓力精度,戴著它撫摸抓取的時候可以獲得大量觸覺數據,而造價只要10美金。
機器視覺其實已經突飛猛進,非常發達,但觸覺則起步不久。因為相對攝像機照相機而言,此前人們對觸覺感應數據採集並沒有太多的需求,沒有多少人會異想天開把觸覺記憶存儲下來。但隨著機器人的發展,特別是未來對於服務機器人的需求,光有視覺顯然不夠了,觸覺也變得日益重要。這個手套,就像攝像機一樣,能夠抓取存儲動態的觸覺數據。
但光有手而沒有腦,還是沒有感覺和情感。於是作者戴上手套反覆抓取26個不同的物體,獲得13萬5千組觸覺壓力的時空數據,並通過卷積神經網路深度學習方法進行訓練,教會了機器觸覺。其卷積神經網路構架如下,基於ResNet-18:
結果顯示,只要7組時空數據輸入,就可以比較準確辨識不同的物體:
也可以大致估算物體的重量:
也就是說,機器已經具備了初步的觸覺。下一步的呢,我想應該是通過觸覺,進一步讓機器學會情感,比如愛撫親昵時的愉悅,咬牙切齒時的憤怒,和手足無措的焦躁,都可以通過觸覺感測和腦神經電極同時取樣,深度學習。一個喜怒哀樂溢於言表的機器人,就產生了。
這樣的機器人,您想來幾個呢?


※小龍蝦:我後悔入侵中國了
※太空旅行使老鼠軟骨退化,對人類意味著什麼呢?
TAG:新浪科技 |