當前位置:
首頁 > 最新 > 能在任何錶面作畫的機器人;谷歌黑科技,深度學習視聽模式;喊你直接與書對話了!自動駕駛汽車的眼睛

能在任何錶面作畫的機器人;谷歌黑科技,深度學習視聽模式;喊你直接與書對話了!自動駕駛汽車的眼睛

選文&評論 | 張一 丁建峰 許峰 金明

校對&編輯 | 李韓超

泡泡機器人推廣內容組編譯作品

Scribit:能在任何錶面作畫的機器人

圖片來源:Newatalas

幾年前,建築設計公司Carlo Ratti Associati (CRA)展示了一個系統,用噴漆的無人機在牆上作畫。儘管這種想法有些炫酷,但無法成為商業化的產品。最近,該公司發布了他們新的產品:牆體繪圖機器人Scribit。就像該公司2015年一次性垂直繪圖儀的小型室內版本一樣,Scribit在垂直表面(如牆壁,窗戶或白板)上的2軸平面上移動,同時繪製圖像或文字。鋁質環形裝置由兩根輕型斜拉索懸掛,據報道可在短短五分鐘內完成安裝,只需「兩根釘子和一個電源插頭」。 它配備了四種不同顏色的可擦除標記以及一張橡皮擦,當用戶對繪製的圖案不滿意,可以刪除舊圖紙,並讓它在同一區域創建新作品。用戶使用應用程序將圖像或文本上傳到連接互聯網的機器人,並指明所需繪製的該內容的空間的尺寸即可。

CRA將於4月16日在米蘭的Salone del Mobile設計活動上正式推出Scribit。眾籌活動隨後將於6月5日開始,單位的最低抵押額為199歐元(約合244美元)。有了該機器人,以後的牆體繪畫工作可就簡單有效的多了。

「壁虎抓手」:超強黏附能力的柔軟機器人抓手

眾所周知,壁虎具有超強的黏附能力,這些聰明的生物利用它們的腳和腿上數以百萬計的微小毛髮,在分子水平上與物體表面結合,給它們提供難以置信的抓地力。受此啟發,斯坦福大學(Stanford University)、加州大學聖地亞哥分校(UCSD)和美國宇航局噴氣推進實驗室(JPL)的研究人員最近展示了他們發明的一種機器人抓手,能舉起重達45磅的重物。

通過使用光刻技術研究者們開發了一種合成材料,這種材料模仿了壁虎的自然抓取能力,可以用來覆蓋柔軟的機械爪的手指。結合控制演算法,讓機器人在整個手指的長度上分配適量的力,最終得到一個可以舉起各種物體的夾子,最重可達45磅(20公斤)。這包括粗糙的,多孔的物體,如火山岩石,光滑的物體,像圓柱管,和日常的東西,像咖啡杯和西紅柿。

日常生活中,這種抓手能給我們帶來極大的便捷,更為重要的是,機器手上的粘接劑可關閉或開啟,有望幫助國際空間站外工作的宇航員抓住太空漂浮物體碎片,清理回收威脅日益增大的太空垃圾。

Google黑科技--深度學習視聽模式

圖片來源:Google

對於我們人類而言,在嘈雜的環境中分離出我們希望聽到的聲音,這就是所謂的雞尾酒派對效應。谷歌希望讓計算機更好地聽到我們想要聽到的聲音,並開發出一種新的深層學習視聽模型,用於從混合語音中分離單個語音信號。

該技術的獨特之處在於它將輸入視頻的聽覺和視覺信號結合起來,以分離語音。該方法採用人的嘴部運動並將其與人在說話時產生的聲音相關聯。這使模型能夠確定音頻的哪一部分與該人共享, 用戶必須做的是選擇他們想要聽的視頻中人物的臉部。

Google通過收集來自YouTube的100,000份高質量講座和演講,生成了訓練示例。它能夠以清晰的語音提取片段。該數據使Google能夠訓練基於多流卷積神經網路的模型,將合成混合雞尾酒混合物分解為視頻中每個揚聲器的獨立音頻流。這種訓練可以讓網路為每個揚聲器單獨設置編碼,並且這種聯合表示允許網路學習為每個揚聲器輸出一個時頻掩碼。然後這些信號乘以雜訊輸入頻譜並轉換回時域波形以獲得期望的隔離乾淨語音信號。

CEVA-XM6機器視覺與深度學習平台,榮獲2018「視覺系統設計創新獎」

4.11在波士頓舉行的第四屆嵌入式視覺系統設計中,CEVA-XM6機器視覺與深度學習平台摘得創新獎。創新獎的評選主要依據創意,硬體設計、系統集成、終端用戶和滿足市場上尚未解決的需求。

CEVA-XM6計算機視覺和深度學習平台幫助設計師將先進的人工智慧(AI)能力引入到嵌入式設備中。綜合可擴展、集成的硬體和軟體平台,以創新和整體性的方式應對終端設備計算機視覺和深度學習的挑戰。作為CEVA的第5代成像和計算機視覺平台,CEVA-XM6平台充分解決了嵌入式設備中計算機視覺和神經網路用例的全部問題,允許開發者有效地利用神經網路和機器視覺的性能應用於智能手機、自動車輛、監視、機器人、無人機和其他支持攝像頭的智能設備。要了解更多關於CEVA平台和處理器的信息,請訪問https://www.ceva-dsp.com/app/learning/。

谷歌喊你直接與書對話了!順帶練一下辭彙聯想

GIF

圖片來源:.theverge.com

人工智慧領域的領頭羊谷歌近日宣布了一項新的人工智慧實驗,允許網路用戶體驗語義和自然語言處理。

在公布的兩項公開實驗中,第一項叫做「與書對話」,它可以讓你用機器學習訓練的演算法進行對話,該演算法可以從人寫的文本中找到相關段落的答案。與書交談可以讓你「做一個陳述或問一個問題,而這個工具會在回應的書中找到句子,而不依賴於關鍵字匹配。」從某種意義上說,你是在和書交談,得到回應,這可以幫助你確定你是否對閱讀感興趣。

一旦你問了你的問題(或者做了一個陳述),這些工具就會在超過10萬本書中搜索所有的句子,找出那些根據句子層面的語義含義對你的輸入做出反應的句子;你所輸入的和你得到的結果之間的關係沒有預先定義的規則。

第二個實驗則更具互動性。這是一款叫做Semantris的遊戲,它主要測試你的單詞聯想能力,就像一個軟體一樣,它能讓你和書里的人交流,並根據你輸入的答案在屏幕上打分。舉個例子,如果你把「床」這個單詞放在一個10個單詞的最上面,你可能會把「睡眠」作為一種反應。Semantris將對這10個單詞進行排序,並根據它認為床與睡眠之間的語義關係與列表中的其他單詞之間的關係進行比較。

自動駕駛汽車的眼睛,Luminar新發布廉價激光雷達

圖片來源:Luminar Technologies Inc.

自動駕駛汽車正處在黃金髮展時間,作為自動駕駛汽車的眼睛,激光感測器的市場也在快速發展壯大。通過每秒發射數百萬激光點並測量反彈時間,激光雷達能建立汽車周圍環境的三維地圖,進而定位汽車並提供導航。然而數十年來,如果你想要自動駕駛汽車的激光雷達,Velodyne公司價格高昂的激光雷達產品是為數不多的選擇。

最近,矽谷創業公司Luminar,宣布推出其最新的激光雷達裝置,向Velodyne發起挑戰。該激光雷達具有120度的視野(足以看清車前的情況,但需要一對才能獲得360度的視野),採用了短波激光脈衝,可更好地探查到車輛周邊的目標物,其畫面清晰度遠高於雷達設備所採集的圖像。 同時,由於自主研發生產的激光雷達接收元件(最昂貴也最為重要的部分),整個裝置的成本大幅降低。在去年剛開始只能生產100台後,Luminar聲稱他們已經具備了數千台的產能——足以滿足今天的需求, 也許,在不久的未來能夠為每一輛自動駕駛汽車提供低成本的激光雷達組件。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 泡泡機器人SLAM 的精彩文章:

基於無標記人體的形態和姿勢的實時精準估計
新聞周報 01期

TAG:泡泡機器人SLAM |