自動駕駛視覺系統:不僅可以」看「,還能預測「未來」
【新智元導讀】對於自動駕駛的視覺系統而言,「看」到路人是一個基礎工作,更重要的是,能否能像人類一樣,判斷出路人下一個動作將是什麼。來自密歇根大學的團隊,便研究了一種改進演算法,讓自動駕駛視覺系統能夠對路人的行為進行預測。
視覺系統,不僅是用來看的,還能預測「未來」!
密歇根大學(University of Michigan)向來以自動駕駛汽車技術聞名,最近,他們又有了大動作——研究一種改進的演算法,來預測路上行人的動作。
這種演算法不僅考慮了行人在做什麼,還考慮了他們是如何做的。這種肢體語言對於預測一個人接下來要做什麼是至關重要的。
Arxiv地址:
https://arxiv.org/pdf/1809.03705.pdf
IEEE地址:
https://ieeexplore.ieee.org/document/8626436
密歇根大學團隊將研究成果發布在了Arxiv及IEEE中,有興趣的讀者可以訪問上方或者文末鏈接進行詳讀。
本文提出了一種基於生物力學的遞歸神經網路(Bio-LSTM),該網路可以在全局坐標系下預測行人的位置和三維關節體位姿,該網路能夠同時預測多個行人的姿態和全局位置,以及距離攝像機45米以內的行人(城市交叉口規模)。
「看」到更細節的動作,預測路人行動
關注路上行人並預測他們將要做什麼是任何自動駕駛視覺系統的重要組成部分。
讓自動駕駛車輛理解路上行人的存在,並分析一些細節信息,會對車輛一下步如何操作產生巨大的影響。
有些公司宣稱其自動駕駛車輛的視覺系統,在這樣或那樣的範圍/條件下可以看到並標記「人」,但目前很少人提出,可以看到並標記像「手勢」或「姿勢」這樣更為細節的部分。
這種視覺演算法可以(儘管現在不太可能)像識別一個人並觀察他在幾幀內移動了多少像素那樣簡單,然後從那個節點進行推斷。但人類的運動自然要比這複雜得多。
UM的新系統使用激光雷達和立體攝像機系統,不僅可以估計一個人的軌跡,還可以估計他們的姿勢和步態:
姿勢
可以表明一個人是否在靠近或遠離汽車、是否在使用拐杖、是否在彎腰接電話等等;
步態
不僅表示速度,也表示意圖。
例如,路人將頭轉向他們肩膀方向時,他們可能接下來會轉身,或者只是看了一眼肩膀然後繼續向前走;路人伸出手臂,他們可能在向某人(或車輛)發出停車信號。
這些額外的數據將有助於視覺系統對動作的預測,使得導航規劃和防止意外事件更加完備。
更重要的是,它只需要幾個框架就可以很好地完成工作——可能只需要包括單步和手臂的擺動。
這就足以做出一個輕鬆擊敗簡單模型的預測,這是一種關鍵的性能衡量指標。
論文Arxiv地址:
https://arxiv.org/pdf/1809.03705.pdf
論文IEEE地址:
https://ieeexplore.ieee.org/document/8626436
原文地址:
https://techcrunch.com/2019/02/16/vision-system-for-autonomous-vehicles-watches-not-just-where-pedestrians-walk-but-how
※特朗普簽署美國AI計劃單挑中國歐盟加拿大,確保全球霸主地位
TAG:新智元 |