當前位置:
首頁 > 新聞 > Roadstar.ai自動駕駛樣車上路,深度融合技術路線能否超越Waymo?

Roadstar.ai自動駕駛樣車上路,深度融合技術路線能否超越Waymo?

Roadstar.ai原型車的內部視角

矽谷的9月28日上午,雷鋒網編輯坐上了一輛頂著7個激光雷達的林肯MKZ。它遠遠就看到了路口的紅綠燈,車內的大平板上對應的交通燈被一個紅框圈出來。MKZ繼續往前開了一段,穩穩地停在了路口。一大群學生模樣的年輕人從車前的斑馬線走過,並不斷回頭看這台頂著裝置的新車。

綠燈亮起,我們乘坐的這輛MKZ起步並按照預定路線右拐。一路上,道路右側有遛狗的人、踩著滑板的人,還有逆行的自行車。我們的車按照30英里的時速在蘋果的後花園Cupertino行駛了一圈,然後回到了出發時的車庫門口。

你或許已經猜到了,這是一輛自動駕駛原型車。

這輛車來自Roadstar.ai,這是一家今年5月成立,橫跨矽谷與深圳兩地的自動駕駛公司。公司三位聯合創始人佟顯喬(CEO)、衡量(CTO)、周光(首席機器人專家),曾供職於Google、蘋果、特斯拉、英偉達、百度等公司,擁有豐富的自動駕駛經驗。

佟顯喬在今年6月接受雷鋒網採訪時稱,公司的目標直指L4級別自動駕駛,希望成為中國最強戰隊。在約3個月後,Roadstar.ai的原型車初步成型。上文就是我們近日體驗了原型車後的感受,雷鋒網也是除公司員工外首批體驗原型車的外部人士,並在試乘後與三位聯合創始人聊了聊背後的技術細節。

下面是路測視頻:


走上「正確的道路」

實現自動駕駛有多種技術路徑,比如以攝像頭為主的方案(特斯拉、AutoX),和以64線激光雷達為主的方案(Waymo、百度)。Roadstar.ai解決自動駕駛技術瓶頸的方案是多感測器深度融合。衡量表示,它不以某一種感測器為主,而是包括了多個激光雷達之間的融合,多個攝像頭之間的融合,以及激光雷達與攝像頭、毫米波雷達的融合。

Roadstar.ai原型車上的「車頂盒」

雷鋒網見到那款MKZ原型車上,頂部有一個被稱為「車頂盒」的方形架子,有車身寬,約30多厘米高。架子上布置了7個Velodyne的16線激光雷達,三個攝像頭,以及一個毫米波雷達。7個激光雷達在同一平面排列成一個鈍角三角形,最外的兩個朝車身兩邊傾斜,中間四個水平放置,頂上的那個最為奇特,是垂直放置躺著旋轉的。

周光表示,最終的方案不會是這麼大的一個感測器,而是會嵌入車體,比如激光雷達可以安裝在車頂的四個角。「我們有一套基於機器學習的實時標定方法,車輛行駛時可以做自動校準,激光雷達可以隨便放置。」

多感測器融合倒也並不獨特。從目前已經曝光的圖片來看,通用與Cruise在兩周前宣布推出的全球首款可量產自動駕駛車,就是用的這種方案;矽谷知名的自動駕駛公司Drive.ai,以及一直保持低調的Zoox也是如此。曾供職於蘋果自動駕駛部門的佟顯喬告訴雷鋒網,蘋果也是用的多感測器融合方案。

Cruise的第三代可量產自動駕駛車,用了多顆激光雷達分散式布局

Drive.ai的原型車,車頂有6個16線Velodyne激光雷達

蘋果的新版原型車(也有猜測為高精地圖採集車),頂上有十多個激光雷達

周光稱,這是因為各家已經逐漸「摸索出了正確的道路」。

他認為,自動駕駛是一項具有長尾效應的系統工程,由於現實路況過於複雜,以至於99%的精力可能都會用於解決那1%的問題。多感測器融合就是解決這種長尾效應的方法,畢竟異構感測器則可以互相彌補缺點,而如果用同質的感測器,再多也沒用,因為缺點是一致的。

他還舉了一個例子,就像人臉識別早已很普及了,但往往會受光照和裝扮的影響,但蘋果Face ID添加了一加了一層深度信息後,就能讓身份驗證更安全。多感測器融合也是同樣的道理。


面向商業化

另一方面,佟顯喬表示,採用多感測器融合架構,也是考慮到了自動駕駛車輛的商業化。

對於目前的L4自動駕駛方案而言,激光雷達高昂的價格是一個挑戰,甚至在原型車的成本中,它往往要佔比超過50%。他表示,64線的Velodyne激光雷達單個價格達8萬美元,而使用多感測器融合方案,即使採用6顆16線產品,價格也只是48000美元(每個8000美元),便宜了將近一半。如果採用國產激光雷達,價格甚至可以再降低至少一半。

另一方面,業內普遍認為激光雷達的未來趨勢是固態激光雷達,據稱明年初即可開始見到單價2000美元的量產型號。而固態產品在2-3年內取代機械旋轉式後,單個價格還可以降到500-1000美元。

而固態激光雷達是非旋轉式,只能覆蓋一定範圍的區域,需要多個同步才能實現對周圍空間的全面覆蓋。所以使用固態激光雷達必須使用多感測器融合方案。

佟顯喬還預測,使用多感測器融合方案,並考慮未來固態激光雷達帶來的成本下降,2018年自動駕駛系統的成本會在50萬左右,2019年還會降到30萬以內,在2020年甚至會降到8萬以內,讓技術更為普及。


深度融合:DeepFusion

雖然多感測器融合的重要性不言而喻,但衡量認為,並非所有人都能做好。

他解釋稱,這是因為異構感測器的原理不一樣,會導致採樣速率、對空間的描繪和信息表達方式也不一樣,而怎麼把不同的信息結合起來變得一致,做到時間空間同步,以及信息表達同步,這非常困難。融合不是感測器的堆疊,「融合不好,反倒會成為干擾」。

Roadstar.ai將自己的融合方案稱為「DeepFusion」,這一方面是指用到了深度學習等技術,另一方面是指觸達了更深層次的數據信息。

衡量告訴雷鋒網,多感測器融合可分為前融合與後融合。後融合是指每個感測器分別生成物體列表,比如用攝像頭的數據生成一個檢測到的物體列表,同時用激光雷達的點雲數據也產生一個列表,然後兩者再做融合。他們採用的則是前融合,它會從原始數據的層級把多種感測器的數據融合。

「我們會用圖像的RGB數據加上激光雷達與毫米波雷達的深度信息,先融合成新的數據形式,再用演算法產生物體列表。」

衡量表示,從資訊理論的角度看,前融合對信息的利用更為充分,信息也沒有丟失。

他此前曾在斯坦福GPS實驗室做衛星導航,而導航領域很早就開始做融合,比如將非常可靠但有累積誤差的慣性導航,與易受干擾但無累積誤差的GPS定位做融合,對於從原始數據的層級做合併已經輕車熟路。

Roadstar.ai今年5月才成立,佟顯喬表示,這個時候開始做肯定是要有特別的優勢,要走新的路線,達到事半功倍的效果。這條路線就是多感測器融合,而且「大家都逐漸意識到這是一個正確的方向,最終各主要玩家也會趨同,而我們目前是領先的」。

高精度地圖

雷鋒網體驗Roadstar.ai的原型車時發現,其系統對紅綠燈的識別極為準確,甚至在人眼還未看到時,就已經識別出來了。衡量解釋稱,這是因為高精度地圖對交通標識的定位很準確,從而降低了識別的難度。

在自動駕駛時代,地圖服務的對象不再是人,而是機器,因而也需要重新定義。毫無疑問,高精度地圖的第一個關鍵字是「精」,既精確且不斷更新的三維數據。精度上要做到厘米級,因為感測器的精度以及系統對物體辨識和識別都要厘米級,有了足夠的精度,地圖提供的數據才有用。

衡量告訴雷鋒網,高精度地圖的第二個關鍵,是提供感知與定位所需的特徵的有效表示,而這也是他們的優勢所在。

Roadstar.ai的厘米級精度三維地圖,圖片來自Roadstar.ai

「傳統地圖與高精度地圖在工具鏈、生產流程不一樣,目的、地圖表達方式和數據來源也不一樣,Google地圖部門與自動駕駛的地圖部門就是分開的。前者是一個大規模資料庫快速查詢的問題,但對後者來說,更關鍵的是地圖怎麼生成,怎麼有效表示,怎麼盡量減少存儲空間,這是我們的長處。」

高精度地圖分為不同的層級,有與駕駛相關的語義信息層級(如車道線、停止線和十字路口、交通規則等信息),還有更高層次的感知與定位的層級,用來做車輛的感知與定位。

他認為,只有做感知與定位演算法的自動駕駛公司,才更懂得怎麼做地圖特徵的提取。因為把原始點雲數據存下來不現實,需要壓縮並減少數據量。

對於高精度地圖,Roadstar.ai還沒想成為提供商,但可以向其它公司提供地圖生成的演算法,幫助加工。

那麼在原型車出來之後,接下來應該做什麼?

周光表示,數據還是很重要。在發揮現有技術和架構的優勢,達到不錯的效果後,還是要采數據,擴大規模。他認為,有些場景很難出現,要大量重複路測採集才能覆蓋更多的路況。雖然機器學習的效率會提高,對數據量的要求也會降低,但自動駕駛會呈現迭代的過程,需要通過運營來採集數據,最終擴大到更廣泛和複雜的場景。

目前,Roadstar.ai已經與華夏幸福合作,明年會在南京溧水區有小範圍的自動駕駛車輛運營。另外,據稱關於自動駕駛的商業化路徑,他們進行了調研,會在接下來的1-2個月內披露具體的商業計劃。雷鋒網會保持持續關注。

附雷鋒網與Roadstar.ai採訪節選:

在大公司的經歷帶來了什麼影響?

團隊成員之前在蘋果、英偉達、Google、特斯拉、百度等任職,是取各家之所長。各家的思路不同,感測器和架構也很不同。蘋果用的就是多感測器融合方案;特斯拉是量產中ADAS最好的,它是車廠的思路,會從整車的設計成本出發,限制自動駕駛系統的成本,這決定了它不會有更貴的感測器,而是以攝像頭為主;Google演算法較為成熟,但過於依賴激光雷達且成本昂貴。我們希望做到比Waymo更好的性能,但成本要低。

為什麼會認為多感測器融合方案要優於Google/Waymo?

Google通過近十年的努力,其實已經證明無人駕駛技術是能做成功,是可行的,而且基本已經可以商用了。但它既有先發優勢,也有先發劣勢。

Google把以激光雷達為主的技術路線走到了極致,在它最開始做自動駕駛的那些年,圖像識別技術還不夠成熟,只能依靠激光雷達。但這種時代特色與背景,讓新方法沒有在其技術上體現出來,而這也是新興公司的機會。Google自研的激光雷達性能非常突出,但這一感測器目前成本降低還有很長一段時間。

L4級別自動駕駛的時間已經到了嗎?

其實Google已經證明全自動駕駛技術是可行的,它可以做到平均行駛5000英里才需要人類接管一次,基本已經可以商用。但它比較保守,畢竟是第一個吃螃蟹的。現在從特斯拉Autopilot的情況來看,即使出現了一些事故,大家也沒有失去信心。那其實可以膽子大一點,讓自動駕駛在一定範圍內,在限定條件下先運營起來。

你們的目標是L4,那對一些更為限定的自動駕駛應用會考慮嗎?

特殊場景的自動駕駛確實會比乘用車率先實現,因為情況比較簡單。我們設計的時候,每個感測器和每個模塊都是抽象的,可以任意替換。我們技術的一個子集可以用在簡單的場景下,不用重新開發,比如針對礦山車,可以降低配置,或用更簡單的演算法,和低成本的計算平台。

一開始就做最難的場景,對於簡單場景不必重新做。

你們的原型車剛出來不久,數據較少會是一個弱點嗎?

深度學習確實是數據驅動的演算法,但我們的深度融合演算法(DeepFusion)提高了數據的使用效率,使得我們新的端到端模型對數據的依賴降低了一個數量級。現在的架構用幾千張圖可能就可以實現普通方式十幾萬張圖的效果。我們的模型現在是幾千張點雲加圖像數據融合在一起訓練,對數據的利用特別高效。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

傳台灣某公司主控 SSD 藏後門,銀監會要求調查
華為Mate 10 Pro外形全面曝光;10月起,發留言、彈幕必須實名制
浦發銀行:開展互聯網金融業務是與狼共舞,如何才能不失陣地?
國慶回家別忘教爸媽,老人需要什麼手機?
諾基亞9震撼來襲:驍龍835 6G 128G,實力派手機終於來了!

TAG:雷鋒網 |