當前位置:
首頁 > 科技 > 學界 | 上海交大和廈門大學聯合發布大規模駕駛策略學習數據集DBNet

學界 | 上海交大和廈門大學聯合發布大規模駕駛策略學習數據集DBNet


機器之心發布


作者:

Yiping Chen、Jingkang Wang、Jonathan Li、Cewu Lu、Zhipeng Luo、Han Xue、Cheng Wang


機器之心編輯部




近日,廈門大學 SCSC 實驗室李軍教授團隊與上海交大 MVIG 實驗室盧策吾教授團隊聯合發布大規模駕駛行為數據集 DBNet(DB 為 driving behavior 的縮寫),為無人駕駛學術研究提供訓練數據。




據了解,該數據集基於研究者被 CVPR 2018 錄用的論文《DBNet: A Large-Scale Dataset for Driving Behavior Learning》。







研究介紹說,目前主要的無人駕駛學術研究數據集(如 KITTI [1,2]、Cityscape [3]、BDD100K [4])大多是為研究無人駕駛環境感知如道路、行人、路牌的分類識別而設置的,而 DBNet 是專為研究駕駛行為的策略學習而設置的。DBNet 數據集記錄了視頻、激光雷達點雲,以及對應的資深駕駛員(駕齡超過 10 年)的真實駕駛行為。DBNet 和當前主要無人駕駛學術數據集比較如下:





 


此外,DBNet 的數據量大小 1.61T, 供下載的是壓縮後約 500G 的文件。這種數據規模約為 KITTI 的 10 倍,能為學習資深駕駛員的駕駛模型提供訓練數據,用於評測模型預測的駕駛行為和資深駕駛員真實駕駛行為的差距。在 2015 年英偉達的研究員提出了一種端到端(end-to-end)的方法 [5], 但是一直缺乏一個有效的大規模數據集。DBNet 正是填補了這一空白。




如果在大量數據上,驗證模型預測的駕駛行為和資深駕駛員的真實駕駛行為一致,則可以認為機器大概學會了駕駛。當然,在面對同一個場景正確駕駛行為是多解的,數據集中只是標註眾多正確解之一,但是實現自動駕駛只需找到一個正確解。




這一技術途徑的另一優點是,基於原始數據實現端對端駕駛行為判斷。數據的產生只需要人們在駕駛的時候保留駕駛行為(方向盤、速度)與輸入(視頻、點雲等),無需標註(車、人、道路),非常易於擴大數據規模。而且,也能從中學習各地的駕駛行為,比如北京和上海的駕駛行為測量可以使用不同模型。學習出來的模型可以和其他駕駛策略(比如,規則決策)一起融合提供高質量駕駛策略。




論文:DBNet: A Large-Scale Dataset for Driving Behavior Learning











  • 論文鏈接:http://www.dbehavior.net/data/egpaper_release.pdf



  • 數據集官網:www.dbehavior.net 



  • 源代碼地址:https://github.com/driving-behavior/DBNet




摘要:

學習自動駕駛策略是計算機視覺領域最具挑戰也最有前途的任務之一。大部分研究人員認為,未來演講和應用應該結合攝像頭、視頻記錄儀和激光掃描器來綜合掌握實時交通的語義理解。然而,由於缺乏包含精確激光雷達數據的基準,當前方法只能從大規模視頻中學習。在此論文中,我們首次提出了駕駛行為網路(DBNet),提供了由 Veodyne 雷達掃描的大規模、高質量點雲,行車記錄儀拍攝的視頻和標準的駕駛行為。大量的實驗表明,附加的深度信息能夠幫助網路決定駕駛策略。

 


參考文獻




[1] A. Geiger, P. Lenz, and R. Urtasun. Are we ready for autonomous driving? the kitti vision benchmark suite. In Conference on Computer Vision and Pattern Recognition (CVPR), 2012.


[2] A. Geiger, P. Lenz, C. Stiller, and R. Urtasun. Vision meets robotics: The kitti dataset. International Journal of Robotics Research (IJRR), 2013.


[3] M. Cordts, M. Omran, S. Ramos, T. Rehfeld, M. Enzweiler, R. Benenson, U. Franke, S. Roth, and B. Schiele. The cityscapes dataset for semantic urban scene understanding. In 2016 IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2016.


[4] H. Xu, Y. Gao, F. Yu, and T. Darrell. End-to-end learning of driving models from large-scale video datasets. In 2017 IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2017.


[5] M. Bojarski, D.D. Testa, D. Dworakowski, B. Firner, B. Flepp, P. Goyal, L.D. Jackel, M. Monfort, U. Muller, J. Zhang, X. Zhang, J. Zhao, K. Zieba, 2016. End to end learning for self-driving cars, arXiv:1604.07316. 






本文為機器之心發布,

轉載請聯繫本公眾號獲得授權



?------------------------------------------------


加入機器之心(全職記者 / 實習生):hr@jiqizhixin.com


投稿或尋求報道:

content

@jiqizhixin.com


廣告 & 商務合作:bd@jiqizhixin.com

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

業界 | 醫療AI應該更關注「數據」還是「人」?數據工程師反思機器學習模型的力量
Amazing!只需輕輕一點,即可編輯視頻中的樂器聲音

TAG:機器之心 |