UC Berkeley 博士:端到端自動駕駛與自動駕駛前沿研究內容
分享背景
本次分享會嘉賓將會通過解讀這篇被CVPR2017收錄的論文《End-to-end Learning of Driving Models from Large-scale Video Datasets》來介紹自動駕駛前沿的研究內容。本次工作的核心是定義了如何從視覺的角度通過深度學習來實現自動駕駛,並且與英偉達、CMU的ALVINN的工作不同,不僅僅在路況簡單的情況下可以實現「車道跟隨」(lane following),而且可以處理更複雜的環境,例如城市、商業區等。現有的深度學習的方法往往由於數據的原因被限制在固定的場景下,他們使用大規模眾籌(crowd-sourced)視頻數據,從而讓模型可以更好地泛化。他們沿著ALVINN的道路嘗試了端到端(end-to-end)的訓練方式,這樣的模型探索了端到端自動駕駛的可能性,同時隱含地學習出圖像中關鍵的信息,並且加入了LSTM來進行對時間序列的建模,從而可以利用駕駛者的歷史信息。他們還嘗試了用其他task來增強主task,用語義分割網路來對主要駕駛網路進行調整,發現對主要的task有部分效果提升。
《End-to-end Learning of Driving Models from Large-scale Video Datasets》
https://arxiv.org/abs/1612.01079
Robust perception-action models should be learned from training data with diverse visual appearances and realistic behaviors, yet current approaches to deep visuomotor policy learning have been generally limited to in-situ models learned from a single vehicle or a simulation environment. We advocate learning a generic vehicle motion model from large scale crowd-sourced video data, and develop an end-to-end trainable architecture for learning to predict a distribution over future vehicle egomotion from instantaneous monocular camera observations and previous vehicle state. Our model incorporates a novel FCN-LSTM architecture, which can be learned from large-scale crowd-sourced vehicle action data, and leverages available scene segmentation side tasks to improve performance under a privileged learning paradigm.
分享主題
端到端自動駕駛與自動駕駛前沿研究內容
分享人簡介
許華哲,UC Berkeley博士,師從Prof. Trevor Darrell。對計算機視覺、自動駕駛、強化學習感興趣。本科畢業於清華大學電子工程系。
分享時間
北京時間10月10日10:30
參與方式
掃描海報二維碼添加社長微信,備註「許華哲」
如果你覺得活動不錯,歡迎點贊並轉發本文~
※從DL到Hinton到GANs再到PyTorch,這裡全都有了!
※PyTorch 合輯 國慶特輯
※GANs合輯 國慶特輯
※入門合輯,不知道該怎麼入門的可以看這裡
※2分鐘論文系列合輯
TAG:唯物 |