當前位置:
首頁 > 最新 > 進擊的 Waymo,掘進無人駕駛深水區

進擊的 Waymo,掘進無人駕駛深水區

翻譯 | 尚岩奇

編輯 | Just

此刻,一輛無人駕駛的小型貨車正行駛在亞利桑那州鳳凰城的郊外。你可能會擔憂它是否安全,但為這輛車打造了自動駕駛大腦的 Waymo 希望能向你保證,這輛車是很安全的。

Alphabet 旗下的無人駕駛汽車部門 Waymo 是目前世界上唯一一家有全無人駕駛汽車(車內無人)上路許可權的公司。實現這一切的技術是由一系列由機器學習驅動的複雜神經網路,但直至現在,外界對 Waymo 的技術仍知之甚少。

這是 Waymo 首次向外界披露其眾多技術中最重要(或最難理解)的技術。以多種標準衡量,Waymo 在這場無人駕駛汽車競賽中都遙遙領先。Waymo 驕傲地宣傳著它所擁有的當前最先進的無人駕駛系統(大腦)。

它當下的成功離不開以下幾個因素:其姊妹公司 Google 在 AI 投資上搶得先機;Google 完成的幾項戰略性收購;Waymo 與 Google 內部 AI 研究員團隊的緊密合作關係。


任何人都可以買一大堆攝像機和 LIDAR 感測器安裝在車上,然後將其稱為自動駕駛汽車。但人工智慧前沿技術的目標是訓練自動駕駛系統像人類駕駛員那樣開車,或者比人類駕駛的更好(這更為重要)。Waymo 的工程師不僅對汽車如何識別道路上的物體進行了建模,還對人類行為如何影響汽車的應有反應進行建模。藉助 600 萬英里的公路行駛數據和 500 萬英里的模擬行駛數據,他們讓系統利用深度學習來學習理解、預測和做出反應。

Waymo 最新加入的員工 Anca Dragan 在這個項目中負責著重要的工作。她在今年一月剛加入 Waymo,在這之前她是加州大學伯克利分校 InterACT 實驗室主任,專註於研究人類與機器人的交互。Dragan 在 Waymo 的職責是確保人類(行為、乘客、其他汽車的駕駛員)與 Waymo 無人駕駛汽車的交互是完全積極的。換句話說, Dragan 的職責是防止機器人革命的發生。

一方面我們不希望機器人稱霸地球,另一方面我們也不想要畏手畏腳的機器人駕駛員,Dragan 必須在其中找到一種平衡。比如,如果你以 65 英里/每小時的速度在一條擁擠的高速公路上快速行駛,你想要擠到左邊的車道上去,這時你可能會慢慢地將車向左邊靠過去,直到其他駕駛者最終給你讓出空間。

無人駕駛汽車可能會很難完成這個任務,因為它經過訓練後會遵守道路交通規則。推特上最近有一段視頻顯示,Waymo 的一輛無人駕駛休旅車試圖擠進一條擁擠的高速車道,但失敗了。

Dragan 稱:「如何讓無人駕駛汽車適應同道路上的其他司機?如何調整無人駕駛汽車才能使乘坐者更加舒適或者使行駛更加自然?這些都是細微的改進,如果想要實現這些改進,就必須打造一個好用的自動駕駛系統」。

對無人駕駛汽車來說,要避免交通意外發生是它的使命,但最近這幾個月噩耗連連。三月,一位 49 歲的女性在亞利桑那州 Tempe 市過馬路時被 Uber 的一輛無人駕駛汽車撞死。幾周之後,一輛特斯拉 Model X 的車主在使用 Autopilot 半自動駕駛輔助系統時遭遇車禍當場身亡。上周,Waymo 的一輛自動駕駛休旅車被一輛本田轎車從側面撞上,當時本田轎車突然轉向駛入西行車道。


與此同時,公眾對無人駕駛汽車越來越懷疑。監管者開始重新思考是否應該允許公司製造和測試全無人駕駛汽車。在外界的這些質疑聲中,Waymo 邀請我拜訪 Waymo 在加州山景城的總部,對該公司人工智慧部門的高層進行深度訪談。

Waymo 總部在 X 實驗室內,後者是 Google 的高風險研究和開發實驗室,離Googleplex 主園區只有幾英里(2015 年,Google 改組為大型聯合企業 Alphabet,X 實驗室從 Google 當中分離了出去)。一年後,Google 的無人駕駛汽車項目「成功畢業」,成為了現在的獨立公司 Waymo。無人駕駛汽車團隊的工作地點仍然在母公司,但工作大樓與無人機送貨項目、互聯網熱氣球項目共享。

這座大樓之前是一個購物中心,典型的舊金山灣區建築。唯一能讓人看出這是 Waymo 總部的是兩輛在停車場自動行駛的克萊斯勒 Pacifica 休旅車,員工們會趁著這兩輛車靠邊停車時在車前自拍。

Waymo 在自動駕駛領域遙遙領先於其他競爭者。它的行駛里程最多——600 萬英里的公路里程和 500 萬英里的模擬里程,收集了海量的大數據。Waymo 與菲亞特-克萊斯勒公司和捷豹、路虎公司這兩家汽車製造商是合作夥伴關係,並且還在與幾家汽車製造商洽談中。

目前,Waymo 正在德克薩斯州、加州、密歇根州、亞利桑那州和喬治亞州的道路上測試其汽車。Waymo 計劃在今年晚些時候在亞利桑那州推出全無人駕駛商業計程車服務。


現在,Waymo 希望讓人們都知道它在 AI 領域的優勢。本周,Waymo CEO John Krafcik 在 Google 年度 I/O 開發者大會上做了演講,他傳達的訊息很明確:相比其他汽車,Waymo 汽車看的更遠、感知更好、決策速度更快。

「全自動駕駛汽車真的是一個難題,因為它的能力要求和準確度要求非常高。而且乘客的體驗非常重要。」Waymo 首席技術官、工程部副總裁告訴我。

深度學習是機器學習的一種,它使用神經網路的多層結構分析抽象程度不同的數據,是改進無人駕駛汽車感知能力和行為的最佳工具。Dolgov 稱:「我們很早就開始研究深度學習,AI 革命就發生在這裡,發生在我們隔壁。」

Google 大腦團隊的 AI 專家定期會與 Dolgov 和他的工程師同事展開合作,共同探討改進 Waymo 無人駕駛汽車準確度的方法。最近,他們在一起探討一些熱門 AI 研究課題,例如自動化機器學習——使用神經網路訓練其他神經網路。Waymo 雖然是一家獨立的公司,但是如果想要給人留下一種無人能敵的印象,資歷更深、實力更強的 Google 能為其提供很好的支持。

Waymo 為什麼會突然對宣傳其 AI 實力感興趣?

這與它試圖部署不需要人類駕駛員干預的無人駕駛汽車不無關係,此舉風險非常高。目前,Waymo 是唯一一家勇於承擔此風險的公司。業內其他公司正在奮起直追,試圖通過收購小型初創企業快速啟動自己的無人駕駛汽車項目。與此同時,Google 無人駕駛汽車團隊的一些重要成員受到巨大機會和財富的吸引,紛紛離開 Google 自立門戶。Google 正積極採取措施防止人才進一步流失。

Google 無人駕駛汽車團隊前成員和外界專家表示,Waymo 在無人駕駛領域的確搶得先機,但競爭者們最後很可能會追趕上它。因為 Waymo 並沒有完全稱霸無人駕駛汽車領域。

「儘管 Google 很強大,但是無人駕駛汽車領域需要更強的能力。」Google 無人駕駛汽車團隊前首席工程師 Dave Ferguson說,他在離開 Goolge 後成立了自己的公司 Nuro。

利用深度卷積神經網路對ImageNet圖像進行分類

如今大火的無人駕駛領域在 21 世紀初期的時候是一番萎靡不振的景象。

程序員構建可以篩選大量的數據尋找共同模式的模型,這種模型就是神經網路——機器學習的一種。當時神經網路還沒火,正在完成從淺層網路(2 層或 3 層)到深度神經網路(十幾層到幾十層)的巨大轉變。雖然神經網路這個概念是在 20 世紀 50 年代(AI 研究誕生的年代)提出的,但當時大多數電腦的性能還不足以處理所有的必要數據。

2009 年的 ImageNet 競賽徹底改變了這一切。

ImageNet 源於普林斯頓大學的幾名研究員在 2009 年於佛羅里達州召開的計算機視覺和模式識別大會上展示的一張海報(海報是在此類機器學習會議上分享信息的典型方式)。在此之後,ImageNet 成為一個圖像數據集,然後就出現了 ImageNet 競賽——看參賽者創造的演算法能以最低的錯誤率識別出最多圖像。這個數據集有大約 1 萬張圖像,這些圖像被分為 1000 個類別,包括植物、建築以及 90 種犬種。2011 年左右,演算法的失誤率約為 25%,這意味著演算法每識別四張圖像就有一張圖像識別錯誤。

人們找到了一種意想不到的解決方案:視頻遊戲設備常用到的高性能圖形處理器(GPU)。Google 前語音研究員、現 AI 部門技術負責人 Vincent Vanhoucke 稱:「人們開始意識到這些 GPU 可以用於完成機器學習任務,它們特別適合用來運行神經網路。」

最大的突破發生在 2012 年,AI 研究員 Geoffrey Hinton 和他的兩名研究生 Ilya Sutskever 和 Alex Krizhevsky 發現了一種新的解決方案:深度卷積神經網路,他們在ImageNet 挑戰賽上證明這種網路可以識別日常物品的圖像。他們創造的神經網路網讓其他參賽者望塵莫及——其圖像識別錯誤率只有 16%,而其他方法的圖像識別錯誤率高達 25%。

「我認為這是基於深度神經網路的方法第一次打敗常規方法。自此我們再也沒回頭過。」前 Google 工程師 Ferguson 稱。

Krizhevsky 在 2012 年 ImageNet 挑戰賽上擔任了較為重要的角色。他告訴我,「我認為我們當初是天時地利」。他將他們的成功歸因於他的愛好——對 GPU 進行編程使其可以運行團隊的神經網路代碼,這使得他們可以在幾天的時間內完成原本需要幾月才能完成的實驗。Krizhevsky 稱,他在 ImageNet 競賽中使用了這項技術。

Vanhoucke 稱,Hinton 及其團隊的成功「觸發了一場雪球效應,並且催生了很多創新」,而且還直接促成了 Google 以未知數額收購了 Hinton 的公司 DNNresearch(包括Sutskever 和 Krizhevsky)。Hinton 留在了多倫多,Sutskever 和 Krizhevsky 去了Google 的山景城總部。Krizhevsky 加入了 Vanhoucke 的 Google Brain 團隊。Vanhoucke 稱,「這時候我們開始思考如何將這些技術應用到 Waymo 的項目中」。

Google 研究員 Anelia Angelova 是第一位找到 Krizhevsky 與其商討如何將他們的研究成果應用到 Google 無人車項目上的人。他們兩個人沒有在無人車團隊工作過,但是當時機會太好,錯過就太可惜了。他們創造了一個可以讓計算機學習行人模樣的演算法,學習方法是分析數千張街景圖像並檢測表示行人的視覺模式。這種方法非常有效,Google 開始將這種方法應用到無人車項目的其他環節中,包括預測和計劃。

不過問題很快就出現了。新的系統錯誤率太高,往往會錯誤標註汽車、交通信號和行人,而且速度太慢,無法實時運行。於是,Vanhoucke 和他的團隊仔細檢查了這些圖像,他們發現大部分錯誤是由人類標註員造成的。Google 希望這些人類標註員可以提供一個衡量演算法成功率的基準(或 ground truth),但是他們反而提升了錯誤率。無人駕駛汽車的問題還是歸咎於人類。


在糾正人為錯誤後,Google 還是很難修正系統,使其能迅速地識別圖像。AI 研究員和Google 的無人車團隊展開了緊密合作,他們決定引入更加傳統的機器學習方法,例如決策樹和級聯分類器(CascadeClassifier)。Vanhoucke 回憶道,用神經網路實現「虛擬和現實世界中的最好結果」。

「我們成功地證明了用這些方法可以識別貓的照片和網上一些有趣的東西,我們當時非常激動。現在我們正在用這些方法改善無人車的安全性。」他說。

幾年後,Krizhevsky 離開了 Google,聲稱他對工作失去了興趣。他承認,「我當時抑鬱了一段時間」。Krizhevsky 的離職讓他在 Google 的同事感到困惑,在那之後他的身上蒙上了一種神秘色彩。現在,Krizhevsky 好奇Google 早期的成功能否讓它在自動化領域中保持無法超越的優勢。其他汽車製造商和科技公司已經意識到機器學習的重要性,Waymo 的數據可能太過局限,無法在全球範圍的場景中應用。

Krizhevsky 稱,「我認為特斯拉在這方面有優勢,因為搭載自動駕駛硬體的特斯拉汽車的車主遍布全球,特斯拉可以從各種各樣的環境中收集數據。這點在機器學習演算法泛化(generalize)時非常重要。因此我認為不考慮演算法從數據的角度分析,特斯拉可能會領先「。」

AI 和機器學習對無人駕駛汽車非常重要。Waymo 的一些競爭者(包括 Google 無人車團隊前成員)想知道 Waymo 的優勢會持續多久。

特斯拉 Autopilot 部門前主管、自動駕駛研發公司 Aurora Innovation 聯合創始人(另一位為 Google 無人車項目前負責人Chris Urmson)Sterling Anderson 表示,AI 技術進步的自然結果就是 Waymo 等大公司「不再像以前那樣舉足輕重」。

換句話說,2018 年無人車領域的每個參與者從一開始就使用深度學習和神經網路了。之前的領先者光環已經退去。早期的很多數據就像是過期的水果,已經無法食用。2010 年獲得的一英里駕駛數據肯定比不上 2018 年獲得的一英里駕駛數據。

Anderson 稱,「若干年之後數據的作用就沒那麼大了。開始的時候,數據可以用於學習,幫助改進架構和演算法。但是到了某一階段,幾百萬英里或幾十億英里的行駛數據就會變得沒那麼重要。」


Waymo 的工程師也同意這一點。Waymo 機器學習和感知部門主管 Sacha Arnoud 表示,「就機器學習而言,有這樣一個增益遞減點。駕駛里程多 10 倍並不一定代表獲得的數據集更好,因為重要的是樣本數據的獨特性。」

換句話說,Waymo 累積的每英里駕駛數據都必須對其神經網路的訓練過程有意義。當汽車遇到極端情景或其他特殊情景時(例如亂闖馬路的行人或平行泊車),Waymo 的模擬器會過濾這些數據,將其進行數千次迭代,用於進一步訓練神經網路。

機器人也可能會被欺騙。對抗圖像或者用於欺騙機器視覺軟體的圖像可以被用來讓無人車受損或被撞毀。在停車路標上貼上貼紙,就可以讓機器視覺系統認為這是一個 45 英里/每小時的限速標誌。

Google 訓練的一個識別日常物件的神經網路最近就被騙了,它將一個 3D 列印的烏龜看成了一把槍。Waymo 的工程師表示,他們正在其系統中構建處理這些可能情景的相關組件。這引發了很多圍繞無人駕駛汽車的擔憂,包括黑客行為、勒索行為和隱私泄露。

路人橫穿馬路在中央隔離帶停下

路人橫穿馬路沒有中央隔離帶

建築工人在檢查井工作

平行泊車


Dolgov 坐在 Google X 實驗室的一間會議室里,手裡拿著馬克筆,面前擺著一台 MacBook Pro,讓我向他描述加菲貓和小狗歐迪(均為動畫角色)的不同。

在我結巴地回答之前,Dolgov 繼續說道:「如果我給你一張圖片,問你這是狗還是貓,你肯定很快就知道,對不?但是如果我讓你描述怎麼得出那個結論,這可不簡單。你可能會認為這與那個東西的體型大小有關,貓和狗都有四條腿、一條尾巴和一隻耳朵。但是這些特徵都不明顯。」

Golgov 表示,這種問題是特別適合深度學習解決的問題。給出一大堆基本規則和參數很簡單,例如紅燈停綠燈行,教計算機區別不同類型的交通標誌。教計算機從海量的感測器數據中挑出某一位行人要比描述差異或用代碼表示差異更簡單。

Waymo 利用一種自動化程序和人類標註員訓練其神經網路。在神經網路經過訓練後,這些巨大的數據集還需要經過精簡和壓縮,這樣才能應用在 Waymo 無人車所在的現實世界中。這個程序與壓縮數字圖像類似,對構建基礎設施使系統擴展為全球系統很重要。

如果你觀察汽車攝像機捕捉到的圖像,然後將這些圖像放在利用汽車激光感測器數據構建的相同場景匯總,你就會發現 Waymo 要處理的問題是如此繁雜。如果你從來沒見過LIDAR 效果圖,它就像是 Google 街景圖會變成讓人產生幻覺的黑光海報。

這些圖像可以提供無人車的鳥瞰視角,以及無人車「看到」的周圍畫面。行人在這些圖像上顯示為黃色矩形,其他車輛顯示為紫色正方形等等。Waymo 為動物分配有類別,例如「貓狗」、「鳥類松鼠」等(原來貓和狗的區別對無人車是完全沒有意義的)。但除了這些,Waymo 還在訓練其演算法感知環境中不合常規的對象:下半身處在檢查井裡的建築工人;穿著馬道具服的人、站在角落旋轉箭頭標誌的人。


沒有人類駕駛員的干預,無人車必須適應典型駕駛環境中出現的奇怪元素。「非常規場景真的非常重要,對於無人車而言尤其如此。」

對無人車進行編程,使其對在白天橫穿馬路的行人作出反應是一回事,讓汽車感知橫穿馬路的行人並作出反應是另一回事。那行人在中央隔離帶停下怎麼辦?Waymo 的無人車會謹慎做出反應,因為行人經常會在中央隔離帶停下或等待。如果沒有中央隔離帶怎麼辦?無人車會將其識別為異常行為,完全減慢車速讓行人穿過馬路。Waymo 使用機器學習構建模型,讓其識別正常和異常行為並分別作出不同反應。

訓練神經網路需要海量的數據。這意味著 Waymo 要積累數億條汽車標註數據。為了將這些標註數據應用到駕駛場景中,Waymo 的感知部門主管 Arnoud 預計,人為標註員每秒可以標註一輛汽車,標註 1 億輛汽車將需要 20 年的時間。如果沒日沒夜地標註,每秒可以標註 10 輛汽車,這就需要四個月的時間才能完成對整個數據集的標註。

現在 Waymo 的無人車只在鳳凰城郊外的封閉測試場地里進行測試,如果 Waymo 想讓它的無人車達到足夠的智能水平,則可以在任何環境和任何條件下行駛——Level 5 自動駕駛,有好的演算法還不行,它還需要足夠強大的基礎設施擴展它的無人駕駛系統。Arnoud 將這稱為 AI 的「產業化」。

作為 Alphabet 旗下的一個子公司,Waymo 可以使用 Google 的數據中心訓練它的神經網路。具體來說,Waymo 可以使用高性能的雲計算硬體系統——張量處理器(TPU),這個系統由 Google 的一些最具野心和影響巨大的技術提供支持。

以前,Google 使用的是市場上能買到的 GPU(通常是英偉達產的GPU)。但是過去幾年間,Google 選擇自行開發和製造硬體,對軟體進行優化。Arnoud 表示,TPU 的速度要比 CPU 快好幾個數量級。


Waymo 對 AI 的未來規劃不是生產出有意識的汽車。Waymo 將致力於自動化機器學習(構建機器模型的過程是自動的)這樣的技術研究。「基本上,AI 機器學習就是創造替人類解決問題的其他 AI 模型的技術」。

對於在道路標誌不清楚的區域行駛的無人車來說,這非常有用。如今最具挑戰的駕駛環境要求無人車必須能在沒有白線或明顯界線的情況下做出導航決策。如果 Waymo 能夠構建機器學習模型,訓練神經網路在路標不清楚的道路上行駛,那麼 Waymo 的無人車就可以駛出鳳凰城郊外,最終行駛在公路上。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 人工智慧學家 的精彩文章:

人工智慧除了創造新材料還能預測化學反應性能
VR變革已來!華為完成業界首個5G實驗網下Cloud VR業務驗證

TAG:人工智慧學家 |