當前位置:
首頁 > 科技 > 人工智慧迎來寒冬,自動駕駛汽車發展受阻

人工智慧迎來寒冬,自動駕駛汽車發展受阻

懷疑論者表示全自動駕駛的完全實現,可能要比業界認定的還要遙遠。

全自動駕駛汽車近在眼前?

如果你相信各大公司的CEO,那麼感覺可能再過幾個月全自動駕駛汽車就要實現了。2015年,埃隆·馬斯克預測特斯拉將於2018年推出全自動駕駛汽車,Google也是如此。Delphi和MobileEye計劃將於2019年推出四級系統,Nutonomy計劃於同年在新加坡街頭部署數千輛無人駕駛計程車。通用汽車將於2019年開始生產全自動駕駛汽車,這種車輛沒有方向盤,也無法讓司機介入——這些預測背後關係到的是資金的投入,這些公司紛紛下注賭軟體的發展能夠實現這些大肆的宣傳。

從表面上看,似乎全自動駕駛汽車近在眼前。Waymo已經開始在亞利桑那州特定的公共道路上測試汽車。特斯拉和其他效仿者也紛紛開始出售功能上有限制的自動駕駛汽車,但如果有意外情況發生,這類汽車依然需要依靠司機進行干預。最近幾起事故,有些是致命的,但是只要系統不斷改進,從邏輯上說,我們距離沒有人為干預的自動駕駛車輛不會太遠了。

但是全自動駕駛汽車的夢想可能比我們想像中還要更加遙遠。人工智慧專家越來越擔心,距離自動駕駛系統可以確保避免事故,可能需要數年甚至數十年。雖然自我訓練系統可以應對現實世界的混亂,但是紐約大學的Gary Marcus等專家則認為重新審視這一問題不可避免,有人稱之為「人工智慧的寒冬」。這種延遲可能會造成整整一代人都無法實現全自動駕駛汽車,這會給那些依靠自動駕駛技術的公司帶來災難性的後果。

深度學習的通用化應用還不成熟

很容易理解為什麼汽車公司對自動駕駛持樂觀態度。

在過去的十年中,深度學習(一種使用分層機器學習演算法,從海量數據集中提取結構化信息的方法)已經在人工智慧和技術行業取得了驚人的進展:它加強了Google搜索、Facebook的News Feed、將會話語音轉成文本的演算法、還支持Go-playing系統。在互聯網之外,我們用機器學習檢測地震、預測心臟病,並通過攝像頭檢測行為,還有很多不計其數的創新。

但是深度學習需要大量的訓練數據才能正常工作,幾乎需要涵蓋演算法可能遭遇的所有情況。例如,Google圖片等系統非常善於識別動物,只要有訓練數據向他們展示每種動物的樣子。Marcus稱這種任務為「插值」,即掃描所有被標記為「豹貓」的圖像後,確定新圖片是否屬於同一組。

工程師可以根據數據的來源和結構獲得創意,但是已有演算法的範圍有嚴格的限制。除非已經看過幾千張豹貓的圖片,否則即便是同一個演算法也無法識別豹貓——即使這個演算法已經看過了家貓和美洲豹的圖片,且知道豹貓是介於兩者之間的東西。這個稱之為「通用化」的過程需要一套不同的技術。

長期以來,研究人員以為他們已經通過正確的演算法提高了通用化技術,但是最近的研究表明,傳統的深度學習在實現通用化方面比我們想像的更糟。一項研究發現,傳統的深度學習系統甚至難以在一個視頻的不同幀上實現通用化,隨著背景輕微的變化,深度學習會將同一隻北極熊錯認為狒狒、貓鼬或黃鼠狼。由於每個分類都匯總了數百個因素,因此即使是圖片微小的變化也可以徹底影響系統的判斷,這種現象被其他研究人員當作對抗數據集使用。

無人駕駛汽車深陷困境

Marcus指出聊天機器人熱潮就是最近炒作通用化問題的一個例子。

「我們承諾於2015年推出聊天機器人,」他說,「但是它們沒有什麼幫助性,因為它不過是收集數據。」當你在網上與人交談時,你不想重新討論早期的對話。你希望他們回應你所說的話,利用更加廣泛的會話技巧來做獨特的回應。深度學習無法建立那種聊天機器人。最初的炒作過後,各個公司就會對聊天機器人項目失去信心,很少有人仍在積極地開發。

這給特斯拉和其他自動駕駛公司帶來一個可怕的問題:自動駕駛汽車會像圖片搜索、語音識別和其他人工智慧的成功一樣不斷提高嗎?它們會像聊天機器人一樣在通用化的問題上卡殼嗎?自動駕駛技術是插值問題還是通用化問題?駕駛真的很難預測嗎?

現在可能還為時過早。Marcus說:「無人駕駛汽車就像一個我們不知道答案的科學實驗。」我們從未實現過這個級別的自動駕駛,所以我們不知道它是什麼類型的任務。在某種程度上,它需要識別熟悉的對象,遵守規則,現有的技術應該可以勝任。但是Marcus擔心,事故多發情況下的駕駛可能比業界承認的還要複雜。「新情況的出現,對深度學習來說並不是一件好事。」

我們的實驗數據來自公共事故報告,每個報告都提供了一些不尋常的難題。2016年特斯拉的那場車禍中,Model S汽車由於受到拖車的高度和太陽光反射的影響,全速撞上了一輛白色半挂車的尾部,今年3月,Uber的一輛自動駕駛汽車車禍撞死了一名推著自行車橫穿馬路(違反交通規則)的女士。根據美國國家運輸安全委員會的報告,Uber的軟體在做其預測時,首先將這位女士誤認為不明物體,繼而錯認為一輛自行車,最後確認為一輛自行車。特斯拉在加利福尼亞州的一次車禍中,Model X在撞擊發生之前突然轉向障礙物並提速,原因至今不清楚。

每次事故看似都是一個極端的例子,工程師無法對這類的事情提前作出預測。但是幾乎每次車禍都涉及某種無法預測的情況,如果沒有通用化的能力,那麼自動駕駛車輛不得不在每次遇到這些情形的時候,當作第一次來處理。結果將是一連串的意外事故,且隨著時間的發展,這些事故次數不會減少,危險係數也不會降低。對於持懷疑態度的人來說,《無手動操作報告》的轉變表明這種情況還將繼續,且將維持一定的穩定水平。

Drive.AI創始人Andrew Ng是前百度的高管,也是該行業最著名的推動者之一,他認為問題不在於建立完美的駕駛系統,而在於培訓旁觀者預測自動駕駛車輛的行為。換句話說,我們可以為汽車提供安全的道路。作為一個不可預測案例的例子,我問他是否認為現代系統可以處理行人玩彈跳桿的行人,即使它們以前從未見過。Ng跟我說:「我認為很多自動駕駛車輛團隊可以處理在人行橫道上玩彈跳桿的行人。話雖如此,在高速公路上玩彈跳桿是非常危險的。」

他說:「我們應該和政府合作,要求合法並得到人們的體諒,而不是通過人工智慧來解決彈跳桿的問題。安全駕駛不僅僅與人工智慧技術的質量有關。」

人們應降低對自動駕駛汽車的期望

深度學習不是唯一的人工智慧技術,許多公司已經在探索代替方案。雖然這些技術在業界受到嚴密保護(單從最近Waymo起訴Uber就能看出來),但是許多公司已經轉向基於規則的人工智慧,這是一種較老的技術,可以讓工程師將特定的行為或邏輯寫死到其他自導系統中。它沒有通過研究數據來編寫自我行為的能力(而深度學習恰恰是因為這種能力引起了關注),但是它可以讓這些公司避免一些深度學習的局限性。由於深度學習對基本感知任務的影響仍然非常深刻,因此很難說工程師如何才能成功地檢測出潛在的錯誤。

身為Lyft董事會的風險資本家Ann Miura-Ko表示,她認為問題的一部分是對自動駕駛汽車本身的高度期望,所以大家將無法全自動視為一種失敗。 Miura-Ko說:「希望它們從零級一躍到五級不等於技術的失敗,更像是不應有的期望。我認為所有這些微小的進步都對邁向全自動駕駛有著非凡的意義。」

不過,我們還不清楚自動駕駛汽車還要在目前的困境里持續多久。像特斯拉的自動駕駛汽車等半自動的產品也足夠智能,可以處理大多數的情況,但是如果發生不可預測的情況,仍然需要人為干預。

當出現問題時,很難判斷是汽車還是司機的問題。對於一些評論家來說,即使出錯不能完全歸咎於機器,這種混合駕駛也不如人類駕駛員安全。根據蘭德公司一項研究估計,自動駕駛車輛必須在不出現任何死亡事件的情況下,行駛夠2.75億英里才能證明它們和人類駕駛員一樣安全。特斯拉的自動駕駛汽車出現第一次死亡事件時的行駛里程數大約為1.3億英里,遠遠低於標準。

但是,利用深度學習控制車輛如何覺察物體並決定應對,提高事故發生率比看起來更難。杜克大學教授Mary Cummings表示:「這不是一個簡單的孤立問題,」他指今年早些時候Uber車禍導致一名行人遇難。「這起行人死亡事件中的感知決策周期是相互關聯的。由於感知的模糊導致了錯誤決定(不做處理),而且因為它從感知器上得到了太多的錯誤警報,所以導致沒有剎車。」

起車禍導致Uber暫停了夏季的自動駕駛車工作,對其他公司計劃的推出是一個不祥之兆。在整個業界內,各大公司正在競相爭取更多數據來解決問題,並假設擁有最高里程數的公司將建立最強大的系統。但是這些公司看到的是數據問題,而對於Marcus來說這是更難解決的問題。

Marcus說:「他們只是在使用他們希望能夠成功的技術。他們依靠大數據,這是他們賴以生存的根本,但是沒有任何證據可以達到我們所需要的精確度。」

原文:https://www.theverge.com/2018/7/3/17530232/self-driving-ai-winter-full-autonomy-waymo-tesla-uber

作者:Russell Brandom,The Verge的記者。主要負責報道網路、文化、法律、電影以及其他感興趣的方面。

譯者:彎月,責編:郭芮


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 CSDN 的精彩文章:

PHP 7.3 比 PHP 7.0 快 22%,即將進入特性凍結階段
開發者如何實現技能升級、薪資翻番?

TAG:CSDN |