當前位置:
首頁 > 科技 > 深度學習比想像中更糟糕 自動駕駛汽車正一頭撞向人工智慧路障

深度學習比想像中更糟糕 自動駕駛汽車正一頭撞向人工智慧路障

如果你信任首席執行官們說的話,距離一輛完全自動駕駛的汽車可能只需幾個月的時間。 2015年,埃隆·馬斯克預測到2018年,會有完全自動駕駛的特斯拉;谷歌也是如此。 Delphi和MobileEye的4級系統目前定於2019年,同年Nutonomy計劃在新加坡街頭部署數千輛無人駕駛計程車。通用汽車將在2019年使完全自動駕駛汽車投產,沒有方向盤或司機介入。這些預測背後有實實在在的資金支撐,押注軟體能夠趕上炒作的假設。

從表面上看,似乎比以往任何時候都更接近完全自動駕駛。 Waymo已經在亞利桑那州有限的公共道路上測試汽車。特斯拉和許多其他模仿者已經出售了有限形式的自動駕駛儀Autopilot,如果發生任何意外情況,司機就會進行干預。發生過一些事故,有些是致命的車禍,但只要系統不斷改進,邏輯是,在需要干預的情況我們不必等太久。

但實現完全自動駕駛汽車的夢想可能比我們意識到的更遠。人工智慧專家越來越擔心,在自動駕駛系統能夠可靠地避免事故之前,可能需要數年甚至數十年。隨著自我訓練的系統應對現實世界的混亂,像紐約大學的加里·馬庫斯這樣的專家正準備在預期中進行痛苦的重新校準,這種糾正有時被稱為「人工智慧寒冬」。這種延遲可能會給那些依靠自駕車技術的公司帶來災難性後果,讓整整一代人無法獲得完全的自動駕駛。

很容易理解為什麼汽車公司對自動駕駛態度樂觀。在過去十年中,深度學習 —— 一種使用分層機器學習演算法從海量數據集中提取結構化信息的方法 —— 已經在人工智慧和技術行業中取得了幾乎無法想像的進展。它支持谷歌搜索,Facebook新聞流,會話式語音到文本演算法以及圍棋冠軍Go-playing系統。在互聯網之外,我們使用深度學習來檢測地震,預測心臟病,並標記攝像頭上的可疑行為,以及無數其他本來不可能的創新。

但深度學習需要大量的訓練數據才能正常工作,幾乎包含演算法將遇到的每個場景。例如,Google Images等系統非常善於識別動物,只要有訓練數據來向它們展示每種動物的樣子。 馬庫斯將這種任務描述為「插值」,對所有標記為「豹貓」的圖像進行調查,並確定新圖片是否屬於該組。

工程師可以在數據來自何處以及如何構建數據時獲得創造性,但對給定演算法可達到的範圍設置了嚴格的限制。相同的演算法無法識別豹貓,除非它看到成千上萬的豹貓的照片 —— 即使它看到了家貓和美洲虎的照片,並且知道豹貓介於兩者之間。這個過程稱為「概括」,需要一套不同的技能。

長期以來,研究人員認為他們可以通過正確的演算法提高泛化技能,但最近的研究表明,傳統的深度學習在概括時比我們想像的更糟糕。一項研究發現,傳統的深度學習系統甚至難以在視頻的不同幀上進行概括,根據背景中的微小變化將同一北極熊標記為狒狒、貓鼬或黃鼠狼。由於每個分類基於數百個因素的總和,即使是圖片的微小變化也可以完全改變系統的判斷,其他研究人員充分利用對抗數據集。

馬庫斯指出聊天機器人熱潮是最近炒作泛化問題的例子。 「我們在2015年就承諾推出聊天機器人。」他說,「但它們沒有任何好處,因為它不僅僅是收集數據的問題。」當你在網上與一個人交談時,你不僅僅想要他們重新討論早期的對話。你希望他們能回應你所說的話,利用更廣泛的會話技巧來產生對你獨有的回應。深度學習無法製作那種聊天機器人。一旦最初的炒作消退,公司就對他們的聊天機器人項目失去了信心,而且幾乎沒有人在積極開發中。

這讓特斯拉和其他自動駕駛公司面臨一個可怕的問題:自動駕駛汽車會越來越好,比如圖像搜索、語音識別,以及其他人工智慧的成功故事嗎?還是會遇到像聊天機器人這樣的泛化問題?自動駕駛是插值問題還是泛化問題?駕駛真是難以預測嗎?

現在可能還為時過早。 「無人駕駛汽車就像一個我們不知道答案的科學實驗。」馬庫斯說。我們以前從未有過這個級別的自動駕駛,所以我們不知道它是什麼類型的任務。在某種程度上,它是關於識別熟悉的對象和遵循規則,現有技術應該完成任務。但馬庫斯擔心,在事故多發的情況下駕駛可能比行業想承認的要複雜得多。 「在某種程度上,令人驚訝的新事物發生了,這對於深度學習來說並不是一件好事。」

我們獲得的實驗數據來自公共事故報告,每個報告都提供了一些不尋常的問題。在2016年,一場致命的車禍導致Model S車輛全速撞上白色拖拉機拖車的尾部,由於拖車的底盤高度很高,加上刺眼陽光的反射而混淆。 3月份,Uber一輛無人駕駛測試車撞死一名女性,當時是在晚上,這名女性推著自行車突然出現在人行橫道。根據美國國家運輸安全委員會的報告,每次更新其預測,Uber的軟體錯誤地將該女性識別為一個未知物體,然後是一輛車,最後才是一輛自行車。在加利福尼亞州的一次撞車事故中,由於仍不清楚的原因,Model X在撞擊之前轉向障礙並加速。

每次事故似乎都是一個極端案例,工程師無法提前做出預測。但幾乎所有的車禍都涉及某種不可預見的情況,如果沒有一般的推廣能力,自動駕駛汽車將不得不面對這些情景中的每一個,就好像這是第一次。結果將是一連串的僥倖事故,隨著時間的推移,這些事故不會變得不那麼常見或者不那麼危險。

Drive.AI創始人吳恩達是前百度高管,也是該行業最著名的擁護者之一,他認為,與培訓旁觀者預測自駕車行為相比,問題不在於建立一個完美的駕駛系統。換句話說,我們可以為汽車提供安全的道路,而不是相反。作為一個不可預測的案例,採訪中問及是否認為現代系統可以處理玩彈簧單高蹺的行人,即使它們以前從未見過。 「我認為許多AV團隊可以在人行橫道上處理踩著彈簧單高蹺的行人。」 吳恩達表示,「話雖如此,但在高速公路中間玩彈彈簧單高蹺是非常危險的。」

「我們應該與政府合作,要求人們守法和體諒,而不是建立人工智慧來解決彈簧單高蹺的問題。」吳恩達說,「安全不僅僅與人工智慧技術的質量有關。」

深度學習不是唯一的人工智慧技術,公司已經在探索替代方案。雖然技術在行業中受到嚴密保護(僅僅看看Waymo最近針對Uber的訴訟),但許多公司已經轉向基於規則的AI,這是一種較老的技術,可以讓工程師將特定的行為或邏輯硬編碼到另外的自導系統中。它不具備通過研究數據來編寫自己的行為的能力,而這正是深度學習如此令人興奮的原因,但它會讓公司避免一些深度學習的局限性。但由於深度學習技術仍然深刻地影響了感知的基本任務,因此很難說工程師如何成功隔離潛在的錯誤。

作為Lyft董事會成員的風險資本家Ann Miura-Ko認為,問題的一部分是對自動駕駛汽車本身的高度期望,將任何未達到完全自動駕駛的事情歸類為失敗。 「期望它們從0跳到5級是預期的不匹配,而不是技術的失敗。」 Miura-Ko表示,「我認為所有這些微觀改進都是實現完全自動駕駛的非凡之處。」

不過,目前還不清楚自動駕駛汽車可以在自動情況下保持多長時間。像特斯拉的自動駕駛儀Autopilot這樣的半自動產品足夠智能,可以處理大多數情況,但如果發生任何過於不可預測的事情,還是需要人為干預。當出現問題時,很難知道汽車或司機是否應該受到責備。對於一些評論家來說,即使錯誤很難完全歸咎於機器,這種人機混合可能比人類駕駛員更不安全。蘭德公司的一項研究估計,自動駕駛汽車必須在沒有死亡事故下行駛2.75億英里,才能證明它們和人類駕駛員一樣安全。與特斯拉自動駕駛儀相關的首次死亡事件發生在大約1.3億英里的範圍內,遠遠低於標準。

但是,通過深入學習,汽車如何看待物體並做決定應對,提高事故率可能比看起來更難。 「這不是一個被孤立的問題。」杜克大學教授瑪麗·卡明斯(Mary Cummings)表示,他指的是今年早些時候發生的Uber事故導致一名行人遇難。 「感知-決策周期通常是聯繫在一起的,就像撞死行人的事故一樣。基於感知的模糊性做出了決定,並且緊急制動被關閉,因為它從感測器得到太多的錯誤警報。」

致命車禍事故促使Uber暫停了今年夏季的自動駕駛測試工作,這對計划進行測試的其他公司來說是一個不祥之兆。在整個行業中,公司正在競相爭取更多數據來解決問題,假設擁有最多里程的公司將構建最強大的系統。但在公司看到數據問題的地方,馬庫斯看到了更難解決的問題。 「他們只是使用他們所擁有的技術,希望它能起作用。」馬庫斯說,「他們依靠大數據,因為這是他們擁有的拐杖,但沒有任何證據表明達到我們所需的精確度。」

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 頭條前瞻 的精彩文章:

二更食堂團隊解散 自稱關停卻偷開小號的手段最終弄巧成拙
建造一座太空電梯?長期以來材料瓶頸難破解 但終於有人想出一個新方案

TAG:頭條前瞻 |