自動駕駛的數據融合到底融合了什麼?
最近在做設計的時候,一旦涉及到多種感測器類型,經常會和「融合」策略打交道。要說「融合」,這個詞已經隨著自動駕駛的普及廣為人知。但融合的內容和目的,卻很難準確的用一句話來描述,很多網上的材料仍在以軍事領域的應用作為例子來解釋,這並不準確。在自動駕駛領域,融合也應該有更準確的定義和描述。
融合(Fusion)聽起來挺新鮮,但太陽底下無新事,這其實是一件我們天天都在做的「簡單的」事情:
人類,我們自身,就是數據融合的典範。人類在很大程度上依賴於視覺,嗅覺,味覺,聽覺和觸覺等感官。所有這些感官每天結合在一起,幫助我們在日常生活中完成大部分(如果不是全部)任務。這本身就是數據融合的一個完美的例子。
我們依靠融合氣味,味道和觸感來確保食物可食用。同樣的,我們依靠融合視覺和聽覺來控制身體的運動,以便在生活中行走或開車並執行大部分任務。在所有這些情況下,大腦執行了感官的融合處理並決定下一步需要做的事情。
眼睛,鼻子和耳朵,就相當於不同的感測器,而大腦,則對信息進行深度的處理,人的認知,正是源於對信息的融合,比如你面前有一個蘋果,你如何知道它「是蘋果」而不是別的東西呢?要看它的形狀,顏色,評估一下大小,重量和手感,表面是否光滑,聞一聞是不是蘋果味的,甚至咬上一口嘗嘗味道。
當然,咬一口也許是有危險的......
所以,最終確定它是不是一個蘋果,需要多個「感測器」的參與,大腦會綜合所有線索作出一個最終的判斷。
單獨運用一個「感測器」解決問題是有限制的,比如只用眼睛,它可能會產生錯覺,像下面的圖片,你以為看到了一個在馬路上的水池裡游泳的美女,但實際上這只是一副畫在地上,從某個特定角度「欺騙」你眼睛的畫,從這個特定的角度看過去,三維物體和二維圖畫可能是一樣的。
既然用眼睛會產生錯覺,那我們不用眼睛,用手去摸不就行了嗎?或者直接聞一聞有沒有美女的香味......
想像一下吧,閉著眼睛伸手去摸索地上的美女圖,甚至還俯下身去用鼻子嗅嗅,然後露出迷之微笑。你確定要在大庭廣眾之下用這樣的方式來確定這是真人還是畫?不要忘了人的胳膊長度有限,而嗅覺更是不如其它動物靈敏,所以在觸摸到圖畫之前,你還得先瞎摸索一番以確定方向沒搞錯。
不想做變態,那就不要忘了:單個感測器是有探測距離和探測內容局限的
那麼,正確的做法是什麼樣的呢?
先仔細的觀察一下,然後:
換一個角度看,根據畫面的變形判斷出這是一個平面圖形
伸手去摸一摸,根據觸感判斷出這不是真正的美女和水池
聞一聞有沒有「人味」(好吧,這不算是常規操作)
這三種方法都用到了「融合」,三種融合策略都可以解決問題,但顯然第一個和第二個策略誤判的可能性更小,第三個方法么,如果在畫上撒點香水,或者旁邊站個真人,都更容易造成誤判。所以,融合策略不同,誤判的可能性也不同。
感測器融合的核心在於:
感測器融合是感知數據或來自不同來源的數據的組合,使得得到的信息具有比單獨使用這些源時可能的不確定性更小的不確定性。在這種情況下,不確定性降低意味著更準確,更完整或更可靠。
從感測器的種類來分,第一個方法是同類感測器融合,第二和第三個是異類感測器融合。
當然,你也可以三種方法一起上,不過這需要花費更多的時間和能量,以及多死幾個腦細胞,對於系統來說,這意味著演算法的開銷更大,也意味著更高的能耗,發熱量,更差的實時性,以及更高的成本。
同類感測器融合意味著:
可以得到單個感測器所不能得到的信息,獲得1+1>2的效果,比如人的雙眼,雙目視覺比單目視覺多了深度信息,這是單個眼睛無論如何都無法獲得的。
如果有一個感測器無法工作,那同類的感測器還可以繼續提供信息,提高某些只能由這種感測器獲取的信息的冗餘。
即使是同種類型的感測器,也存在互補的情況,比如同樣是視覺感測器,望遠鏡只能看遠處,而顯微鏡只能看近處,在研究某一個對像的時候,我們可能兩者都需要,最後才能得出一個科學合理的結論。
改進的解析度,當融合相同屬性的多個獨立測量時,結果值的解析度優於單個感測器的測量值。
而異類感測器融合的優勢在於:
魯棒性和可靠性:多個感測器套件具有固有冗餘,即使在部分故障的情況下,系統也能夠提供信息。
擴展空間和時間覆蓋範圍(天侯和天時):一個感測器可以「看」到其他感測器無法單獨測量的內容。
增強置信度:通過測量覆蓋相同域的其他感測器來確認一個感測器的測量值。
減少模糊性和不確定性:聯合信息減少了對測量值的模糊解釋。
抗干擾的魯棒性:通過增加測量空間的維度(例如,利用光學感測器和超聲波感測器測量所需的量),系統變得不易受到干擾。
異類感測器的融合尤其複雜,融合演算法需要提取和組合各種信息,以最真實準確的反映出檢測對象的實時狀態,並給後續的模塊提供其必須的信息,這需要對每個感測器的能力和優缺點有著充分的了解。
從最原始的電信號,到具有具體含義的信息,其生成是逐步的,數據融合過程通常被分類為低,中或高,這取決於融合發生的處理階段。低級數據融合結合了多個原始數據源以生成新的原始數據。期望融合數據比原始輸入更具信息性和合成性。
現在說的比較多的是所謂「後融合」(說實話我不知道這個說法從哪兒傳出來的,根本查不到出處啊......),即目標融合,也就是將雷達和攝像頭各自檢測到的目標列表進行融合,以獲取更準確全面的目標信息。至於卡爾曼濾波,這只是一種線性濾波方法,以消除測量的雜訊和隨機誤差,卡爾曼濾波並不算是融合策略的一部分。
從融合內容的角度看,可以分為直接融合和間接融合。
直接融合是來自一組異構或同質感測器之間,或者感測器數據歷史值和感測器數據融合。
而間接融合使用信息源,如關於環境和人類輸入的先驗知識。(所以地圖數據融合似乎屬於間接融合)
可以說融合很多時候會提高系統的識別率和準確性,但是有一點非常重要,就是:融合演算法無法取代感測器的準確性。感測器是基礎,融合併不能解決所有出感測器的問題,比如一開始提到的蘋果的例子,如果眼睛告訴你這個水果是白色的,想必你怎麼「融合」也不會認為這是個真正的蘋果,除非其他所有感官都告訴你這是個蘋果。這樣最終的結論可能是:這是個「塗成白色的蘋果」,這時如果還讓你咬一口,恐怕是怎麼也不敢下口了。對於系統來說,這時就無法作出決策。畢竟,選錯了的話,是要出人命的。
看看「果殼機動」的其他文章


TAG:果殼機動 |