目前大部分自動駕駛導航係統在識別周邊的環境和物體(ti) 時,都是使用相機和傳(chuan) 感器等捕捉感知到的可見光經過各種光學原理所生成的圖像和視頻。其實從(cong) 仿生學角度講,這種方式正是模仿了人類的雙眼及大腦的工作原理,但也正因為(wei) 此,目前普遍的自動駕駛導航係統在難倒人類駕駛員的濃霧可見度低時也束手無策。
為(wei) 了解決(jue) 這個(ge) 問題,麻省理工學院的研究人員GuySatat,RameshRaskar和Matthew Tancik研發了一種全新的基於(yu) 激光的成像係統,即使在濃霧中利用激光可以也能準確計算車輛與(yu) 前方物體(ti) 的距離。這一係統將會(hui) 在今年5月在匹茲(zi) 堡舉(ju) 行的計算攝影國際大會(hui) 上正式發布,主要原理是,該係統使用從(cong) 照相機中發射出的短脈衝(chong) 激光及其從(cong) 前方物體(ti) 反射回的反射時間來計算與(yu) 前方物體(ti) 的距離。

圖 | MIT對比兩(liang) 種識別解決(jue) 方案
當天氣很好,激光波被發射與(yu) 反射的路徑都十分清晰單一,利用反射時間計算與(yu) 物體(ti) 距離的方法是非常準確的。但是當前方有濃霧時,由無數懸在空中的微小水滴組成的霧會(hui) 把激光在發射與(yu) 反射過程中向各種方向散射出去。因此,被散射而中斷過的激光脈衝(chong) 最終會(hui) 以與(yu) 晴朗天氣中不同的反射時間返回到相機,因此僅(jin) 僅(jin) 依賴於(yu) 反射時間信息計算的距離是不完全準確的。
為(wei) 了解決(jue) 這個(ge) 問題,麻省理工學院的研究人員說他們(men) 已經開發出了一種新的處理算法——他們(men) 發現,無論霧可能有多厚,散射激光的反射時間總是遵循一個(ge) 非常具體(ti) 的分布模式。當攝像機以每兆分之一秒的頻率計算返回到傳(chuan) 感器的光子數量,並把這些結果繪製成圖時,係統可以應用特定的數學濾波器來找出數據尖峰,從(cong) 而得到準確的隱藏在霧中的實際物體(ti) 的距離。
研究人員在麻省理工學院的實驗室裏製作了極其濃的霧來對成像係統進行測試。在這個(ge) 充滿濃霧的長約1米的小房間裏,該成像係統能夠清晰地看到的物體(ti) 的距離比人眼可以看到的要多足足21厘米。可以設想,當放大還原到現實世界的尺寸和條件時,霧的濃度肯定不會(hui) 像研究人員人為(wei) 創造的那麽(me) 厚重,該係統將能夠看到足夠遠的前方道路的物體(ti) ,並讓車輛有足夠的時間作出安全的反應來避免危險。
轉載請注明出處。







相關文章
熱門資訊
精彩導讀



















關注我們

