國內外研究現狀和發展動態
近幾年,無人駕駛與AI并列為大熱話題,關于無人駕駛應用于實際的道路行駛的相關問題一直以來都頗有爭論。上個月,美國亞利桑那州州長Doug Ducey簽署了一份關于無人駕駛的行政命令:無駕駛員的純無人駕駛汽車允許在公共道路上通行;無獨有偶,美國加利福尼亞州行政法規辦公室批準了一項新規定:美國加州同樣允許無駕駛員操控的“完全自動駕駛汽車”在公共道路上進行測試。而在國內,上海發放了全國首批智能網聯汽車開放道路測試號牌,這意味著無人駕駛汽車走出封閉園區正式進入路測階段。
而無人駕駛車輛必不可少的就是計算機視覺技術,計算機視覺是應運時代而生的產物,用于計算機對外界圖形的信息處理,它由運用廣泛的CNN的方法,運算速度快,其運用的車道檢測是大多數人面臨的主要問題,運用的Laplacian邊緣檢測技術所需內核小,但易被噪聲干擾,而謹慎的檢測器盡管運用一些方法為更多的研究提供了額外的方法,但也限制了其本身的性能[1]。
自2003年起,就有各種無人駕駛車輛的研究,比如清華大學研制成功THMR-V(Tsinghua Mobile Robot-V)型無人駕駛車輛,能在清晰車道線的結構化道路上完成巡線行駛,最高車速超過100km/h。
追溯無人駕駛技術的發展歷史,由國防科技大學自主研制的紅旗HQ3無人車,2011年7月14日首次完成了從長沙到武漢286公里的高速全程無人駕駛實驗,創造了中國自主研制的無人車在復雜交通狀況下自主駕駛的新紀錄,標志著中國無人車在復雜環境識別、智能行為決策和控制等方面實現了新的技術突破,達到世界先進水平,而其采用的就是人工智能的神經網絡技術。
說到神經網絡對自動駕駛汽車的作用,重點之一是其運用了反褶積圖,以顯示影響網絡輸出的圖像區域。其二是運用建立數學模型和使用數學公式的方法檢驗因果關系。但總而言之實現的關鍵方法包含三個步驟:(1)編碼器:卷積特征提取;(2)通過視覺注意機制的粗粒度譯碼器;(3)細粒度的解碼器[2]:因果視覺顯著性檢測和注意力地圖的細化。
2013年,百度開始研發自動駕駛汽車。百度方面證實,百度已經將視覺、聽覺等識別技術應用在無人汽車系統研發中,負責該項目的是百度深度學習研究院。2015年年末,百度無人駕駛車在北京進行全程自動駕駛測跑,可根據不同場景切換狀態,最高時速達100km/h。2016年,北京理工大學設計了一款無人駕駛賽車,百公里加速僅3秒,使用雙目攝像頭用于行人偵測、避障及路線規劃。70年代開始,美國、英國、德國等發達國家開始進行無人駕駛汽車的研究,在可行性和實用化方面都取得了突破性的進展。美國最為發展前景好的是谷歌和特斯拉。
2014年12月21日,谷歌宣布,其首款成型的無人駕駛原型車制造完畢,將會在2015年正式進行路測。谷歌擁有先進的軟件和算法基礎,其自動駕駛汽車擁有攝像頭、GPS、雷達與激光傳感器,可以極為靈敏地獲取周圍環境的信息。自2009年起,谷歌自動駕駛汽車已在自主模式之下行駛了超出120萬英里。在這樣的磨練中,系統對于應對各類狀況已經積攢了豐富的經驗。谷歌的自動駕駛車可以識別各類物體甚至是交警的手勢,谷歌強大的軟件算法能力由此得以體現。
那么究竟無人駕駛的事故率和傳統駕駛的事故率孰高孰低,從警方給出的事故率和Google報告中的事故率來看,結果是無人駕駛高于傳統駕駛一倍,但是有一些導致結果不穩定的因素,如路面刮蹭的小事故警方根本不會報道,但是我們可以用統計學的方式來計算論證,最終得到結果:無人駕駛的事故率確實小于傳統駕駛的事故率。到目前為止,Google汽車在自主模式下發生的最常見的碰撞事件類型是Google汽車在停止或幾乎不動時被另一輛車追尾,而在所有碰撞事故中,Google汽車并沒有參與任何單一車輛的事故,且在所有碰撞事故中只有一次撞車涉及可能的傷害且傷害程度低于預期值。但由于事故數量較少,所以只能大致得出Google汽車自主模式下的碰撞率低于人類駕駛車輛[3],且在無法避免的碰撞事故中能夠減輕碰撞程度的結論。
特斯拉的優勢則在于其速度之快,在其他企業對自動駕駛技術尚處研究階段之時,特斯拉已經投入量產并創造出一定的規模了。特斯拉本身在自動駕駛方面就具備技術層面的優勢,并且對自動駕駛技術又存在一種特別的執著。其車型擁有用以識別周圍環境的超聲波傳感器、辨別前方物體的前置攝像頭與雷達,以及無數次路測累積的高精度衛星地圖。
但這個領域還有一些問題,比如:如何提高無人駕駛領域中改進消失點的方法。相較于傳統的RANSAC算法,Moon等提出的harmory算法可以提高消失點檢測的準確率,從RANSAC算法的本質闡釋出RANSAC算法具有隨機性[4],最后通過數據對比的方式,說明了HS算法在準確率這一方面優于RANSAC算法。
無人駕駛技術的不斷發展和更新,是建立在對我們手動駕駛的過程中發生過的各類問題和情況的大量研究的基礎上的,是大量數據統計分析進而得出結論的結晶。而日益增長的數據庫與信息庫給我們提取幫助自動駕駛了解和預測復雜交通場景的任務提出了愈來愈大的挑戰,現有的文獻還沒有提供從大規模數據中自動學習交通原語的方法,而最近引入的一種非參數貝葉斯學習方法[5],實驗結果表明,非參數貝葉斯學習方法能夠從二元和連續事件共存的流量場景中提取交通原語。
無人駕駛技術繼續迅猛發展,英國第一輛無人駕駛汽車于2015年2月亮相,它是旨在幫助乘客,購物者和老年人短距離出行。新的無人駕駛汽車將于本周在英國格林威治亮相,被稱為Lutz Pathfinder。
而幾乎同時在德國漢堡的Ibeo公司應用先進的激光傳感技術把無人駕駛汽車變成了現實:這輛無人駕駛智能汽車在車身安裝了6臺名為“路克斯”(LUX)的激光傳感器,由普通轎車改裝而成,可以在錯綜復雜的城市公路系統中無人駕駛。這歸功于車內安裝的無人駕駛設備,包括激光攝像機、全球定位儀和智能計算機。
無人駕駛技術還有廣闊的應用平臺,可以想到的是,目前無人駕駛地面作戰平臺越來越適應現代化戰爭的需要,較高的雷達測量精度能幫助準確識別出作戰惡劣環境的周圍目標,其中一個重要問題就是考慮確保無編隊碰撞事故,而這取決于無人作戰地面平臺控制算法的設計,這個設計的難點在于,惡劣的作戰環境下,道路上并沒有車道標志,因此,車的前行路線不能太過于依賴于車道線,算法應該可靠地識別包括靜態物體和動態車輛在內的目標[6],從而確保各自安全行駛。
最近人們還通過研究汽車共享業務模型的共享無人駕駛出租車體系后得出結論,共享自主車輛(SAV)車隊可有效地減少停車位,節約城市空間,減少溫室氣體和有害物質地排放,一個無人駕駛車隊可以基本替代一個城市中的所有私家車,并滿足所有人的出行需求,因為無人駕駛車輛擁有更好的安全性能,更方便和優化的旅行,而且能減少擁堵,降低總體成本,降低停車空間要求等。具體來說可以采取類似于出租車服務或點對點實時乘車分享的形式[7]。與基于應用程序的汽車共享一樣,這些形式的乘坐共享已被證明非常受歡迎。
在2016年的CVPR會議上重點講述了運用視覺注意力的神經網絡模型來處理無人駕駛汽車的問題。它比起一般的難以尋蹤的神經網路模型,有著易查看的特點。用于無人駕駛汽車,它能將熱力圖傳達給CNN判斷,使車輛安全駕駛。該模型的實現方法共三大步驟:三個步驟:(1)編碼器:卷積特征提取,(2)通過視覺注意機制的粗粒度譯碼器,以及(3)細粒度的解碼器:因果視覺顯著性檢測和注意力地圖的細化。三大步驟后也存有檢驗步驟以確保正確。模型建立完成后,需要在天氣晴朗時拍攝大量視頻作為練習數據,花不到24小時在NVIDIA Titan X Pascal GPC上訓練,嘗試了三個不同的懲罰系數來理解模型決策的原理,使模型能夠注意道路的要素如車道標記、護欄和前方車輛。最后得出結論,他們與相同的基礎CNN相比,(i)在沒有注意的情況下,對注意力的控制不能降低控制的準確性。(ii)原始的注意突出了圖像中的可解釋特征,而(iii)因果過濾通過去除對輸出沒有顯著影響的特征[8],達到了解釋復雜性的有效降低的效果。
2017年的ICCV等權威會議都強調了自動無人駕駛的研究重心。我們基于Winograd的最小濾波算法引入了一類新的卷積神經網絡快速算法。由于這些算法計算量最小,因此這些算法在小型濾波器和小型設備方面表現優異。與直接卷積相比,這些算法可以將convnet層的算術復雜度降低4倍。幾乎所有的算術運算都是通過足夠大的密集矩陣乘法來進行計算的,即使批量很小時也可以進行有效計算,對于自行駕駛汽車的行人檢測數據計算分析非常有幫助。與傳統的FFT卷積算法相比,存儲器要求也很輕。這些因素使實際實施成為可能。我們對NVIDIA Maxwell GPU的實施實現了所有批量測量的最先進的吞吐量,從1到64,同時使用大約16MB的工作空間內存。深度卷積神經網絡(convnets)在圖像識別問題上達到了最先進的結果。網絡需要幾天的GPU時間來訓練,并且在分類過程中也需要大量的計算資源。數據集較大的和模型導致更高的準確性,但同時也增加了計算時間。因此,在神經網絡中進行神經網絡分析時,如何快速地計算網絡成了關鍵。
而且在無人駕駛的過程中,假設人們看不到任何工作原理,人們也是不愿意乘坐的。但是如果全方位的展示各種參數,各種傳感器數據。任誰都會感到頭大。若想使無人駕駛車輛快速地融入社會,使人們接受并歡迎,首要的工作任務應該是如何讓乘客感到安全和放心,而假如乘客可以在車內實時地關注車外的各種路況信息,但是又不能單純地將各種數據信息硬塞給乘客,在這種情況下,無人駕駛的可視化便成了現在的研究重心之一,即通過神經卷積網絡將處理過的數據信息以簡單直觀的圖像呈現給乘客。通過可視化關注無人駕駛,成為無人駕駛領域中的一個方向。目前,已取得顯著技術突破。美國加利福尼亞大學伯克利分部將圖像區域傳輸到識別網絡(CNN)做出判斷,調整注意力權重,最后講圖像呈現給用戶[2]。該方法已經被證明在真實模型中具有有效性。
新硬件Jetson TX2是嵌入式人工智能超級計算平臺,可以在終端上部署人工智能計算能力,同時提供了JetPack SDK全套軟件的支持。
參考文獻
[1] Brilian Tafjira Nugraha,Shun-Feng Su,Fahmizal. Towards self-driving car using convolutional neural network and road lane detector[C].2017, 2nd International Conference on Automation, Cognitive Science, Optics, Micro Electro--Mechanical System, and Information Technology (ICACOMIT),65-69.
[2] Jinkyu Kim,John Canny. Interpretable Learning for Self-Driving Cars by Visualizing Causal Attention[C]. IEEE International Conference on Computer Vision(ICCV), Venice, Italy, 2017: 2961-2969.
[3] Eric R. Teoh, David G. Kidd. Rage against the machine? Google's self-driving cars versus human drivers[J]. Journal of Safety Research, 2017,63(1):57-60.
[4] Yoon Young Moon,Zoog Woo Geem,Gi-Tae Han. Vanishing point detection for self-driving car using harmony search algorithm[J]. Swarm and Evolutionary,Computation, 2018, In press:1-9.
[5] Wenshuo Wang, Ding Zhao. Extracting Traffic Primitives Directly From Naturalistically Logged Data for Self-Driving Applications[J]. IEEE Robotics and Automation Letters,2018,3(2):1223-1229.
[6] Jiarui Li, Lei Han,Zhipeng Dong, et.al. A target recognition algorithm applied to the unmanned ground combat platform in curve driving[C]. IEEE International Conference on Unmanned Systems (ICUS), 2017, 192-196.
[7] Luis M. Martinez, José Manuel Viegas. Assessing the impacts of deploying a shared self-driving urban mobility system: An agent-based model applied to the city of Lisbon, Portugal[J]. International Journal of Transportation Science and Technology, 2017, 6(1):13-27.
[8] Andrew Lavin, Scott Gray. Fast Algorithms for Convolutional Neural Networks[C]. IEEE Conference on Computer Vision and Pattern Recognition(CVPR), Las Vegas, NV, USA, 2016:4013-4021.
|