★同濟大學(xué)李欣然,李修賢,李莉
1 引言
隨著(zhù)硬件精度的不斷提高、控制器計算能力的不斷提升以及互聯(lián)網(wǎng)技術(shù)的飛速發(fā)展,智能駕駛、無(wú)人汽車(chē)等概念廣受關(guān)注,無(wú)人駕駛技術(shù)研究不斷深入,其應用落地也越來(lái)越成為可能。由于無(wú)人駕駛車(chē)輛具有提升駕駛安全性、乘車(chē)舒適性以及減少交通事故等特點(diǎn),因此,近年來(lái)無(wú)人駕駛技術(shù)已成為自動(dòng)化智能發(fā)展中備受關(guān)注的方向之一[1-3]。
2 無(wú)人駕駛發(fā)展現狀
無(wú)人駕駛技術(shù)的落地與應用已成為國際公認的未來(lái)發(fā)展方向和關(guān)注焦點(diǎn)之一,美、歐、日、中等國家都將駕駛自動(dòng)化技術(shù)作為交通領(lǐng)域的重點(diǎn)發(fā)展方向,并從國家層面進(jìn)行戰略布局。德國在2017年發(fā)布的《道路交通法第八修正案》中規定在特定時(shí)間和條件下,高度或全自動(dòng)化駕駛系統可以接管駕駛人對汽車(chē)的控制,并在2021年發(fā)布的《自動(dòng)駕駛法》中提出允許被頒發(fā)運營(yíng)許可證的自主駕駛功能操作機動(dòng)車(chē)在主管部門(mén)根據國土法批準的特定操作范圍內使用以及參與公共道路交通;日本在2021年發(fā)布的《面向實(shí)現和普及自動(dòng)駕駛的措施報告與方針》中提出,到2025年在混合其他交通元素的空間中部署L4級自動(dòng)駕駛車(chē)輛;美國在2021年發(fā)布的《自動(dòng)駕駛汽車(chē)綜合計劃》中提出優(yōu)化交通監管環(huán)境,簡(jiǎn)化自動(dòng)駕駛技術(shù)推行的行政豁免程序,修改現有法規支持創(chuàng )新并籌建適合自動(dòng)駕駛的交通環(huán)境。近些年,我國也在不斷推行無(wú)人駕駛相關(guān)政策,在2020年發(fā)布的《智能汽車(chē)創(chuàng )新發(fā)展戰略》中提出:到2025年實(shí)現有條件自動(dòng)駕駛的智能汽車(chē)達到規?;a(chǎn),實(shí)現高度自動(dòng)駕駛的智能汽車(chē)在特定環(huán)境下的市場(chǎng)化應用,并在2021年發(fā)布的《國家車(chē)聯(lián)網(wǎng)產(chǎn)業(yè)標準體系建設指南》中提出了對智能交通、車(chē)聯(lián)網(wǎng)、無(wú)人駕駛等的進(jìn)一步要求。
國內外很多企業(yè)及高校同樣積極關(guān)注和支持無(wú)人駕駛技術(shù)的發(fā)展,并在無(wú)人駕駛方向投入了大量研究。2015年谷歌提交至機動(dòng)車(chē)輛管理局的報告中顯示,其無(wú)人駕駛車(chē)輛在自動(dòng)模式下已完成130萬(wàn)余英里的行程;同年,百度無(wú)人車(chē)完成首次路測,實(shí)現國內混合路況下的全自動(dòng)駕駛。除了企業(yè)的研究投入,自2005年DARPA開(kāi)啟無(wú)人車(chē)挑戰賽的先河以來(lái),諸多自動(dòng)駕駛汽車(chē)挑戰賽也在不斷推進(jìn)這一領(lǐng)域的發(fā)展:歐洲陸基機器人競賽(ELROB)自2006年舉辦至今,促進(jìn)了無(wú)人駕駛數據采集與導航?jīng)Q策等多方面的發(fā)展;VisLab洲際無(wú)人車(chē)挑戰賽,對無(wú)人車(chē)在不同環(huán)境下的適應性提出了更高的要求;歐盟于2011年和2016年舉行的協(xié)同駕駛挑戰賽(GCDC),通過(guò)道路上車(chē)間通訊提升了駕駛安全性并緩解了交通擁堵問(wèn)題。
此外,近年來(lái)越來(lái)越多的科技企業(yè)與互聯(lián)網(wǎng)巨頭進(jìn)入無(wú)人駕駛行業(yè),并與傳統車(chē)企、應用場(chǎng)景方開(kāi)展戰略合作,加速無(wú)人駕駛技術(shù)的迭代與應用落地。2020年傳統車(chē)企持續布局智能網(wǎng)聯(lián)與車(chē)路協(xié)同,逐步構建無(wú)人駕駛生態(tài)圈;同年,互聯(lián)網(wǎng)與出行企業(yè)開(kāi)展智能網(wǎng)聯(lián)技術(shù)應用,發(fā)展云端業(yè)務(wù),百度Apollo、小馬智行等開(kāi)啟商業(yè)化試點(diǎn)服務(wù);此外,一些自動(dòng)駕駛科技公司如Waymo、文遠智行等開(kāi)始與傳統車(chē)企展開(kāi)合作,加速無(wú)人駕駛的技術(shù)落地與量產(chǎn);小米、華為、微軟、字節跳動(dòng)等科技大廠(chǎng)也于2021年起逐步進(jìn)入無(wú)人駕駛領(lǐng)域開(kāi)啟大廠(chǎng)造車(chē)模式。截至2023年,國內多個(gè)低速無(wú)人駕駛項目已進(jìn)入常態(tài)化運營(yíng)模式,且在此基礎上,僅今年上半年全國各級各部門(mén)就公示了近30條無(wú)人駕駛產(chǎn)業(yè)相關(guān)政策,以全方位推動(dòng)無(wú)人駕駛應用落地,為無(wú)人駕駛行業(yè)的發(fā)展提供了明確的發(fā)展方向與生產(chǎn)經(jīng)營(yíng)環(huán)境。
3 無(wú)人駕駛的設計架構
無(wú)人駕駛技術(shù)通過(guò)內外部傳感器采集外部環(huán)境信息與車(chē)輛內部數據,隨后計算設備處理融合數據信息傳遞至規劃系統,并根據輸出信息執行運動(dòng)控制具體內容,以此完成感知、決策、執行全部流程,達到車(chē)輛自主控制的目的?;诖?,無(wú)人駕駛系統架構可以概述為感知、規劃、控制三個(gè)單元,如圖1所示,其中感知單元收集并分析處理環(huán)境信息,規劃單元針對環(huán)境信息進(jìn)行進(jìn)一步的任務(wù)規劃以及行為決策,控制單元在此基礎上執行最終無(wú)人駕駛行為并與交通環(huán)境進(jìn)行實(shí)際交互。
圖1 無(wú)人駕駛系統架構
感知單元具有無(wú)人駕駛系統從環(huán)境中收集并提取相關(guān)知識的能力。感知單元以多種傳感器數據與地圖信息數據作為輸入,經(jīng)過(guò)一系列計算處理對無(wú)人駕駛車(chē)輛周?chē)h(huán)境進(jìn)行感知分析,其作為自動(dòng)駕駛的輸入模塊為下游模塊提供豐富的交通環(huán)境信息。其中環(huán)境感知特指對于環(huán)境信息的理解能力,例如確定障礙物位置、形狀、類(lèi)別、速度信息等,以及對環(huán)境的語(yǔ)義理解與分類(lèi),如信號燈識別、道路標記檢測、行人車(chē)輛檢測等。此外,無(wú)人駕駛車(chē)輛定位模塊也是感知單元的組成部分之一,其作用是確定無(wú)人駕駛車(chē)輛相對于環(huán)境的位置,以滿(mǎn)足后續車(chē)輛路徑規劃等任務(wù)需求。
規劃單元負責無(wú)人駕駛車(chē)輛為了達到某一目標而做出的帶有目的性的決策行為。在無(wú)人駕駛中該目標一般指駕駛目的地,其中包含出行最終目的地以及階段性駕駛行為目的地,如交通路口、車(chē)輛匯入匯出口、車(chē)輛變道超車(chē)目標位置等。規劃單元的主要任務(wù)是在優(yōu)化駕駛軌跡避免碰撞障礙物等基礎安全性需求之上,進(jìn)一步達到優(yōu)化乘客乘車(chē)舒適性、提升交通流效率等高級駕駛目標。這就要求無(wú)人駕駛車(chē)輛可以實(shí)時(shí)檢測周?chē)煌ōh(huán)境,并高效完成環(huán)境信息處理任務(wù)以滿(mǎn)足無(wú)人駕駛車(chē)輛與交通環(huán)境中的障礙物以及其他交通參與者的實(shí)時(shí)交互需求。
控制單元具有幫助無(wú)人駕駛車(chē)輛精準執行系統規劃軌跡及動(dòng)作的能力,從而最終完成無(wú)人駕駛任務(wù)??刂茊卧饕獞脗鹘y自動(dòng)化控制相關(guān)方法,將無(wú)人駕駛車(chē)輛操控系統與規劃單元的輸出相連接,并依據規劃單元發(fā)出的總線(xiàn)指令精準控制車(chē)輛的加速、制動(dòng)、轉向等行為,以實(shí)現車(chē)輛的自主駕駛??刂茊卧鳛闊o(wú)人駕駛技術(shù)的最底層模塊,其運動(dòng)控制的實(shí)現依賴(lài)于對復雜的交通環(huán)境信息(例如交通路面信息、道路曲率等)的準確捕捉與分析。由此可見(jiàn),環(huán)境信息處理是無(wú)人駕駛技術(shù)應用落地的基礎,對于無(wú)人駕駛系統各個(gè)單元都有決定性意義。
4 環(huán)境信息處理關(guān)鍵技術(shù)及發(fā)展
4.1 環(huán)境感知傳感器及其應用
為了保證無(wú)人駕駛車(chē)輛安全高效地進(jìn)行交通活動(dòng),車(chē)輛配備了多種類(lèi)的環(huán)境感知傳感器用以滿(mǎn)足對環(huán)境信息的實(shí)時(shí)捕捉及響應處理需求。常見(jiàn)無(wú)人駕駛車(chē)輛感知傳感器包括激光雷達、攝像頭、毫米波雷達、超聲波雷達傳感器等,如圖2所示。
圖2 常見(jiàn)無(wú)人駕駛車(chē)輛感知傳感器
激光雷達具有實(shí)時(shí)感知以及高分辨率建圖功能,其感知范圍可達數十米至數百米[4],感知角度范圍基于不同的硬件結構,可以達到25度至150度(固態(tài)式及混合固態(tài)式)[5]或25度至360度(機械式)[6]。通常情況下,機械式激光雷達傳感器被安裝在無(wú)人駕駛車(chē)輛頂部,以保證全方位無(wú)遮擋進(jìn)行周?chē)煌ōh(huán)境的檢測以及定位建圖;固態(tài)式或混合固態(tài)式傳感器多被配置在車(chē)輛的前部,以保證車(chē)輛行駛方向的交通安全。激光雷達傳感器具有較好的魯棒性,在光照條件較差、能見(jiàn)度較低的交通環(huán)境中依然可以保持較高感知精確度。
攝像頭傳感器是無(wú)人駕駛技術(shù)中最常使用的外部感知傳感器之一。得益于其直觀(guān)的環(huán)境數據采集特性以及相對低廉的價(jià)格,攝像頭傳感器多用來(lái)檢測百米級距離的障礙物、分辨環(huán)境信號數據等,在目標檢測、環(huán)境分割等無(wú)人駕駛功能模塊中均有重要應用[7]。無(wú)人駕駛配置的攝像頭傳感器多被安裝在車(chē)輛的前擋風(fēng)玻璃與車(chē)輛后視鏡之間,以監測車(chē)行前方較遠距離障礙物,實(shí)現碰撞提醒、信號燈檢測等功能;或被安裝在車(chē)輛周?chē)?,如左右后視鏡、保險杠等位置,以提供環(huán)境全景檢測,為自動(dòng)泊車(chē)等低速駕駛功能提供環(huán)境數據。除了普通單目攝像頭傳感器外,其他具有特殊功能的攝像頭傳感器在無(wú)人駕駛中也有較多應用,如雙目攝像頭傳感器,用以引入距離信息,可以實(shí)現20至30米內的距離測量[8],低廉的價(jià)格使得其在一定程度上成為激光雷達傳感器的替代選擇;紅外攝像頭傳感器常在光照環(huán)境較差、環(huán)境可見(jiàn)度較低的場(chǎng)景中應用,以達到對于駕駛方向障礙物的檢測[9]。
毫米波雷達傳感器是最早應用于無(wú)人駕駛研究中的外部感知傳感器[10],常應用于距離測量以及相對速度檢測模塊。依據傳感器測量范圍及精度可以將毫米波雷達傳感器分類(lèi)為長(cháng)距離檢測傳感器、中距離檢測傳感器以及近距離檢測傳感器。長(cháng)距離檢測傳感器多被安裝在車(chē)輛的保險杠中間,其最遠測量距離可以達到200米,以保證車(chē)輛在高速行駛的過(guò)程中對駕駛方向上障礙物的實(shí)時(shí)檢測和車(chē)輛碰撞提醒。中距離檢測傳感器的檢測范圍為百米級內,一般對稱(chēng)安裝在車(chē)燈位置下方,主要應用在車(chē)輛較低速行駛場(chǎng)景中,完成如高密度城市交通環(huán)境中的行人及障礙物檢測等任務(wù)[11]。近距離檢測傳感器檢測范圍在米至十米級別,相較于前兩種毫米波雷達,近距離毫米波雷達具有相對更大的檢測角度范圍,其一般被安裝在車(chē)輛保險杠兩端以及車(chē)身側方,以用于自動(dòng)泊車(chē)等駕駛場(chǎng)景中避免車(chē)輛與障礙物的碰撞[12]。毫米波雷達傳感器具有價(jià)格低廉、對環(huán)境魯棒性較好等優(yōu)點(diǎn)。
超聲波雷達傳感器一般應用在近距離障礙物檢測任務(wù)中,其感知范圍在十米以?xún)?,因此其應用?chǎng)景主要是低速泊車(chē)環(huán)境[13]。此外,得益于其低廉的價(jià)格優(yōu)勢,無(wú)人駕駛汽車(chē)中常在車(chē)身周?chē)鋫漭^多的超聲波雷達傳感器以減少環(huán)境檢測死角。但受限于超聲波傳感器單一的檢測角度以及相對較長(cháng)的反應時(shí)間,其較少被單獨應用在某一無(wú)人駕駛模塊中,需要與其他無(wú)人駕駛外部感知傳感器配合使用[14]。
4.2 環(huán)境信息構建及地圖信息
無(wú)人駕駛單車(chē)上的外部傳感器信息采集及融合系統受限于傳感器物理精度特性以及駕駛當天天氣環(huán)境影響,無(wú)法完整、實(shí)時(shí)、高清地感知交通道路實(shí)況以及道路環(huán)境特點(diǎn),因此對于環(huán)境信息的超視距先驗感知以及基于高精度數據的地圖信息構建在無(wú)人駕駛技術(shù)中變得尤為重要。
高精地圖是除無(wú)人駕駛車(chē)輛自身傳感器感知數據外另一種服務(wù)于無(wú)人駕駛技術(shù)的環(huán)境信息數據來(lái)源。其利用多種高精度傳感器對交通道路信息進(jìn)行厘米級數據采集以及特征融合,隨后對交通元素進(jìn)行分類(lèi)提取,將不同元素進(jìn)行矢量化構建并存儲封裝為離線(xiàn)數據以支撐其他模塊需求。高精地圖信息的引入有利于拓展無(wú)人駕駛車(chē)輛傳感器檢測精度邊界,并提供了豐富的環(huán)境語(yǔ)義信息,從而減少了無(wú)人駕駛車(chē)輛控制器實(shí)時(shí)數據處理壓力,是無(wú)人駕駛的核心組成部分之一[15]。
相較于傳統導航地圖,高精地圖數據具有高精度、高動(dòng)態(tài)、多維度等特點(diǎn)。其中高精度是指地圖定位精度更高,得益于高精地圖采集車(chē)種類(lèi)豐富且配置性能高的外部感知傳感器,高精度地圖能達到厘米量級的精度,為無(wú)人駕駛車(chē)輛行駛提供了更高的安全保障[16];高動(dòng)態(tài)是指高精地圖具有更好的實(shí)時(shí)性,由于交通環(huán)境、道路信息的復雜多變,高精地圖需要具有更高的更新頻率,及時(shí)對無(wú)人駕駛車(chē)行環(huán)境中的變化進(jìn)行迭代更新,以保證無(wú)人駕駛車(chē)輛能夠應對交通環(huán)境中的道路變化并為其他突發(fā)情況做準備[17];多維度是指高精地圖包含數據更加豐富,擁有更多信息圖層,相較于其他地圖類(lèi)型僅能提供一般道路級別數據,高精度地圖對路網(wǎng)進(jìn)行了厘米級精度的描述,比如車(chē)道相關(guān)屬性(如車(chē)道線(xiàn)類(lèi)型、車(chē)道寬度、車(chē)道中心線(xiàn)等),甚至包含了道路隔離帶位置、材質(zhì)等其他道路環(huán)境信息[18]。
圖3 地圖信息類(lèi)型及發(fā)展
雖然高精地圖具有信息豐富、可靠性高等特點(diǎn),但其冗余的環(huán)境信息同樣會(huì )給無(wú)人駕駛實(shí)時(shí)處理帶來(lái)較大的計算挑戰。因此,“重感知、輕地圖”的去高精化也是當下無(wú)人駕駛技術(shù)的一個(gè)發(fā)展方向?;跓o(wú)人駕駛車(chē)輛自身配置的傳感器,一些無(wú)人駕駛解決方案僅需要輔助以精度較低的地圖信息即可實(shí)現無(wú)人駕駛任務(wù)需求。常見(jiàn)低精度地圖類(lèi)型包括占位柵格地圖、拓撲地圖等。占位柵格圖使用幾何結構將地圖道路信息分割為大小一致的單元格,然后基于道路單元格構建占用網(wǎng)格,在無(wú)人駕駛車(chē)輛周?chē)删W(wǎng)格信息并將交互障礙物信息附加在網(wǎng)格上,隨后以網(wǎng)格單元為最小單位進(jìn)行軌跡規劃預測[19]。拓撲地圖則僅僅保留地圖內不會(huì )發(fā)生變化的拓撲信息,例如道路分岔口、相鄰可變車(chē)道等,為無(wú)人駕駛車(chē)輛行駛提供基本道路信息[20]。地圖信息類(lèi)型及發(fā)展變化如圖3所示。
4.3 端到端感知處理及無(wú)人駕駛技術(shù)
隨著(zhù)算力的不斷增加以及AI技術(shù)的不斷發(fā)展,端到端技術(shù)應用在無(wú)人駕駛領(lǐng)域越來(lái)越成為可能[21]。目前的自動(dòng)駕駛技術(shù)被分割成多個(gè)串行模塊并進(jìn)一步被細分為目標檢測、場(chǎng)景分割、在線(xiàn)建圖、軌跡預測等一系列駕駛子任務(wù),但隨之而來(lái)就面臨著(zhù)多任務(wù)誤差累積、任務(wù)協(xié)調分配等問(wèn)題。端到端無(wú)人駕駛技術(shù)通過(guò)采集環(huán)境信息數據和車(chē)輛狀態(tài)信息直接輸出車(chē)輛控制信號,減少了中間環(huán)節的其他任務(wù)設計,具有簡(jiǎn)潔高效、避免累積任務(wù)誤差等優(yōu)勢。傳統無(wú)人駕駛模型與端到端無(wú)人駕駛模型結構比較如圖4所示。
圖4 無(wú)人駕駛模型結構比較
最早的端到端無(wú)人駕駛嘗試可以追溯到ALVINN模型[22]。該模型構建了一個(gè)三層的全連接網(wǎng)絡(luò )以輸出車(chē)輛行駛方向,其輸入包括前方攝像頭數據、激光測距數據以及基于攝像頭圖像的強度反饋數據。該模型最終成功實(shí)現了以0.5米每秒的速度行駛通過(guò)一段400米長(cháng)道路。除了早期的利用神經(jīng)網(wǎng)絡(luò )方法訓練端到端模型的嘗試,通過(guò)模仿學(xué)習直接獲取環(huán)境信息輸入到控制信號輸出的映射關(guān)系也是獲得無(wú)人駕駛端到端模型的一種可能方法[23-24];強化學(xué)習方法則通過(guò)環(huán)境交互信息學(xué)習訓練數據中的駕駛行為策略,以最大化行為獎勵,同樣可以實(shí)現無(wú)人駕駛端到端模型的構建[25]。隨著(zhù)近年來(lái)設備計算能力的提升,有研究嘗試將端到端技術(shù)與大模型結合以實(shí)現無(wú)人駕駛需求。UniAD模型[26]將當前無(wú)人駕駛感知、預測、決策模塊按照對最終控制單元的影響重新排序組合,并將控制單元的上游任務(wù)進(jìn)行整合包裝,協(xié)調各子模塊之間的特征分配以及優(yōu)化任務(wù),從而輸出信號對無(wú)人駕駛車(chē)輛進(jìn)行最終運動(dòng)控制,以完成無(wú)人駕駛需求。
當然,基于端到端大模型的無(wú)人駕駛技術(shù)應用落地同樣面臨著(zhù)一定困難,例如,僅使用有限的外部環(huán)境傳感器感知原始信號作為無(wú)人駕駛系統輸入,并直接輸出以無(wú)人駕駛軌跡或駕駛控制信號,這樣的端到端黑盒模型可解釋性弱,且其實(shí)際應用安全性也有待進(jìn)一步驗證,尤其是在復雜城市道路環(huán)境場(chǎng)景中;由于端到端模型更多的是基于數據進(jìn)行模型訓練,以模仿實(shí)際人類(lèi)駕駛員的行為動(dòng)作,因此對駕駛員的駕駛行為邏輯以及實(shí)際駕駛規則缺乏了解,在面對現實(shí)交通環(huán)境中的其他駕駛行為風(fēng)格以及一些極端駕駛行為存在難以應對的風(fēng)險;此外,數據驅動(dòng)模型訓練學(xué)習的是全部數據的“平均”控制信號,而由于駕駛行為具有維度高、數據分布不均勻的特點(diǎn),因此對于無(wú)人駕駛汽車(chē)的“平均”控制信號極有可能不是實(shí)際交通環(huán)境場(chǎng)景中的正確控制信號。
由此可見(jiàn),目前端到端無(wú)人駕駛技術(shù)的真正商業(yè)落地與應用還為時(shí)尚早,但端到端無(wú)人駕駛技術(shù)具有簡(jiǎn)潔高效、算力需求較低、與人類(lèi)駕駛員駕駛行為風(fēng)格接近等特點(diǎn),是無(wú)人駕駛技術(shù)十分具有發(fā)展潛力的一個(gè)研究方向。隨著(zhù)深度學(xué)習技術(shù)的不斷發(fā)展,模型的可解釋性、泛化能力會(huì )進(jìn)一步提高,以有效解決當前端到端無(wú)人駕駛模型面臨的問(wèn)題,對端到端駕駛模型的最終應用落地將產(chǎn)生巨大影響。
5 結論與展望
無(wú)人駕駛技術(shù)的逐步應用落地有利于構建一個(gè)更加安全、高效、舒適的交通環(huán)境,是未來(lái)汽車(chē)發(fā)展的重要方向之一。作為無(wú)人駕駛的第一個(gè)環(huán)節,并考慮到實(shí)際交通駕駛場(chǎng)景的復雜多變,環(huán)境信息的實(shí)時(shí)感知以及準確分析是無(wú)人駕駛技術(shù)中的一個(gè)關(guān)鍵課題,在很大程度上影響和決定著(zhù)無(wú)人駕駛的最終實(shí)現效果。然而,受到感知傳感器的物理精度約束、計算單元實(shí)時(shí)處理計算能力限制以及交通環(huán)境的隨機特性影響,僅依賴(lài)傳感器采集信息以及地圖數據信息完成無(wú)人駕駛任務(wù)依舊面臨一定的安全性挑戰。因此,推進(jìn)相關(guān)無(wú)人駕駛政策、加速智能交通環(huán)境建設以落實(shí)車(chē)聯(lián)網(wǎng)技術(shù)落地、提升車(chē)路協(xié)同控制能力有助于為無(wú)人駕駛技術(shù)提供更好的保障。
★基金項目:國家自然科學(xué)基金(72171172,62088101,92367101)
作者簡(jiǎn)介:
李欣然(1998-),湖南長(cháng)沙人,同濟大學(xué)在讀博士生,主要從事自動(dòng)駕駛、深度學(xué)習、博弈等方向的研究。
李修賢(1986-),山東棗莊人,教授,博士,現就職于同濟大學(xué),主要從事分布式控制和優(yōu)化、算法、博弈、機器學(xué)習,以及在無(wú)人機和無(wú)人車(chē)等領(lǐng)域應用方面的研究。
李 莉(1975-),遼寧撫順人,教授,博士,現就職于同濟大學(xué),主要從事基于數據的建模與優(yōu)化、復雜制造系統調度、計算智能及應用方面的研究。
參考文獻:
[1] 張守武, 王恒, 陳鵬等. 神經(jīng)網(wǎng)絡(luò )在無(wú)人駕駛車(chē)輛運動(dòng)控制中的應用綜述[J]. 工程科學(xué)學(xué)報, 2022, 44 (2) : 235 - 243.
[2] 錢(qián)玉寶, 余米森, 郭旭濤, 等. 無(wú)人駕駛車(chē)輛智能控制技術(shù)發(fā)展[J]. 科學(xué)技術(shù)與工程, 2022, 22 (10) : 3846 - 3858.
[3] Li X, Lin K Y, Meng M, et al. A survey of adas perceptions with development in china[J]. IEEE Transactions on Intelligent Transportation Systems, 2022, 23 (9) : 14188 - 14203.
[4] 高明. 無(wú)人駕駛汽車(chē)ADAS系統激光雷達介紹與應用[J]. 時(shí)代汽車(chē), 2023 (2) : 159 -161.
[5] Poulton C V, Yaacobi A, Cole D B, et al. Coherent solid-state LIDAR with silicon photonic optical phased arrays[J]. Optics letters, 2017, 42 (20) : 4091 - 4094.
[6] 黨亞南, 田照星, 郭利強. 車(chē)載激光雷達點(diǎn)云數據處理關(guān)鍵技術(shù)[J]. 計算機測量與控制, 2022,30 (1) : 234 - 238, 245.
[7] Li G, Fan W, Xie H, et al. Detection of road objects based on camera sensors for autonomous driving in various traffic situations[J]. IEEE Sensors Journal, 2022, 22 (24) : 24253 - 24263.
[8] Cheng J, Zhang L, Chen Q, et al. A review of visual SLAM methods for autonomous driving vehicles[J]. Engineering Applications of Artificial Intelligence, 2022, 114: 104992.
[9] Vivacqua R, Vassallo R, Martins F. A low cost sensors approach for accurate vehicle localization and autonomous driving application[J]. Sensors, 2017, 17 (10) : 2359.
[10] Patole S M, Torlak M, Wang D, et al. Automotive radars: A review of signal processing techniques[J]. IEEE Signal Processing Magazine, 2017, 34 (2) : 22 - 35.
[11] Galvani M. History and future of driver assistance[J]. IEEE Instrumentation & Measurement Magazine, 2019, 22 (1) : 11 - 16.
[12] Preussler S, Schwartau F, Schoebel J, et al. Photonically synchronized large aperture radar for autonomous driving[J]. Optics Express, 2019, 27 (2) : 1199 - 1207.
[13] Feng D, Haase-Schütz C, Rosenbaum L, et al. Deep multi-modal object detection and semantic segmentation for autonomous driving: Datasets, methods, and challenges[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 22 (3) : 1341 - 1360.
[14] Rhee J H, Seo J. Low-cost curb detection and localization system using multiple ultrasonic sensors[J]. Sensors, 2019, 19 (6) : 1389.
[15] 孟立秋. 自主導航地圖的昨天、今天和明天[J]. 測繪學(xué)報, 2022, 51 (6) : 1029 - 1039.
[16] 李必軍, 郭圓, 周劍, 等. 智能駕駛高精地圖發(fā)展與展望[J/OL]. 武漢大學(xué)學(xué)報(信息科學(xué)版), 2023 : 1-18. [DOI:10.13203/j.whugis20230287.
[17] 應申, 蔣躍文, 顧江巖, 等. 面向自動(dòng)駕駛的高精地圖模型及關(guān)鍵技術(shù)[J/OL]. 武漢大學(xué)學(xué)報(信息科學(xué)版), 2023 : 1 - 12. DOI:10.13203/ j.whugis20230227.
[18] 張攀, 劉經(jīng)南. 通用化高精地圖數據模型[J]. 測繪學(xué)報, 2021, 50 (11) : 1432 - 1446.
[19] 段建民, 鄭凱華, 周俊靜. 多層激光雷達在無(wú)人駕駛車(chē)中的環(huán)境感知[J]. 北京工業(yè)大學(xué)學(xué)報, 2014, 40 (12) : 1891 - 1898.
[20] 王永勝, 羅禹貢, 黃晨, 等. 基于拓撲地圖的自主泊車(chē)路徑協(xié)調與優(yōu)化策略[J].中國公路學(xué)報, 2021, 34 (1) : 177 - 187.
[21] 張新鈺, 高洪波, 趙建輝, 等. 基于深度學(xué)習的自動(dòng)駕駛技術(shù)綜述[J]. 清華大學(xué)學(xué)報(自然科學(xué)版), 2018, 58 (4) : 438 - 444.
[22] Pomerleau D A. Alvinn: An autonomous land vehicle in a neural network[J]. Advances in neural information processing systems, 1988 : 1.
[23] Hawke J, Shen R, Gurau C, et al. Urban driving with conditional imitation learning[C]. 2020 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2020 : 251 - 257.
[24] Codevilla F, Santana E, López A M, et al. Exploring the limitations of behavior cloning for autonomous driving[C]. Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019 : 9329 - 9338.
[25] Toromanoff M, Wirbel E, Moutarde F. End-to-end model-free reinforcement learning for urban driving using implicit affordances[C]. Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, 2020 : 7153 - 7162.
[26] Hu Y, Yang J, Chen L, et al. Planning-oriented autonomous driving[C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2023 : 17853 - 17862.
摘自《自動(dòng)化博覽》2023年12月刊