汽車為什么會自己跑?自動駕駛不神秘
【太平洋汽車網 行業頻道】什么樣的車會自己跑?當然是無人駕駛汽車!
但是在實現真正的無人駕駛之前,有一個更寬泛的概念是自動駕駛。大家應該也都聽過,自動駕駛是分等級的,應用最廣泛的是SAE國際汽車工程師協會制定的,將自動駕駛分為L0-L5六個等級。
L0當然是沒有自動駕駛功能,L1到L5自動駕駛水平依次提升。大家可以看一下這張圖,對自動駕駛分級有一個大概的了解。
那是不是只有L5,才能叫無人駕駛?也不是,一些更低等級的自動駕駛應用在一些特殊場景內,其實也可以完全無需人的介入。比如現在已經少量上路的外賣、快遞配送車;港口、礦場內的無人運輸車;場地內的載人觀光無人駕駛汽車或微循環巴士等等。
不過我們聊的最多的,其實是可以在開放道路行駛的自動駕駛汽車。
需要注意的是,目前國內上路的所有自動駕駛汽車,包括特斯拉,都仍然屬于L2級,駕駛主體是人。如果發生交通事故需要負責的也是駕駛員本人。
奧迪A8等號稱實現L3級自動駕駛的量產車,目前并沒有在國內開放相應功能,并且在絕大多數市場都沒有開放。
主要原因是法律法規的限制,因為一旦實現L3級,在特定場景下駕駛主體就變成了車,發生事故的責任界定需要更復雜的法律法規去完善。所以目前使用自動駕駛功能時,一定要保持注意力。
搞清楚這些,我們來看一下自動駕駛汽車是怎么運轉的。
現在想想我們人是怎么開車的,首先看清楚周圍的路況,判斷要不要拐彎,或者加速、或者停車,然后控制方向盤、剎車、油門。
對應到自動駕駛汽車上,就是:感知-決策規劃-控制。
感知可以分為環境感知和車輛運動,一個是了解周圍環境,一個是了解自身的狀態。
如果是低階的自動駕駛,比如現在的L2級,還需要一項駕駛員監測。
• 駕駛員監測
駕駛員監測比較好理解,車內的攝像頭可以監測駕駛員有沒有犯困睡著,有沒有長時間分神處理別的事情。
而方向盤上的生物電傳感器,可以監測駕駛員有沒有保持手握方向盤,甚至可以感知到駕駛員狀態、情緒。不過有些車用的是方向盤轉矩來監測的。
• 車輛運動
車輛運動感知是要知道你在哪。最基礎的當然是GPS全球定位系統,當然也包括我們的北斗系統。
不過衛星信號在隧道、樓宇間甚至樹蔭下都有可能斷掉,這就需要慣性導航來短時間繼續判斷你的位置。
慣導通過車輛的加速度判斷車輛的速度、偏航角等信息,對應到導航坐標系中實現定位,不需要依賴外界信號,但持續時間和精度有限。尤其是大規模量產的車上,成本受限的慣導系統。
另外,自動駕駛車上還需要有速度傳感器和角傳感器等,感知車輛當前的運動狀態。
• 攝像頭
在感知系統里,對環境的感知相對復雜一些。對環境的感知需要用到傳感器,最容易想到的當然是最類似人眼的攝像頭。
不過不像人眼可以快速的變焦和轉動,目前的技術還無法支持車載攝像頭頻繁的變焦,也無法支持由此產生的海量數據。所以車載攝像頭都是定焦的,這就限制了可以觀察的視距。
如果再加一個攝像頭,讓他的視距更遠,這就是雙目攝像頭。一個負責看得廣,一個負責看得遠。并且還能像人眼一樣通過兩個有間距的攝像頭的圖形差值,更好的判斷距離。
但雙目攝像頭需要讓兩組圖像可以重合,以便讓系統可以識別,這就需要專門的標定。但熱脹冷縮等會影響標定好的精度,這就給后期的融合帶來了麻煩。
同理還有三目攝像頭可以覆蓋三個不同的視距,但標定也會更加麻煩。
除了朝前看,高階自動駕駛汽車還需要能看到側面和后面,這就需要車身周圍的更多攝像頭。
攝像頭的優勢在可以看到更多的細節,包括車道線、紅綠燈、剎車燈等等。但判斷距離的精度較差,大霧、雨雪、逆光、夜晚等會影響他的識別。這就需要雷達做輔助。
• 毫米波雷達
我們平時用的倒車雷達是超聲波雷達,發出的是聲波,只能達到聲速。超聲波雷達體積小、價格低,但探測精度差、范圍小,并且在高速運動時影響很大,在自動駕駛中的應用并不多。
應用多的是毫米波雷達,發出的是電磁波,以光速傳播。主要的毫米波雷達有24GHz和77GHz兩種。
24GHz頻率低、帶寬窄,精度相對較低,主要用于盲點監測、自動泊車等。
而77GHz精度高很多,可以更準確的探測距離,并且天氣等對他的影響很小。和攝像頭融合就能夠很好的完成對環境的感知。
但毫米波雷達可以感知距離,可無精準法感知物體的具體形狀,或者前方兩個人的間距等,探測的噪點也很多。比如空無一物的道路上,因為一些起伏或者路面的顆粒等,也會形成反射干擾毫米波雷達的判斷。
• 激光雷達
激光雷達可以很好的解決這些問題,他的精度可以達到厘米級。
激光雷達上每一個激光發生器代表一線,常用機械旋轉式激光雷達有10線、64線、128線等。
激光雷達每射出一束光就收集到周圍環境一個點的具體位置,每旋轉一圈就能收獲周邊環境360°的一個點云,由此可以生成一幅更多細節的立體空間。與攝像頭拍攝的圖形融合,就能生成有顏色、有細節、又有具體位置的周邊環境。不僅可以用于自動駕駛汽車,也可以用于繪制高精度地圖。
我們知道光也是一種波,最常用的激光雷達有波長為905nm和1550nm兩種。
因為硅可以吸收905nm波長的光子,而1550nm的接收器需要用到銦鎵砷,所以905nm的激光雷達成本更低。
但905nm波長更接近可見光,為了防止出現意外傷害人眼,需要限制功率,探測距離也因此受限。而1550nm可以用更高的功率探測更遠的距離。
但激光雷達也有很多限制:
首先是成本,因為此前激光雷達僅用于測繪、軍事等少數領域,精度要求高、產量需求低,所以價格十分高昂。很多自動駕駛測試團隊采購的激光雷達,動輒數十萬乃至上百萬。
并且傳統的激光雷達十分笨重,因為需要選裝感知周遭環境。所以需要架設在車頂,但這么沉重的設備對車輛重心、風阻等影響很大。而一旦發生碰撞,如此沉重的設備帶來的風險也十分巨大。
不過如果自動駕駛形成產業,相信激光雷達的成本和重量都能得到很好的控制。
由于傳統的旋轉式激光雷達需要不斷的轉動,難免會存在機械損耗甚至故障。目前已經出現了棱鏡激光雷達、固態激光雷達、相控陣激光雷達等諸多方案,且已經有部分達到車規級要求實現量產,奧迪全新A8部分車型就就配備有量產車規級的激光雷達。
棱鏡激光雷達通過電磁波控制很多塊棱鏡的角度反射激光實現點云覆蓋,但電磁波控制在棱鏡在大的顛簸中容易發生位移影響精度;單純朝向一側的固態激光雷達不需要機械運動,更像是通過激光拍照,但目前探測的距離偏短;而相控陣激光雷達是通過光柵原理讓激光發生偏轉實現掃描,不過技術成熟度和成本仍然受限。
我們在物理課本中學過,長波可以繞過障礙物,而短波更容易被反射。波長很短的激光遇到在大霧、霧霾、雨雪天氣等天氣時,雨霧、霧霾顆粒會反射激光,讓激光雷達失效。相反波長較長的毫米波不會受到影響。
而對比攝像頭,激光雷達無法識別顏色,也就無法識別紅綠燈、車道線等。
• 數據融合
所以將三者的數據通過一個模塊融合,就能生成一個比較完整的周遭環境的具體狀態。
因為車在動,環境中的物體也在動,所以還需要對每一組數據都打上精準的時間戳,以便確定環境的實時狀態,這就需要一個比較復雜的算法來完成。
不過三種傳感器的方案也并不絕對,例如特斯拉就堅持僅適用攝像頭+毫米波雷達來實現更高階的自動駕駛。馬斯克宣稱僅升級算法就可以實現完全自動駕駛。理論上這種方案確實可行,不過目前的人工智能水平還遠未達到。
在感知層面,還有另一種路線是傳感器配合高精度地圖、高精度定位加上V2X,這個我們后面會聊到。
• 視覺算法
以上僅僅完成了“看見”的要求,想要讓車輛能“認識”又是一道難關。
車是機器、車上的AI也是機器。AI人工智能智能進行數學運算,如何讓AI分清路上的各種東西?
簡單來說就是識別物體的特征,將這些特征轉化成AI可以理解的數字信號后再進行比對。
比如你要讓AI認識金毛,可以告訴AI金毛是棕黃色的,但AI會把秋田、狐貍、皮包、沙灘,或者別的奇奇怪怪的東西都當做金毛。
那輸入更多的特征呢?AI還是可能把泰迪熊,甚至曲奇餅干當做金毛......
有沒有更好的辦法?有!你可以給AI看一百張、一千張甚至更多的金毛的照片,讓他自己識別特征,這就機器學習的基本原理。
由此還誕生了一個新的職業——數據標注員。就是給圖片打各種標簽,用于AI學習。
理論上海量的數據就能讓視覺算法認識路上的所有東西,實現完全的自動駕駛,但現在的技術還遠沒達到。并且受芯片算力的限制,AI還需要對識別出來的物體簡化方便運算。
比如我們看到的細節豐富的路口,特斯拉目前最新的算法,也需要簡化成下圖這樣進行理解。
這也是越高階的自動駕駛,對算力的要求也越高的重要原因。
看懂了周遭環境,也了解了自身的狀態,下一步就需要決定怎么走。
比如最簡單的車道保持,AI會把車道線簡化成一個一個的點進行決策。如果進入彎道時,車輛識別到右邊的點太近,就轉向左邊,左邊太近了有轉向右邊,這么生硬的晃來晃去,相信沒有人愿意坐這樣的車。
這就需要優化算法,比如把連接兩點的直線換算成平滑的曲線,這樣轉向帶來的加速度就會變小,經過更復雜的優化才能讓車沿著車道線,走出一條平滑的弧線。
同理還要優化對剎車油門的控制,不至于新手司機那樣猛加速猛剎車,動作更加擬人。而這還是最基礎的部分。
遇到前方慢車需要減速還是變道超車,判斷旁邊車道是否有足夠安全的間距,后方車輛是否在快速接近來決策變道是否安全。
還有在混亂的障礙物中間,如何找到一條最短又平順的路徑通過。當然,還有必須要遵守的交規等。
這些才是決策規劃的難點。
這些動作的背后,是一行行的代碼
• 自動駕駛芯片
運算代碼需要用到芯片。
目前很多測試的自動駕駛車輛,用的其實是通用的GPU等芯片。測試中的自動駕駛車輛,往往計算單元就能塞滿整個后備箱。
但算法確定之后,可以開發專用的芯片,占用的空間對于汽車可以忽略不計。
自動駕駛對于性能和算力的要求很高,更先進的制成工藝可以實現更好的性能,但同時車用的芯片有需要滿足車規級的要求。
車規級要求簡單來說,就是需要滿足遠高于手機等消費級電子產品的防水、防塵、防震、防高低溫等等性能。比如最低-40℃,最高80℃,并且要最低溫直接切換到最高溫不出問題。
要同時滿足性能和車規級要求,成本就難以控制了!
所以通常會降低制成精度優先考慮安全,同時做一個雙系統的冗余設計。例如一塊芯片出現問題,另一塊芯片立刻無縫接替工作,同時出問題的芯片已經在自檢重啟,而乘員并不會感知到。
我們看到當下手機已經大量使用7nm制成,甚至開始使用5nm制成。但車用芯片可能還是24nm甚至48nm制成,這并不奇怪。
同理還有很多手機等消費電子產品早已使用,甚至略顯過時的技術,才剛剛在汽車上使用,其實已經是很巨大的進步了。
完成了感知、決策規劃,就好像我們開車時看清了路況并決定了下一步怎么操作。接下來轉動方向盤,踩下油門、剎車才是關鍵。
自動駕駛汽車的AI不是一個實體的機器人,想要完成對車輛的控制不能通過物理的操作。
這就需要車輛有線控系統,簡單來說就是我們傳統的方向盤、油門、剎車就是物理按鍵,而線控是虛擬的觸摸按鍵,對車輛的操控是通過電信號,而不是物理傳導。
目前絕大多數車輛并不具備線控系統,即便如英菲尼迪Q50的線控轉向,處于安全考慮也是有物理傳導備份的。目前車上大量取消了物理傳導的,主要是換擋機構(電子檔桿等)和手剎(電子手剎、Auto Hold等)。所以傳說巡航無法取消,踩剎車沒有反應的事件并不會真實存在。
有了線控裝置,還需要有對應的控制算法。控制是自動駕駛中很重要、很困難但相對成熟的一項技術,目前主流有PID(積分微分控制)、LQR(線性二次調節器)、MPC(模型預測控制)幾種成熟的方案,這里就不對算法做過多的闡述了。
具備感知-決策規劃-控制能力后,一輛車才具備了自動駕駛能力。但究竟能實現何種程度的自動駕駛水平,還取決于各項技術的先進程度。
感知傳感器可以疊加,可以做大量冗余,但物理限制仍然存在;AI算法可以通過大量的測試和海量的數據進行深度學習,不過目前AI人工智能還有巨大的進步空間;芯片的性能和算力還要寄托于技術水平的進一步升級。
單車自動駕駛水平的提升還有很多的限制需要突破,不過也可以通過外界的賦能讓他進步的更快。
• 高精度地圖
我們開車在日常上下班熟悉的路線上會開的更好,在陌生的地段就需要小心翼翼。
怎么讓自動駕駛汽車也能對道路想老司機一樣熟悉?答案是高精度地圖。
我們現在用的導航已經非常方便了,有明確的路線指引,還有實時的擁堵狀況等。不過不知道你有沒有遇到過因為走錯車道錯過路口的狀況?高精度地圖的不同就在這里,可以精確到車道,以及路面的虛線實線等等。
通過計算剎車距離,系統反應時間等的計算,目前自動駕駛汽車(乘用車)的感知距離到達150m就可以保證安全。
當然這是對障礙物的感知,對道路的感知其實還要更短。通過高精度地圖,自動駕駛車輛可以提前了解感知范圍之外的道路情況,提前規劃好路線。
目前還有技術路線是通過路上行駛的自動駕駛汽車的感知傳感器實時上傳道路數據。通過這種“眾包”的方式獲得更多路段的高精度地圖,效率更高,同時也能獲得各條道路實時的高精度路況。
不過目前這種方案在我國還不可行。因為精確的地圖數據往往也會牽涉到國家安全,包括中國在內的許多國家對地圖采集繪制有比較嚴格的限制。
進行地圖數據采集、測繪需要有相應國家測繪資質。目前國內采集的地圖數據不可以通過網絡傳輸,需要用硬盤保存數據在相關機構進行不可逆的偏離加密才可以上傳到網絡。
目前我們使用的導航地圖,部分路段實際可能有數米的位置偏離,但這對于高精度地圖顯然不合適。
好在我國對于自動駕駛及高精度地圖等都十分支持,百度、高德等圖商的高精度地圖已經陸續落地。蔚來與小鵬的高速領航功能就是分別運用百度和高德的高精度地圖實現的。
• V2X
在前文講感知時,我們提到人開車不僅需要眼看,還需要耳聽。但是自動駕駛汽車感知傳感器并沒有收音的相關設備,為什么?
開車時我們主要聽什么?周邊車輛的喇叭聲和救護車、消防車、警車等的鳴笛等等。也就是別的車和你之間的一種交流。
針對特種車輛,當然也可以用視覺感知來分辨進行避讓,但自動駕駛汽車與其他車輛的交流似乎并沒有提及。
其實,有比鳴笛更高效的交流方式,并不僅是和別的車,這就是V2X。
在靠單車智能實現L4級、L5級自動駕駛軟硬條件遇到瓶頸的情況下,中國提出了車路協同的發展路徑,即車與車(V2V)、車與路(V2I)、車與人(V2P)、車與云(V2N)等信息交互和共享。
早前也有很多團隊嘗試發展V2X技術,例如通過WiFi信號等進行溝通,但通訊的延時和帶寬都存在瓶頸,且高速移動的汽車也很難保持穩定。
5G的落地給V2X打開了一扇門,低延時高帶寬且能很好的適應高速移動,5G的應用歲遠不止自動駕駛,但仿佛天生就是為自動駕駛車路協同準備的大招。
在一條普通的道路(含紅綠燈,信號機,交通標識……),裝備上一套智能路側設備(RSU、激光雷達、毫米波雷達、攝像頭、MEC、5G CPE以及智慧錐桶……),在5G的加持下車聯網V2X平臺便能大展身手。
車把自身的行駛軌跡、位置、速度等信息“告訴”路;而路端通過多維感知和協同計算,再把相關的碰撞信息、預警信息等內容“告訴”車。
目前,在杭州蕭山區連接紹興、寧波兩地已經建成了中國首條“超級高速”,也是國內首次開辟自動駕駛專用道設計的高速——杭紹甬智慧高速。融合了車路協同、云控平臺、5G 通信網絡等新興技術,能實現車道級主動管控、自動派單救援、惡劣環境智能誘導預警、交通服務信息定制推送等。
自動駕駛目前還處在發展的初期階段,很多技術已經初步成型,但技術細節和未來方向還有很多的不確定性,因此不論是相關的專業論文還是行業內的人員和企業都仍然可能有判斷失誤的地方。至于本文,當然更是會有諸多的淺薄與疏漏,還請多多包涵。但自動駕駛已經成為極具潛力的發展趨勢,只希望用簡單的文字讓大家對自動駕駛有一個基本的認知。
當下,關于自動駕駛有單車智能和車路協同的路線之爭,包括特斯拉、谷歌等海外品牌以單車智能為主要的發力點,而中國則堅定的走上了車路協同的路線。
車路協同需要巨大的基礎建設投入,這正是被稱為“基建狂魔”的中國最擅長的領域。有人說發展車路協同會影響到企業提升單車智能的動力和精力,在相關基建尚未能覆蓋的地區,尤其是海外市場會削弱競爭力。
作為企業,無法推動如此大規模的基礎設施建設,特斯拉、谷歌等自然而然的選擇了單車智能的路線。但車路協同發展的不僅僅是智慧道路,更有智慧城市,也是未來萬物互聯的基礎。
好比百年前無法想象如今轎車糟糕的通過性有何價值,如今馳騁的高速公路網也是百年前不敢想象的奇跡。車路協同有著巨大的市場,也牽涉眾多的技術標準,率先實現領先并能夠輸出標準,將會是中國崛起的重要的一大步。(文:太平洋汽車網 郭睿)
>>點擊查看今日優惠<<