<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計算 > 設計應用 > 自動駕駛車輛數據的中央集中式處理

          自動駕駛車輛數據的中央集中式處理

          作者:時間:2024-04-09來源:Ambarella收藏

          科技進步推動產品創新,給各行各業的設計師們帶來了前所未有的挑戰,這一點在汽車行業尤為明顯。汽車廠商正努力將已實現 ADAS 功能的 L2 技術升級到 L3 和 L4,并最終能在領域,將基于 AI 的系統發展到 SAE 6 級水平。L3 級乘用車已在全球多個地區上路行駛,L4 級出租車目前也在舊金山等城市街道上進行廣泛試驗(在有些地區已投入商業使用)。但是,在這些車輛大規模投入市場之前,仍存在許多商業、物流和監管方面的挑戰。

          本文引用地址:http://www.ex-cimer.com/article/202404/457315.htm


          汽車廠商面臨的挑戰之一是要彌合兩種情況之間的差距:一邊是于少數技術實例的概念驗證,另一邊是將概念轉化成為穩健、可重復和實用的大規模制造和部署。后者要求設計穩定、安全、可靠,并且定價合理。


          在進行概念驗證時,可以通過不同的途徑實現目標?!白陨隙隆钡姆椒ㄊ窃谲囕v中集成盡可能多的硬件、傳感器和軟件,然后通過實現融合、降低復雜性,達到性能、成本和重量目標。相反,“自下而上”的方法則更有條理,汽車廠商先完成一個級別的自動駕駛設計,然后再收集數據并克服必要的挑戰,達到下一個級別。后一種方法越來越受到大型主機廠的青睞。


          設計過渡從L2到L3到L4逐步提升



          汽車要提供先進的 ADAS 系統,并最終實現自動駕駛,必須感知周圍環境,然后根據 “看到的內容”采取行動。車輛對環境的認知越準確,就能做出越好的決策,行車也越安全。因此,設計自動駕駛汽車時,首先要確定部署在車輛周圍的傳感器數量和類型。在環境傳感方面,有三種常用技術:圖像傳感器即攝像頭、毫米波雷達和激光雷達,三者各有利弊。


          在上述的三種傳感器中,很明顯,攝像頭和激光雷達的算法處理已經普遍在中央域控了,而目前市場上的各類毫米波雷達,通常還是前端處理,生成目標以后,再送到中央域控,而并非中央集中處理。我們將在本文中著重介紹對于 4D 成像毫米波雷達進行中央集中處理的必要性和安霸 CV3 在這方面的技術優勢。


          一旦確定了車輛對傳感器的需求,就要做出一系列關鍵決定,包括設計系統架構和選擇配備合適的處理器。這就需要從根本上考慮是集中處理傳感器數據,還是在前端處理傳感器數據。


          自動駕駛車輛數據的中央集中式處理

          圖1 確定傳感器架構是自動駕駛汽車取得成功的前提


          傳統 3D 雷達技術雖然成本較低,但在感知能力存在著一些不足。通常毫米波雷達做前端計算,生成目標以后,在域控里和來自攝像頭的感知結果做后融合。這種方式因為在前端的信息損失,不僅使得 3D 雷達的作用被大大削弱,并且在視覺感知高度發展的今天,傳統 3D 雷達有靠邊站的趨勢。


          隨著毫米波雷達技術的演進,我們看到 4D 成像毫米波雷達的技術指標比起傳統 3D 毫米波雷達有了大幅的改進,包括多了一個高度維度,看得更遠,點云更密集,有更好的角分辨率,對靜止目標檢測更可靠,更低的誤檢和漏檢等。4D 成像毫米波雷達之所以有這些技術優勢,往往來自于更復雜的調制技術,和更復雜的點云算法,跟蹤算法等。因而 4D 成像毫米波雷達往往需要專門的雷達處理芯片才能達到所需的高性能。目前市場上已經存在一些在前端雷達模塊中添加雷達 DSP 或 FPGA 來進行前端計算的設計。雖然這些前端計算的 4D 成像毫米波雷達有些展現出比傳統 3D 雷達更好的性能,成本較高,不利于廣泛應用。


          而在集中式處理方法下,由于所有傳感器的原始數據都在一個中心點進行合并,數據進行融合時不會丟失關鍵信息。由于不在前端進行處理,毫米波雷達傳感器模塊大大簡化,從而縮小了尺寸,降低了功耗和成本。此外,大多數毫米波雷達都位于車輛保險杠后側,最大限度地降低事故后的維修費用。


          集中式處理方法還能讓研發人員靈活地實時調整毫米波雷達數據和攝像頭數據的相對重要性,在各種環境天氣和駕駛條件下提供最佳的環境感知能力。舉例來說,在惡劣天氣條件下,沿高速公路行駛時,毫米波雷達數據將發揮更大優勢;而在擁擠的城市中緩慢行駛時,攝像頭在識別車道線,讀取道路標志和場景感知,識別危險方面將發揮更重要的作用;而激光雷達對于一般障礙物檢測和夜晚 AEB 方面更有特色,動態配置傳感器套件可以節省處理器資源,降低能耗,同時提高環境感知能力和安全性。



          前端處理與中央域控處理4D成像毫米波雷達的比較




          前端處理成像雷達

          1. 算力受限,更大的算力帶來更大的功耗,影響雷達數據密度和靈敏度

          2. 固定的計算模式,必須為最惡劣的場景考慮,雖然在常見場景用可能用不到

          3. 更高的雷達前端成本, 因為雷達的數據處理放在前端節點,增加成本

          4. 傳感器融合過于簡單,只能用目標級融合

          中央處理的域控雷達

          1. 為更強大更高效的集中處理,雷達可以得到更好的角分辨率,數據密度和靈敏度

          2. 算力可以根據場景,在幾個雷達之間動態調整,以達到更好的算力利用率,提升感知結果

          3. 更低的雷達前端成本,因為雷達的前端只有傳感器,沒有計算單元

          4. 可以做4D雷達數據和攝像頭數據深度的深度融合


          SoC 選擇



          隨著電動汽車的普及,如何節約電能并最大限度地提高“每次充電的續航里程 ”成為每個車輛零部件的關鍵考慮因素。節能是集中式 AI 域控芯片的優勢。有些多芯片中央域控消耗大量電能,因而縮短了車輛的續航里程。如果 SoC 產生的熱量過大,需要設計主動冷卻方案,甚至某些架構需要液體冷卻,這就大大增加了汽車的尺寸、成本和重量,從而降低了電池續航能力。


          AI 智駕軟件正迅速成為系統的關鍵要素,AI 的實現方式對 SoC 的選擇,以及開發系統所花費的時間和資金投入都有重大影響。關鍵是如何以最小的工作量和能源,運行最新的神經網絡算法,但又不犧牲精度。這不僅需要仔細考慮硬件該如何實現神經網絡,還要考慮為中間件、設備驅動程序和 AI 工具提供支持,縮短開發時間并降低風險。


          車輛出廠后,無論是解決某個問題,還是新增功能,軟件都需要持續更新?;趩蝹€域控制器的集中式架構簡化了這一過程,OTA 升級的實現,解決了目前需要單獨更新每個前端模塊軟件的難題(更加昂貴和復雜)。這種 OTA 方法也意味著系統網絡安全是設計過程中需要解決的另一個重要領域。


          SoC 的選擇影響著設計過程的各個方面,包括整輛自動駕駛汽車的效能。為了賦能大型主機廠更快落地極具性價比的智駕產品,綜合性地考慮到客戶需求,為客戶帶來主攻 L3/L4 旗艦智駕系統的大算力中央域控 AI 芯片 CV3-AD685,該芯片可實現 4D 成像毫米波雷達原始數據的集中式處理和深度融合。


          為什么安霸傲酷雷達可以做到成本更低呢? 


          這是因為,傳統 4D 成像毫米波雷達使用固定的調制技術,需要根據調制方案對性能進行折中。不過,采用基于 AI 的實時動態波形的新興 4D 成像毫米波雷達設計正在幫助解決這一難題。將 “稀疏化陣列天線”與可動態學習并適應環境的 AI 算法(即虛擬孔徑成像(VAI)技術)相結合,從根本上打破了調制帶來的性能折中,可將 4D 成像毫米波雷達的分辨率提高至 100 倍。這大幅度提高了角度分辨率,以及系統性能和精確度,而天線數量也減少了一個檔次,外形尺寸、功率預算、數據傳輸要求和成本也相應降低。


          如何在 CV3 上做中央域控雷達設計呢? 


          CV3 支持雷達前端傳感器直接傳輸 RAW 數據到域控,而在 CV3 上完成必要的雷達計算包括高質量點云生成,處理,跟蹤等算法。CV3-AD685 上帶有專用 4D 成像毫米波雷達處理硬件單元,簡潔而高效地完成多個雷達同時工作時的數據處理。

          圖 3 顯示了一個功能強大的 SoC 框圖,它是安霸的 CV3-AD685。該 SoC 專為汽車中央域控制器而設計,可高性能運行各種神經網絡算法,實現完整的自動駕駛解決方案。CV3-AD685 帶有專業圖像信號處理單元、可使用各種傳感器感知(如來自攝像頭、毫米波雷達、超聲波雷達和激光雷達)、執行多種傳感器的深度融合,運行車輛路徑預測規劃控制等算法。CV3-AD 系列專為汽車智駕設計的架構與 GPU 等競品芯片架構截然不同,GPU 一般采用更為通用的并行計算設計,以運行各種不同的應用。因而在運行智駕應用的時候,CV3 比競品的效率更高,功耗更低。


          自動駕駛車輛數據的中央集中式處理

          圖3 安霸 CV3-AD685 SoC 框圖,該芯片專為汽車應用中的集中式AI域控而設計。


          如圖 3 所示,該 SoC 集成了神經網絡處理器(NVP),通用矢量處理器 (GVP)(用于加速通用機器視覺算法和毫米波雷達處理)、高性能圖像信號處理器(ISP) 、12 個 Arm? Cortex?-A78AE 和多個 R52 CPU,雙目立體視覺和密集光流引擎、以及 GPU(用于 3D 渲染如 AVM )。CV3-AD系列的整體架構和 CV3-AD685 相同,適用于從 L2+ 到 L4 級汽車智駕系統,擁有充沛算力和安全冗余,可運行完整的自動駕駛解決方案。其 AI 性能則在高性能 GPU 的 3 倍左右,盡管性能出眾,這款 SoC 的工作功耗卻大幅低于競品。因此,使用 CV3-AD685,與競品芯片相比,在電池容量相同的情況下,電動汽車的續航里程至少可增加 30 公里。另外,在保持相同續航里程的情況下,電池成本可以大幅降低,電池重量也可以減少幾公斤。


          總結

          近年來,智駕技術取得了質的飛躍。不同的智駕高級功能成為主流已有一段時間,隨著汽車廠商不斷創新突破,其他新功能也不斷涌現。汽車行業現在面臨的挑戰是如何將目前的 L3 和 L4 級智能駕駛試驗車全面投入生產。

          這一進步的關鍵在于傳感器的選擇,包括車輛的結構和域控芯片的選擇。使用專為集中式傳感器融合設計的處理器,以及基于 AI 的創新技術(如稀疏化毫米波雷達陣列),自動駕駛汽車可以集中處理毫米波雷達數據,并將其與攝像頭數據進行融合,對車輛周圍動態環境做出及時反應。這種性能和靈敏度的提高可以減少對激光雷達的依賴性,進一步降低成本,并且達到更好的環境感知性能。

          (作者: Senya Pertsel ,來源:安霸半導體)



          關鍵詞: Ambarella 自動駕駛

          評論


          相關推薦

          技術專區

          關閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();