<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 汽車電子 > 業(yè)界動態(tài) > 百度在CES Asia上都展示哪些自動駕駛成果?

          百度在CES Asia上都展示哪些自動駕駛成果?

          作者: 時間:2017-06-13 來源:雷鋒網(wǎng) 收藏

            近日,智能汽車事業(yè)部總經(jīng)理顧維灝在 CES Asia 上帶來了主題為《新浪潮》。在演講中,顧維灝詳解了領(lǐng)域的兩大亮點成果——端到端的模型 Road Hackers, 以及與德賽西威、聯(lián)合汽車電子分別開發(fā)的、國內(nèi)首個可量產(chǎn)的自動駕駛計算平臺 BCU(Baidu Computing Unit)。

          本文引用地址:http://www.ex-cimer.com/article/201706/360389.htm
          blob.png

            

          blob.png

           

            長城汽車提供底盤控制技術(shù),英偉達提供 DRIVE PX2 計算平臺,提供自動駕駛技術(shù)

            百度還在場館外進行了自動駕駛車輛的測試,該車最大亮點是采用了基于單目攝像頭、端到端深度學(xué)習(xí)自動駕駛解決方案。百度一位工程師向我們透露,除了此次與長城汽車合作的兩款車型外,今年 8月,百度還將展示第三輛自動駕駛汽車——具備自定位、環(huán)境感知能力和決策控制能力。

            今年 3 月,百度通過內(nèi)部郵件宣布,對現(xiàn)有業(yè)務(wù)及資源進行整合,成立智能駕駛事業(yè)群組(IDG),由自動駕駛事業(yè)部(ADU)、智能汽車事業(yè)部(L3)、車聯(lián)網(wǎng)業(yè)務(wù)(Car Life etc.)共同組成。作為百度智能駕駛事業(yè)群組的事業(yè)部之一,本屆 CES Asia 可以看成是智能汽車事業(yè)部(L3)整體發(fā)展成果的一個展示窗口。眼下,百度的阿波羅計劃依舊沒有太多實質(zhì)性的消息公布。在這次長達 45 分鐘的演講中,關(guān)于阿波羅計劃」的介紹也僅在最后的 5 分鐘:阿波羅計劃是一套開放、完整,安全的生態(tài)系統(tǒng)和架構(gòu),它包含了四個層次:參考汽車層,參考硬件層,軟件平臺層、云服務(wù)層。

            顧維灝表示,演講中的內(nèi)容對于整個阿波羅計劃來說只是冰山一角。盡管如此,顧此次的演講依然值得咀嚼,他代表的是百度另一種自動駕駛解決方案的思路:如何用低成本、成熟的傳感器和端到端的深度學(xué)習(xí)實現(xiàn)自動駕駛。以下是顧維灝在 CES Asia 的演講,我們在不改變原意的基礎(chǔ)上做了編輯與刪減:

            自動駕駛仿真技術(shù)

            在這次展會上,除了高精地圖外,我們還帶來了更多面向智能汽車、自動駕駛或智能駕駛的新產(chǎn)品。如果你到我們展臺,會發(fā)現(xiàn)有一個互動的大屏,它展示的是自動駕駛仿真技術(shù),這項技術(shù)主要解決的是自動駕駛測試問題。

            我們相信未來的自動駕駛,它的能力一定會超過人類。但是,如何超過人類?我們需要在真實的道路和環(huán)境上實踐多少才能達到人類的水平?有很多論文都在研究這個問題。其中我看到一篇比較著名的論文,通過各種可信度和置信度的計算,在理想情況下,汽車需要行駛兩億英里才能夠達到人類的水平。而特斯拉通過自己的計算,需要六億英里。

            對中國來講,路況更加復(fù)雜,我們需要測試多少里程才能讓自動駕駛車輛趕上或者超過人類的水平?這是一個非常艱巨的任務(wù)。所以我們展示一個仿真的環(huán)境:將高精地圖灌入到仿真環(huán)境里,再建立一個虛擬現(xiàn)實的 3D 環(huán)境。同時,我們把自動駕駛算法、車輛控制動力模型也加入到仿真器里——它可以隨時地、不停歇地進行測試。有了這個仿真器,我們實際上就能更快、更好地加速自動駕駛的測試過程。

            深度學(xué)習(xí)

            

          blob.png

           

            當(dāng)我們在談人工智能的時候,我認(rèn)為有最關(guān)鍵的兩點:第一,有沒有足夠多的數(shù)據(jù),這是人工智能基礎(chǔ);第二,有沒有能力將這些數(shù)據(jù)轉(zhuǎn)化為知識。語音識別把聲音轉(zhuǎn)化成文字,這是一種知識能力的轉(zhuǎn)化,我們從圖像里去識別貓狗、汽車,這也是知識的轉(zhuǎn)化。所以,只有具備了數(shù)據(jù),又有將數(shù)據(jù)轉(zhuǎn)化為知識能力,才能稱得上人工智能。

            過去十幾年,我們一直是最好的中文搜索引擎,也積累了大量的文本結(jié)構(gòu)數(shù)據(jù)?,F(xiàn)在的互聯(lián)網(wǎng)或者過去十幾年在互聯(lián)網(wǎng)上存在的每一個網(wǎng)頁,我們數(shù)據(jù)里都有存載。

            有這么大的數(shù)據(jù)后,如何將這些數(shù)據(jù)通過搜索引擎的排序算法,更好的展現(xiàn)給不同的搜索者?隨著人們對搜索的要求越來越高,我們對搜索引擎的算法也提出了更多要求。百度是最早引入機器學(xué)習(xí)算法作為搜索引擎的主算法,同時加入了個性化——我們叫做點擊調(diào)臺的能力,使得每個人看到的、搜索的結(jié)果,都會有針對個人特點的不同排序。

            我們之所以說過去一段時間,識別的效果或搜索算法不好,是因為我們在面對有限計算資源時,要做很多 trade off(取舍):主動進行剪枝,讓搜索空間變小,更快拿出準(zhǔn)確的結(jié)果,但這樣我們可能就會喪失一些好的結(jié)果。隨著計算能力的提升,包括 FPGA,GPU、CPU 的發(fā)展,這個搜索空間可以變得更大,這個時候好的結(jié)果被砍掉的機率會變小,更相關(guān)的結(jié)果就排到了前面。所以,我們在搜索引擎方面的能力積累,現(xiàn)在也應(yīng)用在自動駕駛領(lǐng)域。

            

          blob.png

           

            自動駕駛需要新的算法

            搜索面臨的是一個結(jié)構(gòu)化的文本數(shù)據(jù),但自動駕駛面對的環(huán)境更復(fù)雜,遇到的也是完全不一樣的數(shù)據(jù):更多圖像,更多傳感器回傳的復(fù)雜數(shù)據(jù)。比如 Lidar(激光雷達),傳回來的激光點云;radar (雷達)傳回來的是探測結(jié)果數(shù)據(jù);camera (攝像頭)傳回的影像數(shù)據(jù)。更多現(xiàn)實環(huán)境的數(shù)據(jù)引入,讓整個數(shù)據(jù)變得更加復(fù)雜,規(guī)模更大,所需的計算資源也更多。這時候我們需要更多、更新、更快的新的深度學(xué)習(xí)算法。在過去的一兩年,我們看到自動駕駛所需要的數(shù)據(jù)、算法和計算的能力,都在不斷地提高,這也讓自動駕駛更快速進入這個時代。

            針對自動駕駛,有很多新的算法出現(xiàn),百家爭鳴,各不相同。但我認(rèn)為現(xiàn)在自動駕駛還處在一個相對比較早期的階段。如果對這個行業(yè)有所關(guān)注,你可能會看到不管是創(chuàng)業(yè)公司還是成熟公司,他們都演示過自己的自動駕駛技術(shù)。他們在車上搭載的傳感器都不相同:激光雷達、毫米波雷達、超聲波雷達、前視攝像頭、環(huán)視攝像頭、黑白攝像頭、彩色攝像頭等等。各種傳感器不同,數(shù)量也不一。你會發(fā)現(xiàn)這些自動駕駛汽車與現(xiàn)實世界的汽車非常不同。當(dāng)然,不同場景所需要的傳感器、所要求的算法復(fù)雜度或者算法的種類也不同。比如,以圖像為主的解決方案,要處理圖像的數(shù)據(jù),我們會選擇更加主流的卷積神經(jīng)網(wǎng)絡(luò),它對圖像定型計算、目標(biāo)識別、語義分割比較在行。

            對 Lidar、radar 這種數(shù)據(jù)量要求更大的傳感器,我們肯定需要不同的深度學(xué)習(xí)算法。但如果我們的目標(biāo)是希望自動駕駛盡快到來,就必須考慮一個非常現(xiàn)實的問題:用什么樣的傳感器才能讓自動駕駛更快到來?我們的一個答案是:用更便宜、更成熟的傳感器,用更先進的深度學(xué)習(xí)算法來實現(xiàn)自動駕駛。

            Road Hackers:阿波羅計劃的一部分

            

          blob.png

           

            我們在這方面的實踐: Road Hackers,這是基于深度學(xué)習(xí)的自動駕駛解決方案。我們的目標(biāo)是通過一個消費級攝像頭、深度學(xué)習(xí)算法實現(xiàn)自動駕駛。當(dāng)然,這是我們最苛刻的一次實踐。我們不可能只依賴這一個方案實現(xiàn)自動駕駛,未來我們還是需要雷達或者其他傳感器。但如果我們今天對最苛刻的環(huán)境,實踐得更多,要求得更嚴(yán),那在未來,自動駕駛對整個汽車的安全和擴展性也會更方便。所以我介紹的這個實踐,就是通過一個傳感器、深度學(xué)習(xí)的算法和過去我們積累的大數(shù)據(jù)來實現(xiàn)自動駕駛的。秉著這樣一個想法,我們在去年開始了一系列調(diào)研工作。在這個過程中,我們發(fā)現(xiàn)在過去的積累中,我們做了一件非常了不起的事。

            2013 年,當(dāng)時我還在百度地圖部門,那時我們升級了所有的地圖采集車輛,讓所有的地圖采集車輛都用上了最先進的傳感器設(shè)備。在地圖采集的過程中,我們記錄了所有影像,記錄了采集車上司機所有的駕駛行為,包括轉(zhuǎn)方向盤、踩油門、踩剎車的行為。去年,我們發(fā)現(xiàn)了這個寶藏。

            

          blob.png

           

            紅色的線代表方向盤轉(zhuǎn)向的角度。綠色的線代表用算法預(yù)測出的司機對方向盤的轉(zhuǎn)動

            我們每天都有幾百輛采集車在全國各地行駛,每年整體的采集里程達到數(shù)百萬公里。我們開始用深度學(xué)習(xí)和機器學(xué)習(xí)的算法去挖掘這些數(shù)據(jù)和行為。這是我們在今年 1 月份美國拉斯維加斯的 CES 上正式發(fā)布的視頻(如上圖)。在這張圖上,我們預(yù)測的行為和司機實際駕駛行為,在方向盤轉(zhuǎn)角上已經(jīng)相對接近。

            

          blob.png

           

            當(dāng)然,我們也意識到,這樣的寶藏只靠我們?nèi)ネ诰蚝蛯崿F(xiàn)是有限的,我們的速度還不夠快。所以我們將這套數(shù)據(jù)開放出去:今年 1 月,我們開放一萬公里的 Road Hackers 原始數(shù)據(jù),包含了采集車上收集到的所有數(shù)據(jù),遇到的所有天氣:不管是晴天、雨天、陰天、雪天;不管是在一條揚長大路、一條曲徑小路、風(fēng)景秀麗的景區(qū)、還是在滿地都是泥濘的道路。


          上一頁 1 2 下一頁

          關(guān)鍵詞: 百度 自動駕駛

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();