<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 汽車電子 > 業(yè)界動態(tài) > 百度在CES Asia上都展示哪些自動駕駛成果?

          百度在CES Asia上都展示哪些自動駕駛成果?

          作者: 時間:2017-06-13 來源:雷鋒網(wǎng) 收藏

            光是開放數(shù)據(jù)還不夠,是一個技術(shù)信仰的公司,我們相信技術(shù)能夠改變一切。每一個季度,都有一個技術(shù)比賽,我們叫做開發(fā)馬拉松:大家在有限的時間之內(nèi),設(shè)定有限的場景和環(huán)境,比拼誰的產(chǎn)品和算法做得最好。

          本文引用地址:http://www.ex-cimer.com/article/201706/360389.htm

            

          blob.png

           

            今年 1 月從 CES 回來后,我們在內(nèi)部做了一個技術(shù)比武。大家一起在這個平臺比賽,看誰的算法能讓它的收斂變得更加明顯,誰的算法能讓的訓(xùn)練速度變得更快。最后一共 50 支隊(duì)伍報名,我們進(jìn)行了為期一個月的技術(shù)比武。當(dāng)然,這種技術(shù)比武最重要的是交流和共享。我們讓這些勝出的隊(duì)伍和我們的團(tuán)隊(duì)工程師們充分進(jìn)行交流,進(jìn)而完善算法。通過這樣一個技術(shù)比武,我們發(fā)現(xiàn),我們可以再引入一種具有時間記憶的新算法,來實(shí)現(xiàn)縱向控制或者更好的橫向控制。

            

          blob.png

           

            在這個網(wǎng)絡(luò)結(jié)構(gòu)里,我們可以從底層的圖像特征本身進(jìn)行自動提取,它仍然用卷積神經(jīng)網(wǎng)絡(luò)來自動處理。但在縱向控制上,我們引入了一個新的模型:它具有神經(jīng)記憶功能,不僅僅是通過這張圖片,而是根據(jù)過去十張,二十張,甚至一百張圖片來預(yù)測出接下來該如何做。這種技術(shù)最早也是用于語音識別的研究:LSTM (長短期記憶,long short term memory)。只要是針對連續(xù)性行為來做預(yù)測,我們就會考慮這種深度記憶的模型,并引入到縱向控制中,這當(dāng)中的新突破是:車的加速度、減速度變得更加流暢和舒服。

            

          blob.png

           

            

          blob.png

           

            

          blob.png

           

            

          blob.png

           

            

          blob.png

           

            這是我們優(yōu)化算法之后,在北京測試的一段視頻(如上圖)。鏡頭剛開始,我們看到一個司機(jī),實(shí)際上是一個駕校司機(jī),他繞著我們既定的路線在行駛,當(dāng)他駕駛了幾次之后,我們把他的駕駛行為完整記錄,并訓(xùn)練出一個深度神經(jīng)學(xué)習(xí)的網(wǎng)絡(luò)結(jié)構(gòu)。然后我們再把這種網(wǎng)絡(luò)結(jié)構(gòu)經(jīng)過剪層、剪枝、優(yōu)化,放到汽車上。

            

          blob.png

           

            長城汽車、英偉達(dá)、三家一起聯(lián)合開發(fā)的只基于一個攝像頭和端到端深度學(xué)習(xí)的展示

            BCU:百度計算平臺

            在過去的兩年,我和我的同事們拜訪了幾乎所有中國或者是國外主流的 OEM。直到去年,有 OEM 的朋友對我說,你們說的技術(shù)很牛,我也知道你們現(xiàn)在做的還不錯,但我不知道應(yīng)該怎么來使用。一個朋友跟我這么講,我會覺得你為什么會有這樣的問題,但是當(dāng)多個 OEM 的朋友和我說同樣的問題時,我們就開始反思:我們的技術(shù)該如何應(yīng)用到中?汽車產(chǎn)業(yè)鏈非常長,我們進(jìn)入這一領(lǐng)域之后,才知道 OEM 有 Tier1、Tier2。那么,我們的定位是什么?該如何與這個產(chǎn)業(yè)鏈融合?如何將我們的技術(shù)應(yīng)用到量產(chǎn)的汽車上?

            

          blob.png

           

            反思了這些之后,我們推出了一個新的概念:叫做 BCU(Baidu Computing Unit)。在人工智能時代,所有算法、軟件都需要硬件的搭載,只有將這些能力寄托到硬件上,我們的能力才得以釋放。原來我們更多在與 OEM 交流,在那之后,我們開始與汽車行業(yè)的 Tier1、Tier2 來交流這件事情。在與他們的交流中,我們也提出了算法對硬件的要求:需要多大計算能力、多少存儲空間、多少功耗等等。

            原來我們更多在與 OEM 交流。在那之后,我們開始與行業(yè)的 Tier1、Tier2 來交流這件事情。在與他們的交流中,我們也提出了算法對硬件的要求:需要多大計算能力、多少存儲空間、多少功耗等等。

            

          blob.png

           

            自定位是自動駕駛一個非常重要的基礎(chǔ),它要告訴汽車本身在哪。我們定位的方法是基于物理標(biāo)志物、影像提取和高精地圖來做匹配。橫向定位精度在 0.2 米以內(nèi),這樣的定位精度就可以保證汽車能夠在自己車道上行駛,我們現(xiàn)在能做到差不多 98% 或者 99% 的準(zhǔn)確率??v向的定位精度在 2 米,我們現(xiàn)在差不多是在 80% 到 90% 的準(zhǔn)確率。對高速自動駕駛來講,這種定位精度其實(shí)已經(jīng)足夠了。

            我們把定位能力、感知能力、路線規(guī)劃能力與 Tier1 交流后,開發(fā)了一個適合于自動駕駛量產(chǎn)的 BCU 硬件。BCU 硬件分為三種:BCU-MLOC(高精定位)、BCU-MLOP(高精定位+環(huán)境感知)、BCU-MLOP2(高精定位+環(huán)境感知+決策規(guī)劃)。有了這種實(shí)實(shí)在在的硬件后,我們賦能汽車行業(yè),讓整個行業(yè)加速的想法才能夠快速實(shí)現(xiàn)。

            關(guān)于阿波羅計劃

            

          blob.png

           

            (今天)我介紹的所有事情,相比于在我們在 4 月上海車展公布的阿波羅計劃來講,其實(shí)都是鳳毛麟角。阿波羅計劃是一套開放、完整,安全的生態(tài)系統(tǒng)和架構(gòu),它包含了四個層次:參考汽車層,參考硬件層,軟件平臺層、云服務(wù)層。任何公司、個人,只要有能力,按照我們參考硬件設(shè)計,參考汽車設(shè)計,就可以開發(fā)出一輛與百度能力一樣的自動駕駛汽車。

            自動駕駛是一個完全新增的市場,我們希望為行業(yè)提供自己的核心能力,加快整個產(chǎn)業(yè)發(fā)展,讓自動駕駛更快到來。


          上一頁 1 2 下一頁

          關(guān)鍵詞: 百度 自動駕駛

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();