百度在CES Asia上都展示哪些自動駕駛成果?
近日,百度智能汽車事業(yè)部總經(jīng)理顧維灝在 CES Asia 上帶來了主題為《自動駕駛新浪潮》。在演講中,顧維灝詳解了百度在自動駕駛領(lǐng)域的兩大亮點(diǎn)成果——端到端的自動駕駛模型 Road Hackers, 以及與德賽西威、聯(lián)合汽車電子分別開發(fā)的、國內(nèi)首個(gè)可量產(chǎn)的自動駕駛計(jì)算平臺 BCU(Baidu Computing Unit)。
本文引用地址:http://www.ex-cimer.com/article/201706/360389.htm
長城汽車提供底盤控制技術(shù),英偉達(dá)提供 DRIVE PX2 計(jì)算平臺,百度提供自動駕駛技術(shù)
百度還在場館外進(jìn)行了自動駕駛車輛的測試,該車最大亮點(diǎn)是采用了基于單目攝像頭、端到端深度學(xué)習(xí)自動駕駛解決方案。百度一位工程師向我們透露,除了此次與長城汽車合作的兩款車型外,今年 8月,百度還將展示第三輛自動駕駛汽車——具備自定位、環(huán)境感知能力和決策控制能力。
今年 3 月,百度通過內(nèi)部郵件宣布,對現(xiàn)有業(yè)務(wù)及資源進(jìn)行整合,成立智能駕駛事業(yè)群組(IDG),由自動駕駛事業(yè)部(ADU)、智能汽車事業(yè)部(L3)、車聯(lián)網(wǎng)業(yè)務(wù)(Car Life etc.)共同組成。作為百度智能駕駛事業(yè)群組的事業(yè)部之一,本屆 CES Asia 可以看成是智能汽車事業(yè)部(L3)整體發(fā)展成果的一個(gè)展示窗口。眼下,百度的阿波羅計(jì)劃依舊沒有太多實(shí)質(zhì)性的消息公布。在這次長達(dá) 45 分鐘的演講中,關(guān)于阿波羅計(jì)劃」的介紹也僅在最后的 5 分鐘:阿波羅計(jì)劃是一套開放、完整,安全的生態(tài)系統(tǒng)和架構(gòu),它包含了四個(gè)層次:參考汽車層,參考硬件層,軟件平臺層、云服務(wù)層。
顧維灝表示,演講中的內(nèi)容對于整個(gè)阿波羅計(jì)劃來說只是冰山一角。盡管如此,顧此次的演講依然值得咀嚼,他代表的是百度另一種自動駕駛解決方案的思路:如何用低成本、成熟的傳感器和端到端的深度學(xué)習(xí)實(shí)現(xiàn)自動駕駛。以下是顧維灝在 CES Asia 的演講,我們在不改變原意的基礎(chǔ)上做了編輯與刪減:
自動駕駛仿真技術(shù)
在這次展會上,除了高精地圖外,我們還帶來了更多面向智能汽車、自動駕駛或智能駕駛的新產(chǎn)品。如果你到我們展臺,會發(fā)現(xiàn)有一個(gè)互動的大屏,它展示的是自動駕駛仿真技術(shù),這項(xiàng)技術(shù)主要解決的是自動駕駛測試問題。
我們相信未來的自動駕駛,它的能力一定會超過人類。但是,如何超過人類?我們需要在真實(shí)的道路和環(huán)境上實(shí)踐多少才能達(dá)到人類的水平?有很多論文都在研究這個(gè)問題。其中我看到一篇比較著名的論文,通過各種可信度和置信度的計(jì)算,在理想情況下,汽車需要行駛兩億英里才能夠達(dá)到人類的水平。而特斯拉通過自己的計(jì)算,需要六億英里。
對中國來講,路況更加復(fù)雜,我們需要測試多少里程才能讓自動駕駛車輛趕上或者超過人類的水平?這是一個(gè)非常艱巨的任務(wù)。所以我們展示一個(gè)仿真的環(huán)境:將高精地圖灌入到仿真環(huán)境里,再建立一個(gè)虛擬現(xiàn)實(shí)的 3D 環(huán)境。同時(shí),我們把自動駕駛算法、車輛控制動力模型也加入到仿真器里——它可以隨時(shí)地、不停歇地進(jìn)行測試。有了這個(gè)仿真器,我們實(shí)際上就能更快、更好地加速自動駕駛的測試過程。
深度學(xué)習(xí)
當(dāng)我們在談人工智能的時(shí)候,我認(rèn)為有最關(guān)鍵的兩點(diǎn):第一,有沒有足夠多的數(shù)據(jù),這是人工智能基礎(chǔ);第二,有沒有能力將這些數(shù)據(jù)轉(zhuǎn)化為知識。語音識別把聲音轉(zhuǎn)化成文字,這是一種知識能力的轉(zhuǎn)化,我們從圖像里去識別貓狗、汽車,這也是知識的轉(zhuǎn)化。所以,只有具備了數(shù)據(jù),又有將數(shù)據(jù)轉(zhuǎn)化為知識能力,才能稱得上人工智能。
過去十幾年,我們一直是最好的中文搜索引擎,也積累了大量的文本結(jié)構(gòu)數(shù)據(jù)?,F(xiàn)在的互聯(lián)網(wǎng)或者過去十幾年在互聯(lián)網(wǎng)上存在的每一個(gè)網(wǎng)頁,我們數(shù)據(jù)里都有存載。
有這么大的數(shù)據(jù)后,如何將這些數(shù)據(jù)通過搜索引擎的排序算法,更好的展現(xiàn)給不同的搜索者?隨著人們對搜索的要求越來越高,我們對搜索引擎的算法也提出了更多要求。百度是最早引入機(jī)器學(xué)習(xí)算法作為搜索引擎的主算法,同時(shí)加入了個(gè)性化——我們叫做點(diǎn)擊調(diào)臺的能力,使得每個(gè)人看到的、搜索的結(jié)果,都會有針對個(gè)人特點(diǎn)的不同排序。
我們之所以說過去一段時(shí)間,識別的效果或搜索算法不好,是因?yàn)槲覀冊诿鎸τ邢抻?jì)算資源時(shí),要做很多 trade off(取舍):主動進(jìn)行剪枝,讓搜索空間變小,更快拿出準(zhǔn)確的結(jié)果,但這樣我們可能就會喪失一些好的結(jié)果。隨著計(jì)算能力的提升,包括 FPGA,GPU、CPU 的發(fā)展,這個(gè)搜索空間可以變得更大,這個(gè)時(shí)候好的結(jié)果被砍掉的機(jī)率會變小,更相關(guān)的結(jié)果就排到了前面。所以,我們在搜索引擎方面的能力積累,現(xiàn)在也應(yīng)用在自動駕駛領(lǐng)域。
自動駕駛需要新的算法
搜索面臨的是一個(gè)結(jié)構(gòu)化的文本數(shù)據(jù),但自動駕駛面對的環(huán)境更復(fù)雜,遇到的也是完全不一樣的數(shù)據(jù):更多圖像,更多傳感器回傳的復(fù)雜數(shù)據(jù)。比如 Lidar(激光雷達(dá)),傳回來的激光點(diǎn)云;radar (雷達(dá))傳回來的是探測結(jié)果數(shù)據(jù);camera (攝像頭)傳回的影像數(shù)據(jù)。更多現(xiàn)實(shí)環(huán)境的數(shù)據(jù)引入,讓整個(gè)數(shù)據(jù)變得更加復(fù)雜,規(guī)模更大,所需的計(jì)算資源也更多。這時(shí)候我們需要更多、更新、更快的新的深度學(xué)習(xí)算法。在過去的一兩年,我們看到自動駕駛所需要的數(shù)據(jù)、算法和計(jì)算的能力,都在不斷地提高,這也讓自動駕駛更快速進(jìn)入這個(gè)時(shí)代。
針對自動駕駛,有很多新的算法出現(xiàn),百家爭鳴,各不相同。但我認(rèn)為現(xiàn)在自動駕駛還處在一個(gè)相對比較早期的階段。如果對這個(gè)行業(yè)有所關(guān)注,你可能會看到不管是創(chuàng)業(yè)公司還是成熟公司,他們都演示過自己的自動駕駛技術(shù)。他們在車上搭載的傳感器都不相同:激光雷達(dá)、毫米波雷達(dá)、超聲波雷達(dá)、前視攝像頭、環(huán)視攝像頭、黑白攝像頭、彩色攝像頭等等。各種傳感器不同,數(shù)量也不一。你會發(fā)現(xiàn)這些自動駕駛汽車與現(xiàn)實(shí)世界的汽車非常不同。當(dāng)然,不同場景所需要的傳感器、所要求的算法復(fù)雜度或者算法的種類也不同。比如,以圖像為主的解決方案,要處理圖像的數(shù)據(jù),我們會選擇更加主流的卷積神經(jīng)網(wǎng)絡(luò),它對圖像定型計(jì)算、目標(biāo)識別、語義分割比較在行。
對 Lidar、radar 這種數(shù)據(jù)量要求更大的傳感器,我們肯定需要不同的深度學(xué)習(xí)算法。但如果我們的目標(biāo)是希望自動駕駛盡快到來,就必須考慮一個(gè)非?,F(xiàn)實(shí)的問題:用什么樣的傳感器才能讓自動駕駛更快到來?我們的一個(gè)答案是:用更便宜、更成熟的傳感器,用更先進(jìn)的深度學(xué)習(xí)算法來實(shí)現(xiàn)自動駕駛。
Road Hackers:阿波羅計(jì)劃的一部分
我們在這方面的實(shí)踐: Road Hackers,這是基于深度學(xué)習(xí)的自動駕駛解決方案。我們的目標(biāo)是通過一個(gè)消費(fèi)級攝像頭、深度學(xué)習(xí)算法實(shí)現(xiàn)自動駕駛。當(dāng)然,這是我們最苛刻的一次實(shí)踐。我們不可能只依賴這一個(gè)方案實(shí)現(xiàn)自動駕駛,未來我們還是需要雷達(dá)或者其他傳感器。但如果我們今天對最苛刻的環(huán)境,實(shí)踐得更多,要求得更嚴(yán),那在未來,自動駕駛對整個(gè)汽車的安全和擴(kuò)展性也會更方便。所以我介紹的這個(gè)實(shí)踐,就是通過一個(gè)傳感器、深度學(xué)習(xí)的算法和過去我們積累的大數(shù)據(jù)來實(shí)現(xiàn)自動駕駛的。秉著這樣一個(gè)想法,我們在去年開始了一系列調(diào)研工作。在這個(gè)過程中,我們發(fā)現(xiàn)在過去的積累中,我們做了一件非常了不起的事。
2013 年,當(dāng)時(shí)我還在百度地圖部門,那時(shí)我們升級了所有的地圖采集車輛,讓所有的地圖采集車輛都用上了最先進(jìn)的傳感器設(shè)備。在地圖采集的過程中,我們記錄了所有影像,記錄了采集車上司機(jī)所有的駕駛行為,包括轉(zhuǎn)方向盤、踩油門、踩剎車的行為。去年,我們發(fā)現(xiàn)了這個(gè)寶藏。
紅色的線代表方向盤轉(zhuǎn)向的角度。綠色的線代表用算法預(yù)測出的司機(jī)對方向盤的轉(zhuǎn)動
我們每天都有幾百輛采集車在全國各地行駛,每年整體的采集里程達(dá)到數(shù)百萬公里。我們開始用深度學(xué)習(xí)和機(jī)器學(xué)習(xí)的算法去挖掘這些數(shù)據(jù)和行為。這是我們在今年 1 月份美國拉斯維加斯的 CES 上正式發(fā)布的視頻(如上圖)。在這張圖上,我們預(yù)測的行為和司機(jī)實(shí)際駕駛行為,在方向盤轉(zhuǎn)角上已經(jīng)相對接近。
當(dāng)然,我們也意識到,這樣的寶藏只靠我們?nèi)ネ诰蚝蛯?shí)現(xiàn)是有限的,我們的速度還不夠快。所以我們將這套數(shù)據(jù)開放出去:今年 1 月,我們開放一萬公里的 Road Hackers 原始數(shù)據(jù),包含了采集車上收集到的所有數(shù)據(jù),遇到的所有天氣:不管是晴天、雨天、陰天、雪天;不管是在一條揚(yáng)長大路、一條曲徑小路、風(fēng)景秀麗的景區(qū)、還是在滿地都是泥濘的道路。
評論