特斯拉自動(dòng)駕駛事故梳理:激光雷達(dá)是否必要
特斯拉的 Autopilot 本質(zhì)上是輔助駕駛技術(shù),但是一些司機(jī)抱有過高信任,由此導(dǎo)致了一系列事故,創(chuàng)造了自動(dòng)駕駛領(lǐng)域的大部分頭條新聞。美國(guó)汽車工程師協(xié)會(huì)(SAE)將自動(dòng)駕駛分為了從1到5的5個(gè)級(jí)別,以區(qū)分輔助駕駛和無人駕駛技術(shù),大部分文章談到這條就結(jié)束了。
本文引用地址:http://www.ex-cimer.com/article/201704/346223.htm要了解自動(dòng)駕駛的未來,我們先回顧一下新聞。
特斯拉Autopilot系列事故盤點(diǎn)
2015年10月14日,特斯拉公布7.0版本軟件,為已經(jīng)售出的特斯拉Model S開啟了Autopilot功能,出盡風(fēng)頭,并且被《麻省理工科技評(píng)論》評(píng)為“2016年十大突破性技術(shù)”。
2016年1月20日,京港澳高速河北邯鄲段,特斯拉Model S撞上一輛正在作業(yè)的道路清掃車,交警判定負(fù)有事故主要責(zé)任的司機(jī)高雅寧死亡。死者家屬起訴特斯拉索賠1萬元,理由是營(yíng)銷過程中存在誤導(dǎo)行為,而不是特斯拉的產(chǎn)品漏洞。(這次事故直到2016年9月14日才由中國(guó)中央電視臺(tái)曝光)
2016年5月7日,美國(guó)弗羅里達(dá)洲的Joshua Brown開著一輛自動(dòng)駕駛模式的Model S,超速撞到正在垂直橫穿高速的白色拖掛卡車,車頂被削平,駕駛員死亡。事發(fā)時(shí)車速74mph,而該路段限速65mph。Joshua Brown從海豹六隊(duì)退役之后,開了一家互聯(lián)網(wǎng)公司,上傳的Autopilot測(cè)試視頻曾經(jīng)被Elon Musk轉(zhuǎn)載,觀看次數(shù)幾百萬。
對(duì)于這次事故,各路專家都給出了諸多可能的解釋,例如:
Musk本人的Twitter:雷達(dá)精確的測(cè)算了出了前方有一個(gè)巨大的障礙物,但是因?yàn)榭ㄜ囘^大的反射面積以及過高的車身,從毫米波雷達(dá)的角度來看,它更像是一個(gè)懸掛在道路上方的交通指示牌/橋梁/高架路,因此被忽略了。
長(zhǎng)焦鏡頭無法看見整個(gè)車輛,所以誤認(rèn)為飄在天上的云。
天空太亮,攝像頭對(duì)于大面積白色物體很難從圖像中提取特征點(diǎn)。
超聲波雷達(dá)測(cè)量距離過短(2米左右),在高速行駛中沒有任何反應(yīng)時(shí)間。
這次事故的關(guān)注度最高,而另外幾次事故雖然沒有死亡,但是對(duì)于特斯拉的打擊更嚴(yán)重,因?yàn)橐陨辖杩谕耆珶o效。
2016年5月底在瑞士的事故:Autopilot模式Model S的前方,一輛汽車變道,避讓一輛靜止貨車。Model S似乎檢測(cè)到前車變道而輕微加速,但是沒發(fā)現(xiàn)靜止貨車,因此輕微加速地撞向了貨車。
這次撞到的靜止貨車不是大面積白色,而是藍(lán)色和黑色,并且有復(fù)雜圖案,也就是說特斯拉似乎可以撞上任意顏色和形狀的靜止障礙物。
在這次事故之后,前谷歌深度學(xué)習(xí)創(chuàng)始人吳恩達(dá)在Twitter表示
It's irresponsible to ship driving system that works 1,000 times and lulls false sense of safety, then... BAM!。(提供1000次正常,但給人虛假安全感的駕駛系統(tǒng)是不負(fù)責(zé)任的)
2016年8月3日,中國(guó)的 Qunar_大羅納爾多駕駛的Autopilot模式Model S再次撞到了??吭诼愤叺墓收宪?。程序員車主投訴特斯拉公司夸大自動(dòng)駕駛儀功能誤導(dǎo)買家,涉嫌虛假宣傳后,特斯拉在其中國(guó)官網(wǎng)上刪除了“自動(dòng)駕駛”、“無人駕駛”等字眼,改稱“Autopilot 自動(dòng)輔助駕駛”。特斯拉公司發(fā)言人表示:“特斯拉正不斷對(duì)各方面進(jìn)行改進(jìn),包括翻譯方面。過去幾周,我們正在努力解決跨語言產(chǎn)生的差異。這個(gè)時(shí)機(jī)與當(dāng)前事件或相關(guān)報(bào)道無關(guān)。”
2016年8月7日德克薩斯州的Mark Molthan駕駛的Model S在處于Autopilot模式時(shí)偏離公路并撞上路邊的護(hù)欄,他表示“Autopilot給了你安全的錯(cuò)覺。我不準(zhǔn)備充當(dāng)一個(gè)試飛員。汽車沒有發(fā)現(xiàn)彎道,直接沖上了護(hù)欄,而且并沒有停下來—— 實(shí)際上在第一次撞上護(hù)欄后,它仍繼續(xù)加速。”雖然車主沒有打算起訴特斯拉,但他的保險(xiǎn)公司Chubb Ltd.可能會(huì)起訴。
2016年9月28日在德國(guó),一輛特斯拉汽車與旅游大巴發(fā)生車禍,無人死亡,特斯拉公司認(rèn)為事故不可避免,與Autopilot無關(guān)。
德國(guó)交通部部長(zhǎng)要求特斯拉停止使用“Autopilot”這個(gè)詞,為此特斯拉聘請(qǐng)了第三方調(diào)查公司對(duì)于車主進(jìn)行調(diào)查,結(jié)果98%的受訪車主都明白他們?cè)趩?dòng)Autopilot之后還要繼續(xù)保持對(duì)汽車的控制??紤]到特斯拉已經(jīng)累計(jì)銷售十幾萬輛,那么也就是說有2%,也就是幾千名車主在事故接連不斷的半年之后,仍然可能會(huì)對(duì)自己和他人的安全造成威脅。
這幾千名過分勇敢的小白鼠可能造成什么后果呢?2016年11月16日,投資人和內(nèi)容創(chuàng)業(yè)者李笑來老師在一篇閱讀量達(dá)到4萬的文章中提到他利用特斯拉的自動(dòng)輔助駕駛功能在 “甚至開始在路上“寫”文章了” ,特斯拉中國(guó)區(qū)如果還沒請(qǐng)李笑來老師更正這個(gè)危險(xiǎn)的示范,就太欠缺嗅覺了。
除了上面的中國(guó)區(qū)虛假宣傳爭(zhēng)議之外,特斯拉的 Autopilot 還惹上了事故之外的幾個(gè)麻煩:
正在調(diào)查事故的美國(guó)國(guó)家公路交通安全管理局(NHTSA),表示特斯拉要求客戶簽署的保密協(xié)議可能會(huì)妨礙調(diào)查。對(duì)此特斯拉在博客的解釋是:要求用戶簽訂的“Goodwill Agreement”,目的是防止特斯拉給客戶折扣或者免費(fèi)保修在法庭上對(duì)公司不利,協(xié)議并沒有提到NHTSA或者政府,后來特斯拉修正了協(xié)議的措辭。
美國(guó)證券交易委員會(huì)(SEC)正在調(diào)查特斯拉是否違反證券法規(guī),因?yàn)樘厮估疽约癕usk本人在5月18,19日出售了一批特斯拉公司股票,但并未將5月7日的Autopilot致死車禍向投資者及時(shí)進(jìn)行公開披露。對(duì)此特斯拉在博客的解釋是:特斯拉公司在5月16日把事故告訴NHTSA僅為了通報(bào)事實(shí)。特斯拉調(diào)查員5月18日到達(dá)事故現(xiàn)場(chǎng)并回收車載數(shù)據(jù),5月最后一周才完成公司內(nèi)部調(diào)查。
律所Hagens Berman在組織對(duì)于特斯拉 Autopilot 2.0 未實(shí)現(xiàn)承諾功能的集體訴訟,該事務(wù)所曾經(jīng)起訴大眾和梅賽德斯。
評(píng)論