我們擅長(cháng)商業(yè)策略與用戶(hù)體驗的完美結合。
歡迎瀏覽我們的案例。
9 月 17 日上午,在海南省??谑姓匍_(kāi)的 2021 世界新能源汽車(chē)大會(huì )上,特斯拉首席執行官埃隆·馬斯克通過(guò)視頻發(fā)言時(shí)表示,未來(lái)的自動(dòng)駕駛可以通過(guò)視覺(jué)神經(jīng)網(wǎng)絡(luò )實(shí)現,并且相比普通人駕駛有十倍以上的安全性。
近日,特斯拉向其搶先體驗車(chē)隊推出 FSD(Full-self Driving,完全自動(dòng)駕駛)Beta V10 軟件。這是在特斯拉 AI Day 上發(fā)布最新應用在自動(dòng)駕駛上的視覺(jué)神經(jīng)網(wǎng)絡(luò )之后,技術(shù)上做了重要改進(jìn)的的純視覺(jué)自動(dòng)駕駛方案新版本。
特斯拉 CEO 伊隆·馬斯克稱(chēng),有望在 9 月 25 日左右向所有特斯拉車(chē)主開(kāi)放使用。
FSD Beta 10 的軟件版本號為 2021.24.15。在該版本軟件的支持下,特斯拉汽車(chē)能夠在高速公路和城市街道上虛擬駕駛,但它仍然被視為 L2 級駕駛員輔助駕駛,因為它需要駕駛員仍然對車(chē)輛負責,將手放在方向盤(pán)上,并隨時(shí)準備好控制。
在 Youtube(譯為“油管”,是目前全球最大的視頻搜索和分享平臺)上參與測試的用戶(hù)發(fā)布的針對性測試和路測結果來(lái)看,目前還有很多情景下會(huì )出現問(wèn)題,一個(gè)最明顯的提升表現在駕駛中可視化用戶(hù)界面,越來(lái)越多的道路標識和交通標識物的識別走向細分化,但依然有部分道路標志還不能準確識別。
在近期的特斯拉人工智能日上,特斯拉 AI 負責人 Andrej Karpathy 和自動(dòng)駕駛硬件高級總監 Ganesh Venkataramanan 介紹了純視覺(jué)自動(dòng)駕駛系統與 FSD 軟件的最新成果,此前 5 月份,馬斯克曾發(fā)文表示,特斯拉最新版本的 FSD 將取消毫米波雷達,采用純視覺(jué)感知方案。
在自動(dòng)駕駛感知領(lǐng)域,有兩個(gè)明顯區別的路徑——純視覺(jué)派和激光雷達派,純視覺(jué)派認為單純依靠攝像頭就可以完成自動(dòng)駕駛所需要的周?chē)h(huán)境感知,特斯拉、極氪、百度都使用的是純視覺(jué)感知方案。激光雷達派則以激光雷達為主導,配合毫米波雷達、超聲波傳感器、攝像頭多傳感器融合完成周?chē)h(huán)境感知,商湯 AR 小巴、小鵬 P5、蔚來(lái) ET7 使用的是激光雷達方案。
商湯智能駕駛研發(fā)總監李怡康在接受澎湃新聞采訪(fǎng)時(shí)表示,“無(wú)論是純視覺(jué)方案還是多傳感器融合的方案最終都是有可能實(shí)現 L4 或 L5 級別的自動(dòng)駕駛的,區別在于,引入激光雷達實(shí)際上是把問(wèn)題變簡(jiǎn)單了,因為我們引入了很多額外的信息,而且這些信息跟視覺(jué)很互補,有些信息,比如深度,它可以估算地很準確。假如最后兩條路徑都能實(shí)現 L5 級自動(dòng)駕駛,那我相信多傳感器融合這條路線(xiàn)可能會(huì )更快一些。當然,感知只是決定自動(dòng)駕駛是否實(shí)現的因素之一。”
特斯拉“純視覺(jué)派”技術(shù)路線(xiàn):視覺(jué)神經(jīng)網(wǎng)絡(luò )
特斯拉人工智能與自動(dòng)駕駛視覺(jué)總監 Andrej Karpathy 認為,將激光雷達添加到自動(dòng)駕駛堆棧會(huì )帶來(lái)其自身的復雜性。在 CVPR 2021 自動(dòng)駕駛研討會(huì )上,Karpathy,“你必須用激光雷達預先繪制環(huán)境地圖,然后你必須創(chuàng )建一張高清地圖,你必須插入所有車(chē)道及其連接方式以及所有交通信號燈,收集、構建和維護這些高清激光雷達地圖是不可擴展的,讓這個(gè)基礎設施保持最新?tīng)顟B(tài)將是極其困難的。”
Karpathy 表示特斯拉在其自動(dòng)駕駛堆棧中不使用激光雷達和高清地圖,“發(fā)生的一切,都是第一次發(fā)生在車(chē)內,基于圍繞汽車(chē)的八個(gè)攝像頭的視頻”。
特斯拉汽車(chē)上安裝了 8 個(gè)攝像頭,攝像頭沒(méi)有深度信息,他們的目標之一就是形成矢量空間視圖。那么要怎么知道旁邊一輛車(chē)究竟在哪里又有多長(cháng)呢?
首先的一個(gè)難點(diǎn)是,不同視角的攝像頭都只能看到周邊環(huán)境的一部分,有不同的校準(calibration)、位置(location)、取景方向(view direction)等,比如以下這張圖,誰(shuí)能知道這個(gè)點(diǎn)對應于相機視圖的哪個(gè)點(diǎn)?而我們只有知道這些信息,才能把周?chē)矬w準確放到向量空間視圖(vector space view)中。
因此就需要一種將多個(gè)攝像頭的信息融合在一起的技術(shù),特斯拉使用了在 2017 年提出,如今已經(jīng)席卷自然語(yǔ)言處理和計算機視覺(jué)領(lǐng)域的 Transformer 神經(jīng)網(wǎng)絡(luò )(Transformer Neural Network)。
然后則是加入有時(shí)間概念時(shí)間的 RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò ))以判斷移動(dòng)物體的速度以及對被遮擋物進(jìn)行預測。RNN 體現了“人的認知是基于過(guò)往的經(jīng)驗和記憶”的觀(guān)點(diǎn),通過(guò)記憶來(lái)處理任意時(shí)序的輸入序列,從而對接下來(lái)要發(fā)生的事情進(jìn)行預測。比如這里對被遮擋物預測,通過(guò)對遮擋前的特征和軌跡的記憶,使得視野被短暫遮蔽的情況下,依然可以預測遮擋視野后的物體運動(dòng)軌跡,并記錄已行駛過(guò)的路段的各種路標。
而對于深度信息,在缺少了雷達信息后,則需要通過(guò)對大量的有深度標注的相機數據進(jìn)行訓練得到的檢測算法來(lái)得到。
激光雷達多傳感器融合方案
激光雷達多傳感器方案是以激光雷達為主導,毫米波雷達、超聲波傳感器及攝像頭作為輔助。通過(guò)激光雷達發(fā)射激光束,測量激光在發(fā)射及收回過(guò)程其中的時(shí)間差、相位差,從而確定車(chē)與物體之間的相對距離,實(shí)現環(huán)境實(shí)時(shí)感知及避障功能。攝像頭的價(jià)格在幾十美元左右,而激光雷達則要昂貴的多,這或許也是很多純視覺(jué)流派廠(chǎng)商一個(gè)沒(méi)有說(shuō)的難言之隱。
商湯智能駕駛研發(fā)總監李怡康向澎湃新聞介紹,“我們會(huì )做很多種傳感器的評測,去找到最適合我們設計需求的傳感器方案,然后通過(guò)自動(dòng)化的算法將這些傳感器擺放到最合適的地方,從而實(shí)現最優(yōu)的環(huán)境信息獲取。傳感器之間是不在一個(gè)坐標系下的,我們通過(guò)自動(dòng)化標定算法將不同傳感器的特性及相關(guān)關(guān)系非常準確地找出來(lái),然后設計融合感知模型,并用大量的感知數據去訓練它,最終實(shí)現多傳感器融合感知。”
自動(dòng)駕駛底層邏輯是感知、決策、執行三個(gè)步驟的結合,對周?chē)h(huán)境的周密感知是所有決策的基礎,也是自動(dòng)駕駛汽車(chē)的安全保障。在了解周?chē)h(huán)境中物體的位置、速度和方向、路面的性質(zhì)、路緣石的位置、信號(交通、道路標志)等之后,自動(dòng)駕駛系統則要開(kāi)始做計劃和控制:首先是其他移動(dòng)物體在接下來(lái)的短時(shí)間會(huì )做什么,然后是根據整體計劃(比如規劃的通向目的地路線(xiàn))計劃自己要做什么,最后就是告訴汽車(chē)要做什么。
?。?a href="http://www.ikjki.com/wechat/">邯鄲小程序開(kāi)發(fā))
小米應用商店發(fā)布消息稱(chēng) 持續開(kāi)展“APP 侵害用戶(hù)權益治理”系列行動(dòng) 11:37:04
騰訊云與CSIG成立政企業(yè)務(wù)線(xiàn) 加速數字技術(shù)在實(shí)體經(jīng)濟中的落地和應用 11:34:49
樂(lè )視回應還有400多人 期待新的朋友加入 11:29:25
亞馬遜表示 公司正在將其智能購物車(chē)擴展到馬薩諸塞州的一家全食店 10:18:04
三星在元宇宙平臺推出游戲 玩家可收集原材料制作三星產(chǎn)品 09:57:29
特斯拉加州San Mateo裁減229名員工 永久關(guān)閉該地區分公司 09:53:13