「自動(dòng)駕駛新青年講座」由智東西公開課企劃,致力于邀請(qǐng)全球知名高校、頂尖研究機(jī)構(gòu)以及優(yōu)秀企業(yè)的新青年,主講在環(huán)境感知、精準(zhǔn)定位、決策規(guī)劃、控制執(zhí)行等自動(dòng)駕駛關(guān)鍵技術(shù)上的最新研究成果和開發(fā)實(shí)踐?!缸詣?dòng)駕駛新青年講座」目前已完結(jié)22講,錯(cuò)過往期講座直播的朋友,可以點(diǎn)擊文章底部“閱讀原文”進(jìn)行回看!

有興趣分享的朋友,可以與智東西公開課教研團(tuán)隊(duì)進(jìn)行郵件(class@zhidx.com)聯(lián)系

自動(dòng)駕駛有單車智能自動(dòng)駕駛(AD)和車路協(xié)同自動(dòng)駕駛(VICAD)兩大技術(shù)路線。VICAD是在AD的基礎(chǔ)上,通過車聯(lián)網(wǎng)將“人-車-路-云”交通參與要素有機(jī)地聯(lián)系在一起,助力自動(dòng)駕駛車輛在環(huán)境感知、計(jì)算決策和控制執(zhí)行等方面的能力升級(jí),也是構(gòu)建新型智慧城市的核心要素。

高質(zhì)量數(shù)據(jù)是車路協(xié)同自動(dòng)駕駛技術(shù)的關(guān)鍵。針對(duì)目前自動(dòng)駕駛數(shù)據(jù)采集制作成本過高的問題,清華大學(xué)智能產(chǎn)業(yè)研究院研究人員在北京高級(jí)別自動(dòng)駕駛示范區(qū)指導(dǎo)下,聯(lián)合百度Apollo等多家單位聯(lián)合于發(fā)布車路協(xié)同數(shù)據(jù)集DAIR-V2X。該數(shù)據(jù)集已受到學(xué)術(shù)界和產(chǎn)業(yè)界的廣泛關(guān)注。DAIR-V2X數(shù)據(jù)集相關(guān)的論文收錄于CVPR 2022上。

該團(tuán)隊(duì)又于2023年5月隆重推出第二期時(shí)序車路協(xié)同數(shù)據(jù)集V2X-Seq。該數(shù)據(jù)集是全球首個(gè)基于真實(shí)道路場(chǎng)景的時(shí)序車路協(xié)同數(shù)據(jù)集,向境內(nèi)用戶提供下載使用。填補(bǔ)了目前業(yè)界真實(shí)道路場(chǎng)景車路協(xié)同時(shí)序數(shù)據(jù)集的空白,有效加速車路協(xié)同時(shí)序感知和車路協(xié)同軌跡預(yù)測(cè)研究。V2X-Seq數(shù)據(jù)集相關(guān)的論文收錄于CVPR 2023上。

9月7日10點(diǎn),「自動(dòng)駕駛新青年講座」第23講邀請(qǐng)到論文一作香港大學(xué)MMLAB在讀博士俞海寶參與,主講《車路協(xié)同時(shí)序感知與行為預(yù)測(cè)》。

講者

俞海寶,香港大學(xué)MMLAB在讀博士,導(dǎo)師為羅平副教授。又為清華大學(xué)智能產(chǎn)業(yè)研究院DAIR-V2X車路協(xié)同Tech Lead,導(dǎo)師為聶再清教授。前商湯科技自動(dòng)駕駛研究員,曾負(fù)責(zé)AI模型量化加速部署和ADAS量產(chǎn)交付,帶隊(duì)完成4-bit量化框架開發(fā)落地、多任務(wù)多平臺(tái)訓(xùn)推一體化框架開發(fā)等系列工作,成果獲得公司“小荷尖”創(chuàng)新獎(jiǎng)。在CVPR/ECCV等人工智能頂會(huì)發(fā)表多篇一作論文,并構(gòu)建多個(gè)有行業(yè)影響的數(shù)據(jù)集(如全球首個(gè)真實(shí)場(chǎng)景的車路協(xié)同自動(dòng)駕駛數(shù)據(jù)集DAIR-V2X),研究興趣包括V2X、自動(dòng)駕駛、通用機(jī)器人等。

第23講
主 題
《<strong>車路協(xié)同時(shí)序感知與行為預(yù)測(cè)
?提 綱
1、車路協(xié)同自動(dòng)駕駛行業(yè)發(fā)展及研究趨勢(shì)
2、V2X-Seq數(shù)據(jù)集采集制作及使用
3、時(shí)序感知與行為預(yù)測(cè)任務(wù)及Benchmark解讀
4、車路協(xié)同感知、預(yù)測(cè)等領(lǐng)域科研成果分享

?直 播 信 息
直播時(shí)間:9月7日10:00
直播地點(diǎn):智東西公開課知識(shí)店鋪

成果

論文標(biāo)題
《DAIR-V2X: A Large-Scale Dataset for Vehicle-Infrastructure Cooperative 3D Object Detection》
《V2X-Seq: A Large-Scale Sequential Dataset for Vehicle-Infrastructure Cooperative Perception and Forecasting》

?論文地址
https://arxiv.org/pdf/2204.05575.pdf
https://arxiv.org/pdf/2305.05938.pdf

開源地址
https://github.com/AIR-THU/DAIR-V2X
https://github.com/AIR-THU/DAIR-V2X-Seq