最近世界模型(World Model)很火,甚至有人說世界模型是終極自動駕駛解決方案,實(shí)際上它只是端到端大模型的一種,和VLM沒有本質(zhì)區(qū)別。目前的研究基本都集中在用世界模型生成視頻或其他連續(xù)時(shí)間序列上的可視化數(shù)據(jù),再用這些視頻訓(xùn)練傳統(tǒng)或端到端的自動駕駛模型,幾乎沒有人研究直接用世界模型做自動駕駛的。即便是視頻生成,也還是處于實(shí)驗(yàn)室的學(xué)術(shù)研究階段。
為什么要做世界模型,它實(shí)際上是端到端自動駕駛的閉環(huán)仿真,世界模型可以看做VLM的逆向工程,用prompt這些文字提示輸出視頻。世界模型和端到端模型是一個(gè)互相幫助的過程,世界模型生成的視頻交給車端大模型,車端大模型通過它的規(guī)劃執(zhí)行接下來的動作,接下來的動作產(chǎn)生新的場景、新的視角,再通過世界模型繼續(xù)生成新的數(shù)據(jù),進(jìn)行閉環(huán)仿真的測試。
不同于CARLA這些測試型仿真,世界模型是訓(xùn)練型仿真,它要達(dá)到海量規(guī)模才有價(jià)值。
世界模型生成視頻可以是自監(jiān)督的,無需3D標(biāo)簽,可以使用海量網(wǎng)絡(luò)汽車駕駛視頻。最重要的是它可以生成現(xiàn)實(shí)世界中極難采集到的長尾視頻,這是其核心價(jià)值。換句話說它生成的視頻價(jià)值是現(xiàn)實(shí)世界采集到的視頻數(shù)據(jù)的價(jià)值百倍以上,但成本是其1%不到。
所謂世界模型就是視頻生成加prompt控制。視頻生成有四大類型,包括基于對抗網(wǎng)絡(luò)GAN的,基于擴(kuò)散模型的,基于自回歸模型(基本上就是transformer)和基于掩碼的。其中,擴(kuò)散模型再分為Stable Video Diffusion (SVD)和Stable Diffusion (SD)兩種,它們還有一種共同的稱呼即隱擴(kuò)散模型(Latent Diffusion Model, LDM)。
目前也有結(jié)合diffusion和transformer的模型即DiT,但它本質(zhì)上還是擴(kuò)散模型,只不過用transformer替換了擴(kuò)散模型中的Unet。大名鼎鼎的SORA則是復(fù)合型,Sora模型的核心組成包括Diffusion Transformer(DiT)、Variational Autoencoder(VAE)和Vision Transformer(ViT)。DiT負(fù)責(zé)從噪聲數(shù)據(jù)中恢復(fù)出原始的視頻數(shù)據(jù),VAE用于將視頻數(shù)據(jù)壓縮為潛在表示,而ViT則用于將視頻幀轉(zhuǎn)換為特征向量以供DiT處理。據(jù)說特斯拉就是用的SVD。
基于世界模型的端到端訓(xùn)練
生成視頻的質(zhì)量分為兩部分,一是視頻本身的準(zhǔn)確度,主要指標(biāo)有三個(gè),一個(gè)是FID/FVD,另一個(gè)是CLIP得分。FID(Fréchet Inception Distance)是一種用于評估生成模型,尤其是在圖像生成任務(wù)中,生成圖像的質(zhì)量和多樣性的指標(biāo)。它通過比較生成圖像與真實(shí)圖像在特定空間內(nèi)的分布來工作。這個(gè)特定的空間通常是通過預(yù)訓(xùn)練的Inception網(wǎng)絡(luò)的某一層來定義的。
對于生成圖像集和真實(shí)圖像集,分別通過Inception網(wǎng)絡(luò)(通常是Inception V3模型)計(jì)算它們的特征表示。這一步驟會得到每個(gè)圖像集的特征向量,計(jì)算每個(gè)集合的特征向量的均值和協(xié)方差矩陣,并做對比,都是高等數(shù)學(xué)的課程,這里就不展開說了。FVD和FID接近,相當(dāng)于把FID的圖像特征提取網(wǎng)絡(luò)換成視頻特征提取網(wǎng)絡(luò),其他都差不多。最后一個(gè)是北大提出來的,就是Trajectory Agent IoU (NTA-IoU),與設(shè)定軌跡的交并比,Novel Trajectory Lane IoU (NTL-IoU),與設(shè)定車道的交并比。
二是視頻本身的長度、幀率和分辨率,要盡可能與傳統(tǒng)自動駕駛訓(xùn)練視頻達(dá)到一致的幀率和分辨率。
目前世界模型生成視頻的方向有兩個(gè),一個(gè)是追求更長、更多視角、更高分辨率,代表作有商湯的《InfinityDrive: Breaking Time Limits in Driving World Models》,華為的《MagicDriveDiT: High-Resolution Long Video Generation》,Wayve的GAIA-1,地平線的DrivingWorld。另一個(gè)是追求近乎真實(shí)的3D場景渲染,理想在這方面情有獨(dú)鐘,理想的Street Gaussians、ReconDreamer、DriveDreamer4D都是這個(gè)方向,也是這個(gè)領(lǐng)域的主要代表作。
特斯拉用的什么世界模型,自然是未知,也許它根本就沒用世界模型。
注:“Ours”指的就是InfinityDrive,圖片來源:商湯論文《InfinityDrive: Breaking Time Limits in Driving World Models》
圖片來源:華為的MagicDriveDiT
華為不僅能生成超高分辨率,還能生成多個(gè)角度的視頻。
數(shù)據(jù)來源:地平線的DrivingWorld,數(shù)據(jù)尺度比較大,分辨率也很高
我們再來看另一條3D渲染線,它的核心應(yīng)該說有點(diǎn)偏離世界模型的本來意義了,它是追求接近真實(shí)的3D渲染,基本上是理想汽車的獨(dú)角戲。
三個(gè)比較有價(jià)值的模型基本都有理想汽車的身影,第一個(gè)是Street Gaussians: Modeling Dynamic Urban Scenes with Gaussian Splatting,浙江大學(xué)和理想汽車合作,九位作者,其中來自理想汽車的作者占四位。
第二個(gè)是DriveDreamer4D: World Models Are Effective Data Machines for 4D Driving Scene Representation,由極佳科技聯(lián)合中國科學(xué)院自動化研究所、理想汽車、北京大學(xué)、慕尼黑工業(yè)大學(xué)等單位提出,十二位作者兩位來自理想汽車。
第三個(gè)是ReconDreamer: Crafting World Models for Driving Scene Reconstruction via Online Restoration,總共十六位作者,其中來自理想汽車的多達(dá)八位,來自極佳科技的有六位。
可以看到,理想汽車與極佳科技合作的最新成果就是ReconDremaer,純粹StreetGaussians的話,一旦偏離中心視角,容易出現(xiàn)空洞或鬼影,車道線也出現(xiàn)扭曲。
ReconDreamer整體框架
除了生成視頻,還有生成激光雷達(dá)點(diǎn)云視頻,如理想與澳門大學(xué)合作的《OLiDM: Object-aware LiDAR Diffusion Models for Autonomous Driving》,還有生成語義分割圖的《SynDiff-AD: Improving Semantic Segmentation and End-to-End Autonomous Driving with Synthetic Data from Latent Diffusion Models》。
OLiDM的整體框架
世界模型生成激光雷達(dá)點(diǎn)云視頻,再拿這個(gè)去訓(xùn)練激光雷達(dá)的識別能力。
OLiDM的效果,能有兩三個(gè)點(diǎn)的提升,已經(jīng)是非常難得了,現(xiàn)在在nuScenes上0.001的提升都需要一年半以上的時(shí)間。
世界模型一點(diǎn)也不神秘,不僅是端到端自動駕駛,它對傳統(tǒng)自動駕駛也有明顯的提升,自動駕駛的數(shù)據(jù)成本也大幅度下降至少95%以上,那些所謂影子模式變得毫無價(jià)值,實(shí)際上沒有世界模型生成視頻,影子模式本身也毫無價(jià)值,這也是馬斯克說他用擴(kuò)散模式生成視頻的原因,如果影子模式真有價(jià)值,何必多此一舉?
免責(zé)說明:本文觀點(diǎn)和數(shù)據(jù)僅供參考,和實(shí)際情況可能存在偏差。本文不構(gòu)成投資建議,文中所有觀點(diǎn)、數(shù)據(jù)僅代表筆者立場,不具有任何指導(dǎo)、投資和決策意見。