Wayve 展示 GAIA-1 自动驾驶世界模型,号称可预测事件“看见未来”
10 月 9 日消息,英國 AI 初創公司 Wayve 公布了旗下 GAIA-1 生成式模型的最新進展,在今年 6 月的時候,Wayve 建立了將生成式模型用于自動駕駛的概念性驗證,而在這幾個月中,Wayve 公司持續擴展 GAIA-1,使其擁有 90 億個參數,能夠生成逼真的駕駛場景影片,展示自動駕駛“在各種情境的反應”,并且更好地預測未來事件。
GAIA-1 是一個可以利用不同類型的資料,包括影片、文字和動作,創建逼真駕駛場景影片的世界模型(World Model)。可對自動駕駛車輛的行為和場景特征進行細致的控制,且由于 GAIA-1 多模態的性質,能夠從多種提示模式和組合中生成相關視頻。
官方提到,GAIA-1 可對環境進行學習,從而提供結構性的環境理解,協助自動駕駛系統做出明智的決策。而“預測未來事件”是該模型的基本關鍵能力,而對未來的準確預測,可以讓自動駕駛車輛預先知道即將發生的事件,從而規劃對應的動作,增加汽車上路時的安全性和效率。
據悉,GAIA-1 會先運用專門的編碼器,將影片或文字等各種形式的輸入,編碼成一個共享的表示形式,進而在模型中實現統一的時序對齊和上下文理解,這種編碼方法,讓模型能夠更好地整合和理解不同類型的輸入。
而 GAIA-1 的核心,是一個自回歸 Transformer,能夠預測序列中下一組圖像 token,世界模型不只考慮過去的圖像 token,還參照文字和動作 token 的上下文資訊,運用這個方法所生成的圖像 token,不僅會在視覺上連貫,而且和預期的文字和動作指引保持一致。
在此之后,模型會啟動視頻解碼器這個階段被啟動,主要功能是將這些圖像 token 轉換回像素空間,視頻解碼器作為一個擴散模型,其強大之處主要在于可保證生成的影片,具語義意義、視覺準確且時間序一致性。
從官網得知,GAIA-1 的世界模型經過 64 個英偉達 A100 GPU 上長達 15 天的訓練,包含了高達 65 億個參數,而視頻解碼器則在 32 個英偉達 A100 GPU 上訓練了 15 天,總共擁有 26 億個參數。
GAIA-1 的主要價值,是在自動駕駛中引入生成式世界模型的概念,透過整合影片、文本和動作輸入,展示多模態學習在創建多樣化駕駛情境的潛力,而且透過整合世界模型與駕駛模型,使駕駛模型能夠更好地理解自己的決策,并且泛化至真實世界的情境中,進而提升自動駕駛系統的能力。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節省甄選時間,結果僅供參考,所有文章均包含本聲明。
總結
以上是生活随笔為你收集整理的Wayve 展示 GAIA-1 自动驾驶世界模型,号称可预测事件“看见未来”的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 威马汽车申请破产审查 执行信息20多条总
- 下一篇: 消息称米哈游两度试图绕开 30%“苹果抽