51-59 CVPR 2024 | ChatSiM:Editable Scene Simulation for Autonomous Driving via Collaborative LLM

24年3月,上海交通大学、上海人工智能实验室、卡内基梅隆大学和清华大学联合发布Editable Scene Simulation for Autonomous Driving via Collaborative LLM-Agents,基于LLM协作的可编辑自动驾驶场景仿真。ChatSim利用了大型语言模型(LLM)智能体协作框架,采用了一种新颖的多摄像头神经辐射场McNeRF和多摄像头照明估计McLight方法实现了自动驾驶场景可编辑与生成。

仿真照进现实,生成更近一步。全场景感知->全场景重建->全场景编辑->全场景生成的自动驾驶数据生产全链路脉络已经清晰。

期待赋能到端到端自动驾驶、具身智能等落地应用。

和我们一起,走进数据生成的世界!本专题由深圳季连科技有限公司AIgraphX自动驾驶大模型团队编辑,旨在学习互助。内容来自网络,侵权即删,转发请注明出处。

Abstract

自动驾驶场景仿真因其产生定制数据的巨大潜力而备受关注。然而,现有可编辑场景仿真方法在用户交互效率、多摄像头逼真渲染和外部数字资产集成等方面存在局限性。为了解决这些挑战,本文介绍了ChatSim,这是第一个通过外部数字资产的自然语言命令实现可编辑、逼真的3D驾驶场仿真系统。为了实现具有高度命令灵活性的编辑,ChatSim利用了大型语言模型(LLM)智能体协作框架。为了产生逼真结果,ChatSim采用了一种新颖的多摄像头神经辐射场方法。此外ÿ

你可能感兴趣的:(aiXpilot,智驾大模型1,自动驾驶,AIGC,stable,diffusion,智慧城市,计算机视觉)