当前位置: 首页 > article >正文

【202511】Cosmos-Predict2.5-01-数据篇:用于PhysicalAI的基于视频基础模型的世界模拟【2亿原始视频(3500万小时)➞60亿经整理的片段➞4%➞2亿高质量clips】

《World Simulation with Video Foundation Models for Physical AI》Abstract摘要We introduce [Cosmos-Predict2.5], the latest generation of the Cosmos World Foundation Models for Physical AI. Built on a flow-based architecture, [Cosmos-Predict2.5] unifies Text2World, Image2World, and Video2World generation in a single model and leverages [Cosmos-Reason1], a Physical AI visionlanguage model, to provide richer text grounding and finer control of world simulation. Trained on 200 M curated video clips and refined with reinforcement learning-based post-training, [Cosmos-Predict2.5] achieves substantial improvements over [Cosmos-Predict1] in video quality and instruction alignment, with models released at and scales. These capabilities enable more reliable synthetic data generation, policy evaluation, and closed-loop simulation for robotics and autonomous systems. We further extend the family with [Cosmos-Transfer2.5], a control-net style framework for Sim2Real and Real2Real world translation. Despite being3.5 × 3 . 5 \times3.5×smaller than [Cosmos-Transfer1], it delivers higher fidelity and robust long-horizon video generation. Together, these advances establish [Cosmos-Predict2.5] and [Cosmos-Transfer2.5] as versatile tools for scaling embodied intelligence. To accelerate research and deployment in Physical AI, we release source code, pretrained checkpoints, and curated benchmarks under the NVIDIA Open Model License at http s://github.com/nvidia-cosmos/cosmos-predict2.5 and https://github.com/nvidia-cosmos/cosmos-transfer2. 5. We hope these open resources lower the barrier to adoption and foster innovation in building the next generation of embodied intelligence.我们推出 [Cosmos-Predict2.5],这是 Cosmos 物理人工智能世界基础模型的最新一代产品。基于流式架构构建的 [Cosmos-Predict2.5] 将 Text2World、Image2World 和 Video2World 生成功能整合于单一模型之中,并借助物理人工智能视觉语言模型 [Cosmos-Reason1],提供更丰富的文本锚定能力以及对世界模拟的更精细控制。[Cosmos-Predict2.5] 基于 2 亿段精心筛选的视频片段进行训练,并通过基于强化学习的后训练进行优化,在视频质量和指令对齐方面较 [Cosmos-Predict1] 实现了显著提升,并发布了 和 两种规模的模型。这些能力为机器人和自主系统提供了更可靠的合成数据生成、策略评估和闭环仿真。我们进一步扩展了该系列,推出了 [Cosmos-Transfer2.5]— 一个用于 Sim2Real 和 Real2Real 世界转换的 Control-Net风格框架。尽管其规模比 [Cosmos-Transfer1] 小了3.5 × 3 . 5 \times3.5×,但它能提供更高保真度且稳健的长期视频生成。这些进展共同确立了 [Cosmos-Predict2.5] 和 [Cosmos-Transfer2.5] 作为扩展具身智能的多功能工具的地位 。为 加 速 Physical AI 的 研 究 与 部 署 , 我 们 根 据 NVIDIA Open Model License 在https://github.com/nvidia-cosmos/cosmos-predict2.5 和 https://github.com/nvidia-cosmos/cosmos-transfer2.5 发布源代码、预训练 checkpoints 以及精选 benchmarks。我们希望这些开放资源能够降低采用门槛,并促进构建下一代 embodied intelligence 的创新。Contents目录1 Introduction … 31 引言 … 32 Data … 32 数据 … 32.1 Video Curation Pipeline … 42.1 视频筛选流程 … 42.2 Domain Specific Data … 62.2 领域特定数据 … 62.2.1 Robotics … 62.2.1 机器人技术 … 62.2.2 Autonomous Driving … 72.2.2 自动驾驶 … 72.2.5 Physics … 82.2.5 物理 … 83 Method … 83 方法 … 83.1 Flow Matching … 83.2 Network Architecture … 93.2 网络架构 … 94 Training … 104 训练 … 104.1 Pre-training … 104.1 预训练 … 104.2 Post-training … 114.2 后训练 … 114.2.1 Supervised Fine-tuning … 114.2.2 Reinforcement Learning … 134.2.2 强化学习 … 134.2.3 Timestep Distillation … 144.2.3 时间步蒸馏 … 144.3 Infrastructure … 144.3 基础设施 … 145 Results … 155 结果 … 156 Applications … 176 应用 … 176.1 Cosmos-Transfer2.5 … 186.1.1 Results … 196.1.1 结果 … 196.1.2 Long Video Generation … 196.1.2 长视频生成 … 196.2 Cosmos-Transfer2.5 for Robot Policy Learning … 206.2 用于机器人策略学习的 Cosmos-Transfer2.5 … 206.2.1 System and Task Settings … 216.2.1 系统和任务设置 … 216.2.2 Data Augmentation Strategy … 226.2.2 数据增强策略 … 226.2.3 Experiments and Results … 236.2.3 实验与结果 … 236.3 Cosmos-Transfer2.5 for Driving Simulation … 256.3 用于驾驶仿真的 Cosmos-Transfer2.5 … 256.3.1 Model Architecture … 256.3.1 模型架构 … 256.3.2 Training Datasets … 256.3.2 训练数据集 … 256.3.3 Experiments and Results … 286.3.3 实验与结果 … 286.4 Multi-view Generation with Camera Control … 286.4 具有相机控制的多视图生成 … 286.5 Synthetic Data Generation for VLA training … 326.5 用于 VLA 训练的合成数据生成 … 326.6 Action-Conditioned World Generation … 336.6 动作条件世界生成 … 337 Related Work … 357 相关工作 … 358 Conclusion … 368 结论 … 36A Contributors and Acknowledgments … 37A 贡献者与致谢 … 37A. 1 Contributors … 37A. 1 贡献者 … 37A. 2 Acknowledgments … 37A. 2 致谢 … 37Introduction1. 引言Physical AI systems-embodied agents equipped with sensors and actuators-assist humans in carrying out physical tasks by interacting with the environment: their actuators act on the world in response to sensory inputs. Training such systems directly in the real world, however, is often slow, costly, and risky.This is particularly true in the early stages, when system imperfections may lead to unsafe actions that damage either the agent, the environment, or both.Aworld simulatorthat can generatehigh-quality, diverse visual environmentsbased onthe actions of a Physical AI agentcan serve as a safe proxy for the physical world.Such simulators enable agents to acquire perception and control skills entirely in silicon before deployment in the real world (NVIDIA, 2025).In this paper, we introduce [Cosmos-Predict2.5], our latest world foundation model based on flow matching that significantly enhances simulation fidelity across diverse Physical AI domains.Physical AI 系统——配备传感器和执行器的具身智能体——通过与环境交互来协助人类完成物理任务:它们的执行器根据传感输入对世界施加作用。然而,直接在现实世界中训练这类系统往往缓慢、成本高且风险大。这在早期阶段尤为如此,因为系统缺陷可能导致不安全的动作,从而损坏智能体、环境,或两者兼而有之。一个能够基于Physical AI 智能体动作生成高质量、多样化视觉环境的世界模拟器,可以作为物理世界的安全代理。此类模拟器使智能体能够在部署到现实世界之前,完全在硅基环境中获得感知与控制技能(NVIDIA,2025)。在本文中,我们介绍 [Cosmos-Predict2.5],这是我们最新的基于 flow matching 的世界 Foundation Model,显著提升了不同 Physical AI 领域中的模拟保真度。[Cosmos-Predict2.5] leapfrogs the diffusion video world model in [Cosmos-Predict1] (NVIDIA, 2025) via three key improvements. First, we strengthen the data filtering pipeline to produce higher-quality pre-training datasets and manually curate specialized post-training data tailored for Physical AI. Second, we simplify the model architecture and combine Text2World, Image2World, and Video2World capabilities into a single model. Third, we improve the training recipe, leveraging model merging and a novel reinforcement learning algorithm for post-training, and replace the T5 text encoder used in [Cosmos-Predict1] with [Cosmos-Reason1] (NVIDIA, 2025), a modern decoder-only VLM architecture specialized for Physical AI, providing richer text representations and enabling finer-grained control over world generation. Through extensive experiments, we demonstrate that [Cosmos-Predict2.5] delivers substantial gains over [Cosmos-Predict1] in bothoutput quality and prompt alignment.[Cosmos-Predict2.5] 通过三项关键改进,超越了 [Cosmos-Predict1](NVIDIA,2025)中的 diffusion video worldmodel。首先,我们强化了数据过滤流水线,以生成更高质量的预训练数据集,并为 Physical AI 手动整理了定制化的专业后训练数据。其次,我们简化了模型架构,并将 Text2World、Image2World 和 Video2World 能力整合到单一模型中。第三,我们改进了训练方案,利用模型合并和一种用于后训练的新型强化学习算法,并将 [Cosmos-Predict1] 中使用的 T5text encoder 替换为 [Cosmos-Reason1](NVIDIA,2025) —一 种面向 Physical AI 的现代 decoder-only VLMarchitecture,可提供更丰富的文本表征,并实现对 world generation 更细粒度的控制。通过大量实验,我们表明[Cosmos-Predict2.5] 在输出质量和 Prompt Alignment 两方面都较 [Cosmos-Predict1] 有显著提升。We further demonstrate that these advancements yield broad and practical benefits across diverse downstream Physical AI applications.In particular, they enable more efficient synthetic data generation for Vision-LanguageAction (VLA) model training (Jang et al., 2025), a key ingredient for scaling embodied intelligence.Beyond this, [Cosmos-Predict2.5] improvesaction-conditioned video world generationforpolicy validation, enhances coherent multi-view video world generation for autonomous driving simulation, and supports camera-controllable multi-view video world generation for robotic manipulation.我们进一步证明,这些进展为各类下游物理人工智能应用带来了广泛且切实的益处。特别是,它们能够更高效地生成用于视觉-语言-动作(VLA)模型训练的合成数据(Jang et al., 2025),而这正是实现具身智能规模化应用的关键要素。除此之外,[Cosmos-Predict2.5] 还改进了用于策略验证(policy validation)

相关文章:

【202511】Cosmos-Predict2.5-01-数据篇:用于PhysicalAI的基于视频基础模型的世界模拟【2亿原始视频(3500万小时)➞60亿经整理的片段➞4%➞2亿高质量clips】

《World Simulation with Video Foundation Models for Physical AI》 Abstract 摘要 We introduce [Cosmos-Predict2.5], the latest generation of the Cosmos World Foundation Models for Physical AI. Built on a flow-based architecture, [Cosmos-Predict2.5] unifie…...

【WebRTC深度解析】从零构建一个稳定的WebRTC视频聊天应用

文章目录 📁 项目概述 项目结构 依赖说明 🏗️ 一、核心架构解析 1.1 系统整体架构 1.2 WebRTC通信完整流程 1.3 关键技术组件 💻 二、客户端核心代码深度解析 (`chatclient.js`) 2.1 全局状态管理 2.2 日志工具函数 2.3 WebSocket连接与消息分发 (`connect` 函数) 2.4 R…...

麒麟KYLINOS系统盘告急?保姆级图文教程:从添加硬盘到在线扩容,一步不落

麒麟KYLINOS系统盘扩容实战:零基础也能轻松掌握的完整指南 当系统盘突然弹出"空间不足"的红色警告时,那种手足无措的感觉我太熟悉了。上周我的开发环境就因为这个问题差点崩溃,紧急扩容后才恢复正常。不同于Windows系统的直观操作&…...

Cursor智能体开发:工作树

本页介绍的界面原生工作树功能仅在代理窗口中可用。在编辑器窗口中,请使用下方的 工作树技能 命令。 工作树可让智能体在隔离的 Git 检出中工作。每个任务都有各自独立的文件、依赖项和更改,而你的主检出保持不变。 如果你想在同一个仓库上同时启动多个…...

【PHP 9.0异步编程权威指南】:20年架构师亲授Swoole 5.0+AI协程聊天机器人实战面试通关秘籍

更多请点击: https://intelliparadigm.com 第一章:PHP 9.0异步编程与AI聊天机器人面试全景图 PHP 9.0 将首次原生集成协程调度器(Swoole Runtime 内核级抽象),并引入 async/await 关键字语法糖,彻底替代传…...

别只看单价了!聊聊大模型API定价背后的那些‘小心思’:从OpenAI到国内厂商

解码大模型API定价策略:商业逻辑与技术成本的博弈艺术 当ChatGPT的API调用费用从每千token 0.06美元降至0.03美元时,整个行业都在思考同一个问题:价格战真的要来了吗?但如果你只关注数字本身,可能会错过这场"百模…...

NVIDIA Profile Inspector完整解决方案:5个实战技巧解锁显卡隐藏性能

NVIDIA Profile Inspector完整解决方案:5个实战技巧解锁显卡隐藏性能 【免费下载链接】nvidiaProfileInspector 项目地址: https://gitcode.com/gh_mirrors/nv/nvidiaProfileInspector 你是否曾经对游戏中的卡顿感到束手无策?是否觉得显卡的潜力…...

《别再“一把锤子敲所有钉子”:TypedDict、dataclass 与 Pydantic Model 的 Python 建模选择指南》

《别再“一把锤子敲所有钉子”:TypedDict、dataclass 与 Pydantic Model 的 Python 建模选择指南》 Python 之所以迷人,是因为它既能让初学者用几行代码完成自动化脚本,也能支撑 Web 服务、数据平台、机器学习系统和复杂的企业级工程。从 19…...

从“类型体操”到工程设计:用 Python 解释协变、逆变与不变

从“类型体操”到工程设计:用 Python 解释协变、逆变与不变 在 Python 里,很多人第一次听到“协变、逆变、不变”时,都会本能地皱眉:这是不是又是一套只存在于类型系统里的抽象概念?平时写业务代码、做 Web 后端、数据…...

Intel Mobileye EyeQ Ultra:RISC-V架构的L4自动驾驶芯片解析

1. Intel Mobileye EyeQ Ultra:面向L4自动驾驶的RISC-V处理器解析在2022年CES展会上,Intel旗下Mobileye发布的EyeQ Ultra处理器引发了行业震动。这款专为L4级自动驾驶设计的SoC彻底摒弃了传统x86架构,转而采用12核RISC-V CPU集群,…...

三步搞定抖音内容采集:douyin-downloader让你的工作效率提升10倍

三步搞定抖音内容采集:douyin-downloader让你的工作效率提升10倍 【免费下载链接】douyin-downloader A practical Douyin downloader for both single-item and profile batch downloads, with progress display, retries, SQLite deduplication, and browser fall…...

Pearcleaner:macOS应用清理的终极免费工具,彻底告别残留文件

Pearcleaner:macOS应用清理的终极免费工具,彻底告别残留文件 【免费下载链接】Pearcleaner A free, source-available and fair-code licensed mac app cleaner 项目地址: https://gitcode.com/gh_mirrors/pe/Pearcleaner Pearcleaner是一款完全免…...

利用taotoken多模型能力为ubuntu部署的智能客服系统选型

利用Taotoken多模型能力为Ubuntu部署的智能客服系统选型 1. 智能客服系统的模型选型挑战 在Ubuntu服务器上部署智能客服系统时,开发团队往往面临模型选择的两难困境。不同的大模型在理解能力、响应速度和成本消耗上存在差异,而直接对接多个厂商的API会…...

加权h变换采样:视觉生成领域的高效新方法

1. 项目概述:视觉生成领域的创新采样方法 在计算机视觉和生成模型领域,如何高效地从复杂分布中采样一直是核心挑战。传统方法往往面临收敛速度慢或生成质量不稳定的问题。这个项目提出了一种名为"加权h变换采样"的创新方法,通过粗粒…...

2026制造业智能工厂方案横向对比与选型建议

综合技术路线、落地能力和行业验证三个维度,中之杰智能在离散制造领域的软硬一体化智能工厂解决方案中展现出差异化优势。其核心在于不把软件和硬件当作两件事来做——通过德沃克OBF智能工厂的“工厂神经中枢”,让ERP、MES等软件系统与AGV、立库、机械手…...

PostgreSQL 中高效插入多对多关联数据的三种方案对比与最佳实践

本文详解在 postgresql 中向联结表批量插入可变数量记录的三种主流方法——逐条执行、动态拼接 sql 与 jsonb 驱动的 cte 单语句,重点推荐基于 jsonb_array_elements_text 的原子性、高性能解决方案。 本文详解在 postgresql 中向联结表批量插入可变数量记录的…...

2026年企业级AiPPT私有化部署首选 AiPPT.cn以安全与定制赋能企业数字化办公

随着生成式AI技术的规模化落地,企业数字化转型进入深水区,智能办公工具市场持续高速增长。对于央国企、金融、政务等强监管行业,以及对数据资产、品牌规范、业务协同有高要求的大中型企业而言,通用型公有云AI PPT工具已无法满足核…...

CSS 3D 立方体逐面旋转的正确实现:规避万向节锁(Gimbal Lock)

本文详解如何用纯 css javascript 实现立方体「按需、逐面、无偏差」的 90 旋转,核心在于引入嵌套 gimbal 结构规避万向节锁问题,确保任意顺序(如先上后右)旋转均能准确显示目标面。 本文详解如何用纯 css javascript 实现…...

2026年动环监控系统主流厂商排名

动环监控系统作为数据中心、通信基站、电力机房等关键基础设施的“安全守护者”,直接决定运维效率、资产安全与运营成本。2026年行业呈现“头部领跑、细分突围”的格局,头部厂商凭借综合实力占据大型场景主导地位,细分厂商则凭借差异化优势在…...

从LVPECL到CML:一张图看懂四种高速差分接口的AC耦合互连矩阵(含共模噪声抑制设计)

高速差分接口互连设计指南:从LVPECL到CML的AC耦合实战解析 在高速数字系统设计中,差分信号接口因其出色的抗干扰能力和传输速率优势,已成为现代电子工程不可或缺的组成部分。面对LVPECL、LVDS、CML和HSTL这四种主流差分接口标准,工…...

手把手教你读懂A2L文件:从CDM Studio的Example.a2l文件入手,搞懂汽车ECU标定数据

手把手教你读懂A2L文件:从CDM Studio的Example.a2l文件入手,搞懂汽车ECU标定数据 第一次打开A2L文件时,那种扑面而来的代码块和嵌套结构往往让人望而生畏。作为汽车电子工程师的"数据护照",A2L文件承载着ECU与标定工具…...

生成式AI实战指南:从VAE、GAN到扩散模型与Transformer的代码实现

1. 项目概述:一本关于生成式AI的“活”教材如果你对生成式人工智能(Generative AI)感兴趣,无论是想从零开始理解其原理,还是希望亲手搭建自己的AI模型来生成图像、文本或音乐,那么你很可能已经听说过或正在…...

互补强化学习:双系统协同优化策略与经验

1. 项目概述:当经验与策略开始共舞在强化学习领域,我们常常面临一个核心矛盾:策略网络(Policy Network)需要大量试错才能积累有效经验,而经验回放(Experience Replay)又依赖已有策略…...

互补强化学习:提升样本效率的协同进化架构

1. 项目概述:当经验与策略开始对话在强化学习领域,我们常常面临一个根本性矛盾:策略网络需要大量试错才能积累有效经验,而试错过程本身又依赖策略的质量。这种"鸡生蛋蛋生鸡"的困境,使得传统强化学习在复杂环…...

5个核心技术突破:UiCard框架如何彻底改变Unity卡牌游戏UI开发

5个核心技术突破:UiCard框架如何彻底改变Unity卡牌游戏UI开发 【免费下载链接】UiCard Generic UI for card games like Hearthstone, Magic Arena and Slay the Spire... 项目地址: https://gitcode.com/gh_mirrors/ui/UiCard 在Unity游戏开发中&#xff0c…...

观察使用 Taotoken 后月度账单与模型用量分布的变化

观察使用 Taotoken 后月度账单与模型用量分布的变化 1. 接入前的成本管理痛点 在接入 Taotoken 之前,许多中小型项目团队面临模型使用成本不透明的问题。当项目同时调用多个大模型时,不同模型的计费方式和单位各不相同,导致难以统一核算实际…...

初创公司如何借助Taotoken快速低成本验证AI产品创意

初创公司如何借助Taotoken快速低成本验证AI产品创意 1. 技术资源有限时的AI接入挑战 初创团队在验证AI产品创意时,常面临模型选型复杂、接入成本高、预算有限等现实问题。传统方式需要分别对接不同厂商的API,处理各异的认证协议和计费规则,…...

因果律引擎调试

一、因果律引擎:软件测试的新范式在软件测试的演进历程中,我们见证了从手工测试到自动化测试,从功能验证到性能、安全、用户体验全方位保障的范式变迁。如今,随着系统复杂度的指数级增长,尤其是在微服务、分布式架构和…...

纳米机器人测试

纳米机器人测试:软件测试的终极前沿挑战当软件测试的触角延伸至生命的微观维度,一场前所未有的专业革命正在悄然发生。纳米机器人,这些尺寸以纳米计的智能装置,正从科幻蓝图走向精准医疗、环境治理等领域的现实应用,而…...

保姆级教程:用RT-X预训练模型快速微调你自己的机械臂(附OXE数据集使用指南)

从零到一:基于RT-X与OXE数据集的机械臂技能迁移实战指南 当我在实验室第一次尝试让Franka机械臂完成"抓取螺丝刀并递给操作员"这个看似简单的任务时,整整三天都在与动作轨迹规划和抓取姿态较劲。直到接触了RT-X预训练模型和OXE数据集&#xf…...