北京协会网站建设,如何做公司网站简介,做网站seo的步骤,公司网络推广的内容怎么写今天#xff0c;RDT团队正式发布RDT2#xff0c;作为RDT-1B的续作#xff0c;是首个能在未见过的机器人本体上实现零样本部署的基础模型#xff0c;可执行拾取、放置、按压、擦拭等简单开放词汇任务。这次更是多方面发力#xff1a; 硬件重新设计#xff1a;通过采用更高…今天RDT团队正式发布RDT2作为RDT-1B的续作是首个能在未见过的机器人本体上实现零样本部署的基础模型可执行拾取、放置、按压、擦拭等简单开放词汇任务。这次更是多方面发力硬件重新设计通过采用更高强度材料和更精准的跟踪方法对UMI硬件进行了重新设计确保其在大规模数据收集中保持可靠。大规模多样化数据采集了超过10,000小时的人类操作视频涵盖100多种不同的室内场景覆盖了夹爪可执行的大部分家庭任务。视觉语言动作预训练采用残差向量量化Residual VQ作为动作tokenizer在UMI数据集上对Qwen2.5-VL-7B-Instruct进行预训练使其具备了卓越的指令跟随能力。扩散蒸馏技术以流匹配损失训练RDT模型作为动作专家随后将其蒸馏为单步生成器实现了超高速推理。目前已开源RDT2-VQ和RDT2-FM的代码与权重。包括其他模型的数据、代码和权重在内的其余组件也将于近期发布。论文名称RDT2: Exploring the Scaling Limit of UMI Data Towards Zero-Shot Cross-Embodiment Generalization论文链接https://arxiv.org/pdf/2602.03310项目链接https://rdt-robotics.github.io/rdt2/原文链接RDT2发布叠衣服成功率爆拉了pi0.5 40%全球首个在未见过的本体上实现零样本部署RDT2的愿景通向具身超级智能的道路需要全新的范式。即使质量最高、能完全弥合本体差异的遥操作系统仍存在显著缺陷成本高昂且不具备可移植性。在获取多样化场景和任务数据方面存在困难而这恰恰是训练通用模型所必需的。RDT2的愿景是突破这些限制设想未来将构建于可穿戴系统之上在全球范围内无缝捕捉人类活动的丰富性。这种方法不仅能收集数据更能精确映射我们与物理世界交互的本质结构为具身超级智能奠定关键基础。UMI Hardware初代UMI采用3D打印制造其结构强度不足以支撑长期高频数据采集。为解决这一局限重新设计了机械结构。新款产品采用坚固的尼龙66与玻璃纤维复合材料通过数控精密加工制成。我们摒弃了原先在无纹理室内环境中经常失效的SLAM跟踪方案转而采用基于红外光的定位系统来追踪末端执行器的六自由度位姿。由于硬件为机器人与人类提供了统一的末端执行器接口本体差异被降至最低。因此基于此类UMI数据训练的模型能够零样本部署到任何机械臂上。无需遥操作系统无需重新采集人类数据也无需微调模型真正实现即插即用。只需购买指定型号的摄像头与夹爪使用配套的法兰与3D打印相机支架进行安装并对齐工具中心点坐标系即可。数据集RDT团队生产了近100套UMI设备并将其部署到100多个真实家庭与办公场景中进行数据采集。共收集了超过10000小时的操作数据涵盖了绝大多数常见的人类操作任务。得益于硬件的高度便携性与低成本特性能够以约十分之一的成本和五倍于遥操作系统的速度完成同等规模的数据采集。以下是数据集中部分片段的可视化展示训练阶段训练分为3个阶段1stage1第一阶段在纯UMI数据集即1万小时UMI数据上训练了Qwen2.5-VL-7B-Instruct–一个曾经过互联网规模文本与图像数据预训练的视觉语言模型。该模型以两张腕部视角鱼眼图像和一条语言指令作为输入输出离散化的动作token。这些动作token是通过残差向量量化技术从连续的机器人动作双手的六自由度末端执行器位姿与夹爪开合度中离散化得到的。为稳定向量量化训练并提升码本利用率采取了多项措施包括因子化编码、余弦相似度计算、指数移动平均更新及codebook重启技术。同时将旋转、平移和夹爪开合度的离散化过程解耦实践证明这能有效避免多训练目标间的冲突。最终将长达0.8秒30赫兹的动作片段高效压缩为固定长度的27个tokens。在同等精度下该长度仅为FAST方法的1/3离散分箱方法的1/8。因此由于生成动作片段所需的前向传播次数更少模型具有显著更低的延迟。本阶段产出的模型被命名为RDT2-VQ。它需要通过自回归方式生成27个tokens即进行27次前向传播来获得一个动作片段。2stage2在第二阶段用4亿参数的RDT模型替代了残差向量量化模块作为动作专家遵循π0和π0.5的最佳实践在去噪过程中关注Qwen网络的键值对。该模型通过五次扩散去噪步骤即可生成连续的机器人动作完全避免了离散化误差。将第一阶段产出的权重复制到Qwen网络中并冻结参数随后采用流匹配损失对RDT模型进行训练。本阶段产出的模型被命名为RDT2-FM。此后将少量UR和Franka真实机器人数据与原始UMI数据进行混合后训练得到后训练模型RDT2-FM-Post以作区分。这两个模型的速度远超第一阶段模型仅需执行一次Qwen前向传播和五次4亿参数RDT模型的前向传播即可完成推理。3Stage 3第三阶段将RDT2-FM模型蒸馏为单步扩散策略且未出现性能损失此过程中Qwen网络始终保持冻结状态。该模型能够通过单次扩散步骤直接将纯噪声映射为机器人动作其机制类似于生成对抗网络。得益于高效的残差向量量化和单步生成器设计70亿参数模型的推理速度已达到并超越了30亿参数的基线模型。本阶段产出的模型被命名为RDT2-UltraFast。该模型是目前速度最快的版本仅需执行一次Qwen前向传播和一次4亿参数RDT模型的前向传播即可完成推理。这种超低延迟对于乒乓球对打等需要实时响应的任务至关重要。现将RDT2系列模型说明如下RDT2-VQ第一阶段成果卓越的指令跟随能力推理速度较慢支持强化学习已发布RDT2-FM第二阶段成果性能更优推理速度快暂不支持强化学习已发布RDT2-FM-Post第二阶段衍生产品RDT2-FM的孪生版本针对UR和Franka平台进行性能优化即将发布RDT2-UltraFast第三阶段成果性能更佳超高速推理暂不支持强化学习即将发布结果对比分析全新训练完成的RDT2模型在完整的4U条件下——未见过的本体、场景、物体与语言指令——展现出强大的零样本泛化能力。我们将此定义为相变临界点系统行为已从狭隘的专用模式跃迁至真正的通用模式。该系统能够接收日常开放式指令并将抽象语言锚定在物理行为中。虽然尚未达到完美但这个里程碑具有决定性意义规模化发展方向已被验证正确模型已首次展现出清晰的具身超级智能特征。具身求职内推来啦近50家主流具身公司校招社招实习均可国内最大的具身智能全栈学习社区来啦具身智能之心知识星球国内最大的具身智能全栈技术社区来啦推荐阅读从零部署π0,π0.5好用高性价比面向具身科研领域打造的轻量级机械臂工业级真机教程VLA算法实战pi0/pi0.5/GR00T/世界模型等具身智能算法与落地平台来啦国内首个面向科研及工业的全栈具身智能机械臂VLA/VLA触觉/VLARL/具身世界模型等具身大脑小脑算法与实战全栈路线来啦~MuJoCo具身智能实战从零基础到强化学习与Sim2Real从零训练你的足式机器人让你的足式机器人真正动起来~具身领域的目标导航到底是什么有哪些主流方法Diffusion Policy在具身智能领域是怎么应用的为什么如此重要具身智能视觉语言动作模型VLA怎么入门视觉语言导航的主流方法有哪些是怎么用的1v1 科研论文辅导来啦重磅具身智能之心论文辅导来啦近20方向顶会/顶刊/SCI/EI/中文核心/申博等