突破大语言模型局限 大晓机器人助推具身智能从“模仿”走向“推理”
18日,大晓机器人正式发布首个开源且商业应用的开悟世界模型3.0(Kairos 3.0),以及让具身本体拥有自主空间智能的具身超级大脑模组A1,并创新提出了“环境式数据采集”路径,有望大大降低行业数据采集成本。
新华财经上海12月19日电(记者 杜康)18日,大晓机器人正式发布首个开源且商业应用的开悟世界模型3.0(Kairos 3.0),以及让具身本体拥有自主空间智能的具身超级大脑模组A1,并创新提出了“环境式数据采集”路径,有望大大降低行业数据采集成本。
大晓机器人由商汤科技联合创始人、执行董事王晓刚担任董事长;首席科学家陶大程曾出任京东探索研究院创始院长、优必选人工智能首席科学家。两位业界颇有影响力的科学家坐镇,让这家新创立企业自诞生便被予以更多关注。
王晓刚介绍,一直以来,具身智能领域面临训练数据的极度缺乏。“数据始终是 AI 进化的核心支撑。此前行业通过采集员真机遥操,海量收集各类机器人的本体数据,但这一路径导致数据采集成本高昂、效率低下,且产出的技能模型严重绑定于特定硬件。此后,特斯拉、Figure AI纷纷放弃此前依赖的真机遥操路径,转而探索纯视觉学习方案,希望让机器人通过观看海量视频,直接习得人类的动作与智慧。但这种学习方式缺乏对三维物理世界的力学规律、物理属性和动作意图理解。”
此次大晓机器人提出的“环境式数据采集”路径,采用“以人为中心”的数据采集体系,通过跨视角多模态设备,融合视觉、触觉、语音、力学规律等多维度数据,构建基于物理基础的3D资产库,全面覆盖具身模型训练所需的各类交互信息。
据悉,环境式数据采集可实现一年千万小时的数据收集,让数据采集成本大大降低。在即时零售仓储场景中,该方案已实现多视角数据采集,覆盖数万种 SKU,完成仓储分拣与打包全流程,涵盖五大阶段13个“原子动作”;在居家、零售等多元场景中,也已实现对人体自然行为、物品交互轨迹的精准捕捉,甚至能复现遥操作范式下难以实现的生鲜抓取、精细化放置等任务。
基于环境式采集数据,大晓机器人同时发布了首个开源且商业化应用的世界模型——开悟世界模型3.0。
从“模仿”走向“推理”,被行业认为是具身智能的进化方向之一。“世界模型”则是其中一个重要的技术进化路径,有望突破大语言模型局限,拥有对物理世界的三维空间建模能力与动态因果推理能力,让机器人大脑更聪明,泛化性更好。
据悉,开悟世界模型3.0通过视觉、3D 轨迹、触觉、摩擦力等多维度信息输入,可以深度理解真实世界的物理规律与人类行为的底层逻辑。模型可具备跨本体一键生成、多本体泛化等特性,为具身智能提供高保真、可泛化的虚拟训练环境。
目前,开悟具身智能世界模型产品平台内置支持11大类、54个细类,累计328个标签,覆盖115个垂类具身场景,开发者只需输入简单指令,就能快速生成可视化的任务模拟内容。大晓机器人已经向全行业开放API,推动各类轻量化、定制化具身智能产品快速涌现,促进应用生态发展。
编辑:葛佳明
声明:新华财经(中国金融信息网)为新华社承建的国家金融信息平台。任何情况下,本平台所发布的信息均不构成投资建议。如有问题,请联系客服:400-6123115











