
来源: 网易科技报道
3月30日消息,在第二届中国具身智能大会(CEAI2025),天娱数科首席数据官吴邦毅围绕“感知-决策-行动闭环,具身智能体的通用化之路”核心命题,系统阐释了具身智能体通用化技术路径的创新范式。
吴邦毅指出:“推动具身智能体从单一任务执行向通用智能进化,关键在于构建通用AI Agent”。
一、感知突破:给机器装上"空间认知之眼"
吴邦毅直指行业痛点:“当前阶段具身智能产业还有很多亟待突破的瓶颈,在数据获取、算法开发、标准认证等方面仍存在诸多挑战。比如在数据层面,3D数据匮乏且获取成本高,严重制约了具身智能的深度训练;算法层面,多数企业需从0到1独立研发,导致资源浪费和效率低下;标准认证不统一,硬件接口、通信协议和数据格式等缺乏统一标准,具身智能难以跨本体应用等等。”
天娱数科将具身智能通用AI Agent列为研发重点,以Behavision命名的AI Agent整合了‘算法+数据+算力’,致力于打造通用的大脑和小脑开发平台。”Behavision通过云边端协同的创新架构,形成了形成完整的智能闭环。
吴邦毅表示:“通过自建的3D数据采集基地,集成高精度动捕系统与光场扫描技术,天娱数科已整合120万组3D场景数据、50万组多模态数据,覆盖工业、家庭、医疗等不同场景,并借助Sim2Real仿真数据智能泛化技术显著提升数据训练效率,实现多模态决策与世界模型构建。不止如此,吴邦毅还提到:“由天娱数科参股公司—专注空间计算及人工智能芯片及产品设计的高科技企业芯明开发的3D双目立体算法芯片及深度视觉模组,单芯片集成实时3D立体视觉感知、AI人工智能、SLAM实时定位建图等多项功能,具备1毫秒运动到显示延时、3.5TOPS超低功耗、12nm先进制程等优势,为机器人在复杂环境下的稳定运行提供了强大的感知算力支持,为机器人装上了‘空间之眼’。”
二、决策进化:大模型驱动的认知涌现
当前,具身智能正经历从“机械控制”到“认知涌现”的质变。早期机器人依赖预设程序执行单一动作(1.0阶段),大模型时代通过模仿学习掌握技能(2.0阶段),而真正的通用化必须跨越到3.0阶段——让机器建立对物理世界的因果推理能力。
据介绍,决策层是具身智能体的“大脑”,决策逻辑本质上是对人类经验的统计学习,天娱数科提出“云、边、端”通用AIAgent架构,通过多模态大模型与扩散算法的融合,实现决策层的智能化升级。公司自研的天星基座大模型以及面向3D智能领域的“智者千问”行业大模型和智慧广告大模型已通过中央网信办备案,形成了协同互驱、优势叠加的模型矩阵。这些模型结合先进的数据训练策略,如Action Chunking with Transformers(ACT)算法,让机器人能够快速学习复杂的动作序列和操作逻辑。
吴邦毅表示:“基于大模型的模仿学习技术正引领人形机器人进入智能化新阶段段。通过构建多模态感知系统,机器人可实时捕捉人类示范的运动轨迹、力量控制等关键参数,结合强化学习算法自主优化动作序列,实现从观察到执行的端到端能力迁移。”
随着多模态大模型与物理引擎的深度耦合,具身智能体将具备更高级别的决策能力,通过实时环境语义分割、动作意图预测等技术,不仅能完成指定任务,更能根据场景变化自主调整策略在工业、医疗、家居等不同场景中展现出更强的环境适应力。这种认知能力的跃升,标志着机器人正从单纯的工具型设备向智能体形态加速演进。
三、行动闭环:云边端协同催生"智能涌现"
“真正的智能,是在行动闭环中涌现”。吴邦毅表示在演讲中详细解析了天娱数科创新构建的云边端协同架构,通过云端百万级3D数据集与多模态大模型的深度训练,边缘侧集成SLAM算法与3D空间计算芯片的实时决策,以及终端深度视觉模组实现精准执行,形成三位一体的智能闭环。云端依托Behavision通用具身智能AIAgent,实现复杂场景的全局规划与数据迭代;边缘端以单芯片毫秒级响应能力处理实时感知数据,完成常规任务的自主决策;终端通过毫米级3D扫描和多模态交互,实现虚实场景的无缝衔接。
吴邦毅表示:“通过感知-决策-行动三大模块的闭环,天娱数科正在加速具身智能从实验室走向实际应用的进程。”云边端协同模式不仅能大幅降低机器人决策延迟,还能通过数据双向增强循环,推动具身智能在工业分拣、家庭服务等场景的快速落地,为通用智能体的规模化应用奠定基础。
最后,吴邦毅强调,具身智能的通用化发展是一个长期而艰巨的任务,需要整个行业的共同努力。天娱数科将继续加大在具身智能领域的研发投入,加强与行业内各方的合作,推动具身智能技术的创新与发展,为实现具身智能在各领域的广泛应用贡献力量。