近日,国际计算机视觉顶级会议CVPR 2026放榜。群核科技联合浙江大学、宇树科技共同完成的两篇论文双双入选,分别涉及具身智能终身学习框架和视觉语言模型空间推理基准。CVPR每年汇聚全球最前沿的 AI 研究成果。本届CVPR有效投稿数达16092篇,最终录用4090篇,录用率25.42% 。
机器人如何“越用越聪明”?Arcadia框架实现具身智能学习闭环
其中,论文《Arcadia: Toward a Full-Lifecycle Framework for Embodied Lifelong Learning》提出面向具身智能终身学习的全生命周期闭环框架Arcadia,涵盖数据收集、模型训练,到实际部署后的自我进化和知识更新的完整过程。它主要探讨的是如何让机器人像人类一样,在不断变化的环境中“活到老学到老”。
在该框架中,群核科技发挥了其在空间重建和空间生成上的核心优势。依托其自研的SpatialLM大模型,系统能够将机器人采集的多模态传感器数据高效解析为结构化语义信息;结合SpatialGen的空间生成能力,系统可自动生成丰富的仿真3D场景。随后,通过空间智能训练平台SpatialVerse进行物理特性模拟和和数据扩增,为机器人提供了海量且物理一致的“训练场”。

实测数据显示,在宇树G1人形机器人的真实世界零样本测试中,Arcadia框架表现卓越:导航任务成功率达到46%,操作任务成功率达到27%。相较于NaVILA、OpenVLA等主流开源方案,其整体性能提升约3倍,尤其在多目导航与多物体协同操作等复杂场景中展现出显著优势。
AI真的理解空间吗?SpatiaLQA构建空间逻辑推理“考卷”
而论文《SpatiaLQA: A Benchmark for Evaluating Spatial Logical Reasoning in Vision-Language Models》关注的,是一个更基础的问题:AI 是否真的理解空间?
今天的视觉语言模型其实已经很强了。它们擅长“看懂是什么”(物体识别、描述)以及“答对为什么”(抽象问答/常识推理)。但在真实物理空间任务中,面对遮挡关系、相对位置约束、操作顺序判断等问题时,能力短板往往暴露无遗。

例如,当机器人执行书架整理任务时,需要准确判断哪些书是支撑点、哪些摆件可独立移动——如果空间逻辑理解出错,抽出一本书可能导致整排物品倾泻而下。SpatiaLQA基准测试不仅提供了一套涵盖多种空间逻辑关系的评测数据集,更系统化定义了评价指标。
值得注意的是,群核科技SpatialLM的空间理解能力,为SpatiaLQA基准的构建提供了重要技术支撑。
行业资讯、企业动态、峰会活动可发送邮件至news#citmt.cn(把#换成@)。
海报生成中...