当整个AI行业陷入“参数竞赛”的狂热时,微博AI交出了一份出乎意料的答卷,为沸腾的大模型战场开辟了一条充满想象力的新路径。
近日,微博正式发布首个自研开源大模型VibeThinker,这个仅拥有15亿参数的“轻量级选手”,在国际顶级数学竞赛基准测试上击败了参数量是其数百倍的,高达6710亿的DeepSeek R1模型。
更令人瞩目的是,其单次“后训练”的成本仅7800美元,对比DeepSeek-R1和MiniMax-M1等成本直接降低了几十倍。这一突破不仅重新定义了大模型的技术评价标准,更有望推动AI产业从“规模竞赛”转向“效率革命”。

行业黑马:小模型打破参数崇拜
在AI发展史上,参数量曾被视为衡量模型能力的核心指标。行业普遍认为,复杂推理能力需要1000亿以上参数才能涌现,而小模型则因无法处理高难度问题被视为“天生不足”。
但如果从小模型入手,通过巧妙的训练策略,能否挖掘出隐藏的推理能力?微博自研开源大模型VibeThinker,给出了行业一个肯定的答案。
当大多数AI厂商仍遵循着“规模扩大即智能提升”的 Scaling Law法则时,微博AI研发人员转而优化模型结构和训练范式,并创新提出了“频谱到信号原理”(SSP)方法训练,创造出了一个仅拥有15亿参数的“轻量级选手”,但在AI竞技场上战胜了超越其数百倍体量的“巨人”。
VibeThinker一经发布,立即引起了全球AI研究界的广泛关注,因其在一系列涵盖数学、编码的权威基准测试中,交出了一份出乎意料的答卷:
![]()
(HuggingFace官方主动下场发文宣传VibeThinker论文)
在AIME24、AIME25以及HMMT25三个高难度数学测试集上的表现,VibeThinker超越了参数量超其400倍的模型DeepSeek-R1-0120版本(模型大小671B),与规模为456B的MiniMax-M1效果接近或相当,甚至媲美Gemini 2.5 flash和Claude Opus 4。
此外,在LiveCodeBench v6(编程算法题测试集)中的成绩,VibeThinker成功追平参数量数超其数十倍的模型,比如欧洲领先AI企业Minstral.AI的深度思考模型Magistral-Medium-2506版本。
VibeThinker雄辩地证明,通过精巧的算法设计和训练策略,一个小规模模型完全有潜力在复杂的逻辑推理任务上,达到甚至超越那些体量庞大数百倍的巨型模型,更为AI产业的成本结构、技术路线和资本布局带来了全新的思考路径。
需要说明的是,VibeThinker目前发布的版本尚处于实验性版本,其研发重点主要集中于极大强化小模型复杂数学与竞赛编程等方面的能力,其在日常聊天等能力还没有做过针对性训练优化,所以暂不适合作为日常聊天工具进行互动,更适用于数学和代码等高智能应用场景。
行业资讯、企业动态、峰会活动可发送邮件至news#citmt.cn(把#换成@)。
海报生成中...