11月13日,新浪微博正式发布首个开源大模型VibeThinker-1.5B,以15亿参数量实现超大规模模型级性能,打破“参数决定智能”的行业认知。
11月13日,新浪微博正式发布首个开源大模型VibeThinker-1.5B,以15亿参数量实现超大规模模型级性能,打破“参数决定智能”的行业认知。该模型已在开源平台上线,凭借低成本优势为中小团队及高校提供高性价比研发方案,引发AI领域广泛关注。


模型核心突破源于创新“频谱到信号原理”(SSP)训练方法:先鼓励模型发散探索解题路径,再通过强化学习锁定最优策略。实测显示,其在AIME24等三大高难度数学测试集上表现超越671B参数量的DeepSeek-R1模型,编程测试成绩追平数十倍参数量的Magistral-Medium模型。


成本控制成为显著优势,单次后训练成本不足8000美元,仅为DeepSeek-R1(29万美元)的1/36、MiniMax-M1(53万美元)的1/66,大幅降低研发门槛。模型开源后,开发者可基于其进行二次开发,适配社交内容分析、智能交互等多元场景。