DIGIPUNK
去投稿
发表于:12 hours ago

MiniMax 开源全球首个大规模混合架构推理模型 M1,突破算力效率瓶颈

数智朋克
发布者:数智朋克
阅读:1 分钟
我要投稿
核心要点👉
  • 💡 全球首个4560亿参数混合架构模型开源,突破算力效率瓶颈
  • ⚡ 仅需竞品30%计算资源,支持8万Token连续推理输出
  • 🏆 工具代理场景战胜Gemini 2.5 Pro,长上下文理解全球第二
  • 💰 企业API阶梯定价,32k输入低至0.8元/百万token
  • 🚀 训练效率倍增,较字节DAPO收敛速度快一倍

数智朋克讯,MiniMax稀宇科技正式开源全球首个大规模混合架构推理模型M1,以4560亿参数规模突破行业算力效率瓶颈。该模型采用独创的闪电注意力机制与CISPO强化学习算法双技术架构,在处理百万级上下文输入时仅需DeepSeek R1约30%的计算资源,同时支持业内最长的8万Token连续推理输出。训练阶段仅动用512块H800 GPU三周时间,算力租赁成本控制在53.47万美元,较预期降低一个数量级。

在权威评测中,M1展现出颠覆性性能表现:其80k版本在SWE-bench软件工程基准取得56.0%准确率,虽略低于DeepSeek-R1的57.6%,但大幅领先其他开源模型;长上下文理解能力超越OpenAI o3与Claude 4 Opus,以微弱差距位列全球第二,仅次于Gemini 2.5 Pro;工具代理场景更以绝对优势战胜Gemini 2.5 Pro。性能分级验证显示,扩展计算资源可有效提升模型表现,80k版本在多数测试中稳定优于40k版本。

开发者可通过Hugging Face获取完整模型权重,vLLM与Transformer已提供部署支持。面向普通用户开放网页端与移动端不限量免费服务,企业API采用阶梯定价:32k上下文输入输出成本分别为0.8元/百万token和8元/百万token,128k区间定价1.2元与16元,百万级长文本服务定价2.4元与24元。前两档价格显著低于竞品,最高档位为当前市场独有服务。

技术团队透露,此次开源模型在强化学习阶段突破传统token更新模式,通过裁剪重要性采样权重使训练效率倍增,较字节DAPO等算法收敛速度快一倍。用户实测反馈呈现两极分化,既有开发者惊叹"中国AI领域精英频出",也有用户遭遇复杂查询宕机问题。据悉,该团队将在未来四个工作日持续发布技术更新。

本文链接: https://www.shuzhipunk.com/articles/VHuQzdZHvoz
转载请注明文章出处

文章所属标签
M1 推理模型
MiniMax