DIGIPUNK
去投稿
发表于:2025年08月31日

美团开源5600亿参数大语言模型LongCat-Flash

数智朋克
发布者:数智朋克
阅读:1 分钟
我要投稿
核心要点👉
  • 🚀 5600亿参数规模,自适应算法动态调节186-313亿激活参数
  • ⚡ Shortcut-connected MoE架构30天完成20万亿词元训练
  • 💰 每百万输出成本0.7美元,128k长文本支持
  • 🏆 MMLU-Pro 82.68分、COLLIE 57.10分等多项基准领先
  • 🤖 内部落地客服/销售场景,开源部署Hugging Face/GitHub

数智朋克获悉:美团正式将其自主研发的大语言模型LongCat-Flash推向开源领域,标志着本地生活巨头在人工智能领域的深度布局。这款模型采用混合专家架构,参数规模高达5600亿,通过自适应算法实现激活参数的动态计算,颠覆了传统MoE模型固定激活比例的局限。例如,处理简单任务仅需186亿参数,复杂推理则激活313亿参数,平均资源消耗控制在270亿,显著优化了计算效率。

创新架构Shortcut-connected MoE设计扩大了计算与通信的重叠窗口,结合定制化基础设施,模型在数万个加速器集群上仅用30天便完成了20万亿词元的训练,推理吞吐量突破每秒100个token。工程优化成果直接转化为用户可感知的性能:每百万输出词元成本低至0.7美元,支持128k长文本上下文,并在基准测试中展现卓越竞争力。

性能评估显示,LongCat-Flash在MMLU和MMLU-Pro中得分89.7182.68,与业界领先模型持平;ArenaHard-V2测试中86.50的得分超越DeepSeek V3.1;中文能力方面,CEval得分90.44证明其本土化优势。指令遵循能力尤为突出,IFEval得分89.65,COLLIE测试以57.10位居榜首,凸显其在智能代理任务中的卓越表现。模型已在美团内部客服、销售及研发环节广泛应用,契合CEO王兴强调的AI战略:AI at work提升员工效率,AI in products改造现有服务,Building LLM持续投入自研基座。开源版本部署于Hugging FaceGitHub平台,遵循MIT协议,为全球开发者提供无缝接入。

本文链接: https://www.shuzhipunk.com/articles/bokiya2FGV2
转载请注明文章出处

文章所属标签
大语言模型
开源
混合专家架构
性能评估
AI战略