核心要点👉
- 🚀 5600亿参数规模,自适应算法动态调节186-313亿激活参数
- ⚡ Shortcut-connected MoE架构30天完成20万亿词元训练
- 💰 每百万输出成本0.7美元,128k长文本支持
- 🏆 MMLU-Pro 82.68分、COLLIE 57.10分等多项基准领先
- 🤖 内部落地客服/销售场景,开源部署Hugging Face/GitHub
数智朋克获悉:美团正式将其自主研发的大语言模型LongCat-Flash推向开源领域,标志着本地生活巨头在人工智能领域的深度布局。这款模型采用混合专家架构,参数规模高达5600亿,通过自适应算法实现激活参数的动态计算,颠覆了传统MoE模型固定激活比例的局限。例如,处理简单任务仅需186亿参数,复杂推理则激活313亿参数,平均资源消耗控制在270亿,显著优化了计算效率。
创新架构Shortcut-connected MoE设计扩大了计算与通信的重叠窗口,结合定制化基础设施,模型在数万个加速器集群上仅用30天便完成了20万亿词元的训练,推理吞吐量突破每秒100个token。工程优化成果直接转化为用户可感知的性能:每百万输出词元成本低至0.7美元,支持128k长文本上下文,并在基准测试中展现卓越竞争力。
性能评估显示,LongCat-Flash在MMLU和MMLU-Pro中得分89.71与82.68,与业界领先模型持平;ArenaHard-V2测试中86.50的得分超越DeepSeek V3.1;中文能力方面,CEval得分90.44证明其本土化优势。指令遵循能力尤为突出,IFEval得分89.65,COLLIE测试以57.10位居榜首,凸显其在智能代理任务中的卓越表现。模型已在美团内部客服、销售及研发环节广泛应用,契合CEO王兴强调的AI战略:AI at work提升员工效率,AI in products改造现有服务,Building LLM持续投入自研基座。开源版本部署于Hugging Face和GitHub平台,遵循MIT协议,为全球开发者提供无缝接入。