DIGIPUNK
去投稿
发表于:2025年09月02日

腾讯混元开源轻量级翻译模型Hunyuan-MT-7B

数智朋克
发布者:数智朋克
阅读:1 分钟
我要投稿
核心要点👉
  • 🚀 开源轻量级翻译模型Hunyuan-MT-7B
  • 🌍 覆盖33种语言互译包括少数民族语言
  • 🏆 在WMT2025竞赛中夺得30个语种第一名
  • 🔧 开发完整训练范式确保行业最优效果
  • 💼 应用于腾讯会议等内部产品提升体验

数智朋克讯,腾讯混元近日开源了轻量级翻译模型Hunyuan-MT-7B,该模型总参数量为7B,覆盖33种语言互译,包括中文、英语、日语等主流语种及藏语、维吾尔语等5种少数民族语言。

这一开源举措允许开发者免费部署,模型在参数规模受限的国际计算语言学协会WMT2025竞赛中,凭借公开数据训练条件,夺得30个语种第一名,超越众多更大规模对手。

模型在Flores200标准测评数据集上展现出卓越性能,显著领先于同尺寸模型,甚至媲美超大尺寸方案。

腾讯混元开发了完整的训练范式,整合预训练、CPT、监督调参、翻译强化和集成强化全链条,确保翻译效果达到行业最优。

同时发布的Hunyuan-MT-Chimera-7B作为业界首个翻译集成模型,支持多模型输入优化,提升专业场景准确性。

目前,该翻译模型已应用于腾讯会议、企业微信及QQ浏览器等内部产品,提升用户体验。下载入口通过腾讯混元官网及开源社区开放,技术报告和论文同步公开。

本文链接: https://www.shuzhipunk.com/articles/hIUTNwarGFA
转载请注明文章出处

文章所属标签
翻译模型
开源
腾讯混元
Hunyuan-MT-7B
多语言翻译