核心要点👉
- 🚀 开源轻量级翻译模型Hunyuan-MT-7B
- 🌍 覆盖33种语言互译包括少数民族语言
- 🏆 在WMT2025竞赛中夺得30个语种第一名
- 🔧 开发完整训练范式确保行业最优效果
- 💼 应用于腾讯会议等内部产品提升体验
数智朋克讯,腾讯混元近日开源了轻量级翻译模型Hunyuan-MT-7B,该模型总参数量为7B,覆盖33种语言互译,包括中文、英语、日语等主流语种及藏语、维吾尔语等5种少数民族语言。
这一开源举措允许开发者免费部署,模型在参数规模受限的国际计算语言学协会WMT2025竞赛中,凭借公开数据训练条件,夺得30个语种第一名,超越众多更大规模对手。
模型在Flores200标准测评数据集上展现出卓越性能,显著领先于同尺寸模型,甚至媲美超大尺寸方案。
腾讯混元开发了完整的训练范式,整合预训练、CPT、监督调参、翻译强化和集成强化全链条,确保翻译效果达到行业最优。
同时发布的Hunyuan-MT-Chimera-7B作为业界首个翻译集成模型,支持多模型输入优化,提升专业场景准确性。
目前,该翻译模型已应用于腾讯会议、企业微信及QQ浏览器等内部产品,提升用户体验。下载入口通过腾讯混元官网及开源社区开放,技术报告和论文同步公开。