DIGIPUNK
去投稿
发表于:2024年04月02日

APUS与新旦智能开源千亿级MoE大模型

数智朋克

在当前全球AI技术快速发展的背景下,大模型技术已成为推动人工智能进步的关键。APUS携手新旦智能,在GitHub上正式开源千亿参数级别的MoE(Mixture of Experts)架构大模型,实现了技术的重大突破和创新。这一千亿参数级别的MoE架构大模型,不仅支持多种编程语言,还成功适配低端算力芯片,大幅降低了企业和开发者使用大模型的门槛。

新旦智能,虽为新兴企业,但其创始团队由来自清华、伯克利、腾讯、Meta等背景的精英组成,已在AI领域展示出强大的研发实力和创新能力。此次与APUS的合作,将APUS-xDAN大模型4.0(MoE)的性能优化到接近GPT-4的90%,显著提高了在低端算力芯片上的运行效率。

APUS董事长兼CEO李涛表示,面对国际技术封锁和算力资源的局限,中国必须在算法上实现创新,通过低端算力支持高端模型的开发和应用。APUS-xDAN大模型4.0(MoE)的开源,是对这一理念的实践,旨在推动中国AI产业的破局与进化。

该模型不仅在技术指标上表现卓越,还在各种复杂任务处理上显示出无与伦比的学习效率和模型容量。其开源行动,旨在加速AI技术的普及和应用,支持更多企业和开发者探索和创新,特别是对资金有限的小型创业者而言,极大地降低了技术门槛。

本文链接: https://www.shuzhipunk.com/articles/Z6OpPG6l5AZ
转载请注明文章出处

文章所属标签
新旦智能
APUS
MoE
APUS-xDAN