DIGIPUNK
去投稿
猎户星空发布Orion-MoE8×7B大模型,推动AI技术与数据服务落地

猎户星空近日发布的Orion-MoE8×7B大模型,结合生成式混合专家架构,具备多语言处理能力,表现出色。与聚云科技合作推出的AI数据宝平台进一步助力大模型商业化,推动企业AI应用突破。

2024年11月29日
DeepSeek发布第二代MoE大模型,性能直逼GPT-4Turbo

幻方量化旗下AI公司DeepSeek发布全新第二代MoE大模型DeepSeek-V2。该模型性能接近GPT-4Turbo,具备2360亿参数,每token激活210亿参数,支持128K上下文长度,成本显著降低。

2024年05月13日
APUS与新旦智能开源千亿级MoE大模型

APUS携手新旦智能,在GitHub上正式开源千亿参数级别的MoE(Mixture of Experts)架构大模型,标志着国内首个此规模的MoE架构模型的诞生。

2024年04月02日