٩(◕‿◕。)۶ 嗨,探险家!
还没拿到探险许可吗?
加入数字探险
欢迎回到数智世界!
用户名
密码
同意
《用户服务协议》
《隐私政策》
开启
密码掉进黑洞了?
微信公众号
抖音视频
微信视频号
小红书
数智朋克
DIGIPUNK
快讯
智选
创新
探索
欢迎进群
来自
去投稿
数智本土
幻方量化旗下AI公司DeepSeek发布全新第二代MoE大模型DeepSeek-V2。该模型性能接近GPT-4Turbo,具备2360亿参数,每token激活210亿参数,支持128K上下文长度,成本显著降低。
DeepSeek发布第二代MoE大模型,性能直逼GPT-4Turbo
数智本土
APUS携手新旦智能,在GitHub上正式开源千亿参数级别的MoE(Mixture of Experts)架构大模型,标志着国内首个此规模的MoE架构模型的诞生。
APUS与新旦智能开源千亿级MoE大模型
DIGIPUNK
AIGC社群
联系我们
加入我们
商务合作
我要投稿
解决方案
媒体矩阵
Copyright © 2023-2024 DIGIPUNK LTD.