核心要点👉
- 🚀 线上模型升级至V3.1,上下文拓展至128k
- 📦 开源685B参数基础模型支持开发者部署
- ⚠️ 当前开源版本未经指令微调
- ⏳ 次世代模型R2无明确发布时间
- 🔧 硬件适配问题导致依赖外部技术资源
数智朋克讯,DeepSeek官方宣布线上模型已升级至V3.1版本,上下文长度显著拓展至128k,用户可通过网页端、移动应用及小程序进行体验,API接口维持原有调用方式不变。这一升级强化了模型处理长文本的能力,优化了长文档分析、代码库理解及对话一致性的表现,部分早期测试者反馈前端代码处理效率同步提升。
同时,DeepSeek在开源社区发布了V3.1-Base基础模型,参数规模约685B,同样支持128k上下文窗口。开源内容涵盖配置文件、脚本代码及模型权重,但当前版本未经指令微调,开发者可直接下载用于实验或部署。
备受关注的次世代模型R2仍无明确发布时间表。内部消息指出,技术挑战持续影响开发进程,包括硬件适配问题;此前尝试采用国产芯片方案未达预期,导致训练阶段依赖外部技术资源。官方重申发布日程以实际进展为准,拒绝回应市场猜测。