DIGIPUNK
去投稿
发表于:2025年03月10日

国家超算互联网平台开放 QwQ-32B 模型云端 API 服务

数智朋克
发布者:数智朋克
阅读:1 分钟
我要投稿
核心要点👉
  • 🚀 QwQ-32B推理模型云端API正式开放调用
  • 🧮 AIME24数学推理79.5分对标DeepSeek-R1
  • ⚙️ 深度适配PyTorch/vLLM框架及完整模型镜像
  • 🌐 分布式加速计算资源池降低边际成本
  • 🤖 覆盖32B-671B参数规模的弹性算力矩阵

数智朋克获悉,国家超算互联网平台阿里巴巴Qwen团队达成战略协同,正式向开发者开放QwQ-32B推理模型的云端API调用权限。该服务以强化学习技术重构的Qwen2.5-32B架构为核心,支持开发者在无需本地部署的情况下,通过全国一体化算力网络直接调用百万级免费计算资源。技术白皮书披露,模型在AIME24数学推理基准测试中取得79.5分,与当前主流产品DeepSeek-R1的79.8分形成技术代际对标,同时在LiveCodeBench编程能力评估中以63.4分实现代码生成效率的突破性提升。

平台技术团队已完成对PyTorch框架vLLM推理引擎的深度适配,同步释放包含完整权重参数的模型镜像。开发者可通过云端交互式编程环境快速部署私有化训练流程,支持专有数据集的低门槛微调迭代。此次服务升级还整合了分布式加速计算资源池,基于国产智能算力卡实现复杂任务的多节点并行处理,显著降低大模型应用的边际成本。

在生态构建层面,该平台已形成覆盖32B至671B参数规模的模型服务矩阵,为产业智能化转型提供弹性算力解决方案。特别针对AI应用开发场景,推出包含实时推理优化动态资源调度在内的全栈式技术支持,助力企业构建端到端的大模型生产力管道

本文链接: https://www.shuzhipunk.com/articles/iA5rujjnKJz
转载请注明文章出处

文章所属标签
QwQ-32B
LiveCodeBench