多模态AI生成平台LiblibAI获红杉中国与CMC资本领投的1.3亿美元B轮融资,刷新2025年中国AI应用单笔融资记录。平台整合图像、视频及3D等多模态能力,已孵化超2000万创作者并突破50万个原创模型。
蚂蚁集团正式发布开源语言模型Ling-1T,采用FP8混合精度训练技术,支持128K上下文窗口,在AIME竞赛数学准确率达70.42%。该模型具备多模态任务转换能力,同步开放模型权重与体验接口。
腾讯混元图像3.0在LMArena全球盲测榜单中超越26个主流大模型登顶。该开源模型发布一周即占据Hugging Face热榜首位,衍生模型超3000个。
Hugging Face发布新模型榜单,阿里通义七款模型占据全球开源前十席位,全模态大模型Qwen3-Omni摘得桂冠。阿里通义已开源300余模型,全球下载量超6亿次,衍生模型逾17万个,均列全球首位。
小米正式开源原生端到端语音模型Xiaomi-MiMo-Audio,基于上亿小时训练数据实现少样本泛化能力,并在多项基准测试中超越同规模开源模型及闭源模型。该模型通过三重技术创新突破传统语音范式,全套技术方案已开源发布。
阿里通义团队发布全新基础模型架构Qwen3-Next,同步开源基于该架构的Qwen3-Next-80B-A3B系列模型。新架构针对上下文长度扩展与参数扩展深度优化,通过混合注意力机制与极致稀疏MoE方案实现训练推理双重突破。
瑞士联邦理工学院联合机构推出开源大模型Apertus,基于15万亿token数据训练并完整公开模型权重。该模型具备多语言处理架构,覆盖1000余种语言体系,采用双版本设计适配全场景应用。
腾讯发布业界首个原生支持3D重建的超长漫游世界模型HunyuanWorld-Voyager,专注于空间智能领域并提供高保真3D场景漫游能力。该模型基于单张图像生成世界一致性的3D点云,通过创新3D内存机制突破传统视频生成局限,并在斯坦福基准测试中表现领先。
腾讯推出Youtu-agent开源框架,整合数据分析、文件处理等核心功能以提升智能体执行能力。该框架在基准测试中表现卓越,兼容多种模型API确保高度扩展性。
腾讯混元开源了支持33种语言互译的Hunyuan-MT-7B翻译模型,开发者可免费部署。模型在WMT2025竞赛中表现优异,已应用于腾讯内部产品提升用户体验。