OpenAI发布采用Apache 2.0许可证的开源语言模型gpt-oss-120b和gpt-oss-20b,在推理基准测试中表现优异。模型针对消费级硬件优化,已整合至Windows生态并登陆Hugging Face平台。
Groq 正式集成至 Hugging Face Hub,开发者可通过 SDK 无缝调用服务,显著降低 AI 原型验证门槛。Groq 的 LPU 架构在实时推理中展现出十倍于 GPU 的速度优势,但面临基础设施扩张和盈利挑战。
Hugging Face发布全新视觉语言模型SmolVLM,凭借仅有20亿参数和极低的内存占用,在设备端推理中表现出色。该模型完全开源,提供多个版本以满足不同应用需求,性能上远超同类模型。
Hugging Face与NVIDIA宣布合作,将其开源框架LeRobot与NVIDIA AI和机器人技术整合,推动制造、医疗、物流等领域的机器人创新。在德国机器人学习大会(CoRL)上,两家公司展示了这一跨平台协作的首个成果。
阿里云今日发布了通义千问Qwen2大模型,并在Hugging Face和ModelScope平台同步开源。Qwen2系列涵盖从0.5B到72B的五种尺寸预训练和指令微调模型,上下文长度支持扩展至128K tokens,相比Qwen1.5,Qwen2在大规模模型上实现了显著效果提升。
腾讯发布混元文生图开源大模型(混元DiT模型)的加速库,显著提升推理效率,将生图时间缩短75%。混元DiT模型已集成至Hugging Face Diffusers通用库中,用户仅需三行代码即可调用。此外,混元DiT模型支持ComfyUI图形化界面,降低使用门槛,方便用户实现高效的图像生成。
在2024年中关村论坛年会上,中国电信人工智能研究院与北京智源研究院联合发布了52B参数规模的开源多语言大模型Tele-FLM。