DIGIPUNK
去投稿

Groq 集成 Hugging Face Hub,三行代码部署 AI 模型,金融科技与工业研发周期缩短近半

Groq 正式集成至 Hugging Face Hub,开发者可通过 SDK 无缝调用服务,显著降低 AI 原型验证门槛。Groq 的 LPU 架构在实时推理中展现出十倍于 GPU 的速度优势,但面临基础设施扩张和盈利挑战。

2025年06月18日
Hugging Face发布SmolVLM:小巧高效的视觉语言AI模型

Hugging Face发布全新视觉语言模型SmolVLM,凭借仅有20亿参数和极低的内存占用,在设备端推理中表现出色。该模型完全开源,提供多个版本以满足不同应用需求,性能上远超同类模型。

2024年11月28日
Hugging Face与NVIDIA达成合作,开源AI框架LeRobot赋能机器人研发

Hugging Face与NVIDIA宣布合作,将其开源框架LeRobot与NVIDIA AI和机器人技术整合,推动制造、医疗、物流等领域的机器人创新。在德国机器人学习大会(CoRL)上,两家公司展示了这一跨平台协作的首个成果。

2024年11月08日
阿里云发布通义千问Qwen2大模型并开源

阿里云今日发布了通义千问Qwen2大模型,并在Hugging Face和ModelScope平台同步开源。Qwen2系列涵盖从0.5B到72B的五种尺寸预训练和指令微调模型,上下文长度支持扩展至128K tokens,相比Qwen1.5,Qwen2在大规模模型上实现了显著效果提升。

2024年06月07日
腾讯发布混元DiT模型加速库,大幅提升推理效率

腾讯发布混元文生图开源大模型(混元DiT模型)的加速库,显著提升推理效率,将生图时间缩短75%。混元DiT模型已集成至Hugging Face Diffusers通用库中,用户仅需三行代码即可调用。此外,混元DiT模型支持ComfyUI图形化界面,降低使用门槛,方便用户实现高效的图像生成。

2024年06月06日
TeleAI发布52B高性能多语言大模型,全面开源推动人工智能技术发展

在2024年中关村论坛年会上,中国电信人工智能研究院与北京智源研究院联合发布了52B参数规模的开源多语言大模型Tele-FLM。

2024年04月30日
Nous Research推出全新Nous-Hermes 2 Mixtral 8x7B模型

Nous Research团队成功微调出Nous-Hermes 2 Mixtral 8x7B模型,超越Mixtral Instruct,成为顶尖的开源模型。

2024年01月24日