Hugging Face发布全新视觉语言模型SmolVLM,凭借仅有20亿参数和极低的内存占用,在设备端推理中表现出色。该模型完全开源,提供多个版本以满足不同应用需求,性能上远超同类模型。
Hugging Face与NVIDIA宣布合作,将其开源框架LeRobot与NVIDIA AI和机器人技术整合,推动制造、医疗、物流等领域的机器人创新。在德国机器人学习大会(CoRL)上,两家公司展示了这一跨平台协作的首个成果。
阿里云今日发布了通义千问Qwen2大模型,并在Hugging Face和ModelScope平台同步开源。Qwen2系列涵盖从0.5B到72B的五种尺寸预训练和指令微调模型,上下文长度支持扩展至128K tokens,相比Qwen1.5,Qwen2在大规模模型上实现了显著效果提升。
腾讯发布混元文生图开源大模型(混元DiT模型)的加速库,显著提升推理效率,将生图时间缩短75%。混元DiT模型已集成至Hugging Face Diffusers通用库中,用户仅需三行代码即可调用。此外,混元DiT模型支持ComfyUI图形化界面,降低使用门槛,方便用户实现高效的图像生成。
在2024年中关村论坛年会上,中国电信人工智能研究院与北京智源研究院联合发布了52B参数规模的开源多语言大模型Tele-FLM。
Nous Research团队成功微调出Nous-Hermes 2 Mixtral 8x7B模型,超越Mixtral Instruct,成为顶尖的开源模型。
Stability AI宣布推出其最新成果——Stable Diffusion XL Turbo(简称SDXL Turbo)。这一模型代表了图像生成技术的一个重大飞跃,通过采用先进的“对抗性扩散蒸馏技术”,SDXL Turbo实现了从繁复的50步迭代过程到只需一步迭代的转变,大幅提升了图像处理的速度和效率。SDXL Turbo的核心创新在于其能够在单次迭代中产生高质量的图像,这在技术上标志着对即时文字至图像转换过程的显著优化。