Stability AI发布了Stable Assistant的两项新功能,分别是图片编辑中的搜索和替换,以及通过Stable Audio生成高质量音频。新功能利用了最先进的Stable Image Ultra技术,显著提升用户体验。
英国人工智能初创公司 Stability AI 获得超过 1 亿美元投资,并任命前维塔数码 CEO Prem Akkaraju 为新任 CEO。此次投资将推动公司进一步发展其开源文本到图像生成模型 Stable Diffusion,并扩展在人工智能领域的业务。
Stability AI最近发布了其音频生成模型Stable Audio的升级版2.0,此版本带来了革命性的变化,包括允许用户上传自己的音频样本并创造个性化AI生成歌曲的能力。
Stability AI 创始人 Emad Mostaque 日前宣布辞去首席执行官及董事会职务,转向去中心化人工智能领域。公司任命 Shan Shan Wong 和 Christian Laforte 为临时联席CEO,同时积极寻找长期首席执行官。
Stability AI推出了Stable LM 2 1.6B,这是一种紧凑、多功能的文本内容生成大型语言模型(LLM)。
Stability AI宣布推出其最新成果——Stable Diffusion XL Turbo(简称SDXL Turbo)。这一模型代表了图像生成技术的一个重大飞跃,通过采用先进的“对抗性扩散蒸馏技术”,SDXL Turbo实现了从繁复的50步迭代过程到只需一步迭代的转变,大幅提升了图像处理的速度和效率。SDXL Turbo的核心创新在于其能够在单次迭代中产生高质量的图像,这在技术上标志着对即时文字至图像转换过程的显著优化。
711便利店近日宣布,计划于明年在日本市场大规模引入生成式AI,用于数据分析、新产品策划和广告素材生成等。该公司建立了自己的云端AI模型,整合了OpenAI、Google和Stability AI等技术。这一举措预期将大幅减少会议次数(80%)和商品上市时间(90%),并加速推出满足消费者需求的新产品。
Stability AI最近发布了新模型Stable Video Diffusion,这是一个能将文字指令转换为影片的扩散模型。目前官方发布了两个版本的预览版,这些版本可以生成每秒3至30帧的高品质影片,但目前模型的最高帧数限制分别为14帧和25帧。Stable Video Diffusion是基于Stable Diffusion模型改造而成的首个影片生成模型,通过在潜在扩散模型(Latent Diffusion Model,LDM)加入时间层,并使用高品质小型影片数据集进行训练,从而实现影片生成。这一新研究定义了影片LDM的三个训练阶段:文字到图像的预训练、影片预训练和高品质影片的微调。官方表示,这些基础模型在用户偏好研究中的表现优于市面上的其他闭源产品