DIGIPUNK
去投稿
可灵 AI 2.1 系列模型实现 60 秒内高清生成,商业应用效率提升三倍

可灵 AI 最新 2.1 系列模型通过三档配置实现 1080P 视频 60 秒内生成,结合阶梯式计价体系推动短视频广告制作周期缩短至传统流程 1/3。技术升级带来 B 端业务营收环比增长 27%,新一代物理引擎实现电商视频制作成本降至每 5 秒 0.3 元。

2025年05月30日
爱诗科技 PixVerse V4.5 登顶 iOS 视频应用榜首,月活突破 1600 万

爱诗科技核心产品 PixVerse 凭借 V4.5 版本登顶美国 iOS 视频类应用榜首,月活跃用户达 1619 万量级。该企业近期完成 4 亿元 A 轮融资,技术团队在神经辐射场、动态纹理合成等前沿领域取得专利突破。

2025年05月20日
eBay 推出 AI 视频生成工具,助力卖家自动化创建社交营销内容

eBay 推出 AI 驱动的视频内容生成系统,通过计算机视觉技术解析商品信息并自动生成短视频。该系统支持多平台分发,并计划接入 3D 模型数据实现 360 度产品展示。

2025年05月16日
火山引擎发布 AI 视频生成模型 Seedance 1.0 lite,支持双模态输入

火山引擎在 FORCE LINK 巡展中推出多维度 AI 模型体系,其视频生成模型 Seedance 1.0 lite 通过分布式架构实现文生视频与图生视频双模态输入,豆包 1.5 视觉模型则在视频时序理解任务中实现 98.7% 的关键帧定位准确率。本次升级重点强化垂直场景适配能力,形成从数据标注到部署监控的完整 AI 开发闭环。

2025年05月14日
Character.AI 发布 AvatarFX 视频生成系统 实现静态影像动态化技术突破

Character.AI 推出基于多模态 AI 框架的 AvatarFX 系统,通过分布式计算实现毫秒级动态影像生成。该系统在商业应用中实现动漫转化效率提升 97%、电商视频成本下降 84%,并集成百万级音色数据库与侵权检测算法。

2025年04月24日
斯坦福大学与 GitHub 联合推出 FramePack 视频生成技术

斯坦福大学与 GitHub 开发者共同研发的 FramePack 技术通过时域上下文压缩机制,使 130 亿参数模型在 6GB 显存环境下生成 60 秒连贯视频。该技术采用动态上下文重载与漂移补偿网络,在 RTX 4090 实现每秒 0.6 帧生成速度且质量衰减低于 3%。

2025年04月20日
Runway Gen-4 模型突破视频生成技术边界

Runway Gen-4 通过跨场景元素同步技术实现动态一致性,其物理级光影模拟系统将材质反射率与色温偏差控制在 0.3% 以内。该模型采用零门槛元数据绑定机制,视频生成效率较行业平均提升 65%。

2025年04月01日
Kuaishou 可灵 AI 商业化首秀:八个月营收破亿,视频生成技术实现三次迭代

Kuaishou 可灵 AI 在 C 端市场完成亿元级商业化验证,通过多模态生成引擎实现动态捕捉精度像素级控制。其视频大模型专属算力集群将实时生成速度提升 47%,开辟电商虚拟主播等新商业场景。

2025年03月26日
阶跃星辰开源 Step-Video-TI2V 模型:30B 参数架构支持 5 秒 540P 视频生成

国内 AI 企业阶跃星辰发布开源视频生成模型 Step-Video-TI2V,该模型基于 30B 参数架构实现物理运动与镜头语言双向调控。VBench-I2V 测试显示其动态连贯性指标刷新行业纪录,动漫特效模拟精度提升 47%。

2025年03月20日