核心要点👉
- 🦝 首批上线"浣熊变装"等三款像素级环境融合智能镜头
- 🛠️ 整合扩散模型+物理引擎实现文本驱动AR场景生成
- 💰 Platinum订阅用户分层解锁动态滤镜特权
- 💡 Lens Studio 5.0 Beta集成ChatGPT自然语言编程
- 🚀 年内将推手势控制3D建模与跨设备渲染功能
数智朋克讯,Snapchat近日将其自研生成式视频模型投入商业化应用,推出基于神经渲染技术的动态AR滤镜矩阵。该平台的AI Video Lenses通过多模态交互引擎,实现了对环境光线、用户微表情及肢体动作的实时解析,首批上线的"浣熊变装"、"幻影狐踪"与"春日花境"三款智能镜头,在用户端展现出像素级环境融合能力。
技术架构层面,系统整合了扩散模型与物理引擎,支持文本指令驱动AR场景生成。创作者输入自然语言描述即可激活实时语义分割功能,系统自动将物理空间重构为虚实交融的增强现实场景。值得注意的是,该平台同步开放了AI创作工具链,包含场景生成API和动作捕捉SDK,大幅降低专业级AR内容制作门槛。
商业化策略采取分层解锁模式,Platinum订阅用户可优先体验全套动态滤镜。开发端则推出Lens Studio 5.0 Beta,集成ChatGPT接口实现自然语言编程,开发者通过对话式交互即可完成复杂AR逻辑编排。官方路线图显示,年内将陆续上线支持手势控制的3D建模工具和跨设备同步渲染功能。