Gen-2:精准控制期望发生运动的主体对象

文章主题:Gen-2, 期望发生运动的主体对象, 运动幅度, 视频生成
AI

666ChatGPT办公新姿势,助力做AI时代先行者!

加入AI探索者行列,预订2024年度AI技术专栏,快速掌握AI的最新应用!

Gen-2:精准控制期望发生运动的主体对象

上周Runway Gen-2推出了一个Ambient的小功能,仍旧归属于Motion Brush中,当时录制了一个视频简单演示了一下,没有看过的朋友可以先看一下,这篇文章再简单说说这个功能有什么好处。

在以往的图生视频的过程中,通过Motion Brush工具,

Gen-2技术能够精确地操控那些我们希望发生运动的对象。常规操作步骤是,先选择目标对象,然后设定其在x、y、z三个方向上的运动幅度,接着生成相关视频。然而,在很多情况下,我们的目标是让环境发生变化,而不是让主体进行运动。尽管我们还可以通过画笔选择环境并设定其运动方向,但这仍然是非常不合理的,因为环境的变化往往是无规律的,而沿着固定的方向运动并不是环境的主要特征。

所以Runway推出了新的环境扩散模式Ambient,通过指定扩散范围,让AI自主决定扩散的方式和强度。Ambient(noise)强度越大,扩散变化越大,和原始图像越偏离。强度越小,扩散变化越小,和原始图像越接近。

在当前的科技环境中,人工智能(AI)已经通过处理海量的数据,成功掌握了对图像生成扩散的方法。这种技术使得我们能够在不指定物体的移动方向的情况下,让它们进行扩散式的运动。以新年贺卡的短视频为例,我将展示其中所包含的微小差别。这些新年贺卡是由我利用Dall-E生成的一个系列图像,并计划将其转化为一个简单的视频。

Dall-e在生成具有统一风格的图片系列方面表现相当出色。一旦我们获得一张令人满意的图像,便可以让她调整画面元素,从而快速生成一系列风格相近的图片。同时,其对文字生成的精确度也相当可靠。

Gen-2:精准控制期望发生运动的主体对象

上面是原始图像,下面是默认生成的视频:

关闭
观看更多
更多
正在加载
正在加载
退出全屏

视频加载失败,请刷新页面再试

Gen-2:精准控制期望发生运动的主体对象 刷新

Gen-2:精准控制期望发生运动的主体对象

可以看到在不使用运动画笔时,即便将Motion参数设的很小,也容易发生扩散变形失败。这时我们可以使用新的环境运动控制,将需要发生变化的区域勾选上,保留人物主体不勾选。看下面两种不同的勾选范围产生的不同结果:

Ambient=3Ambient=3设置Ambient,不保留文字设置Ambient,保留文字

Gen-2:精准控制期望发生运动的主体对象

Gen-2:精准控制期望发生运动的主体对象

关闭
观看更多
更多
正在加载
正在加载
退出全屏

视频加载失败,请刷新页面再试

Gen-2:精准控制期望发生运动的主体对象 刷新

Gen-2:精准控制期望发生运动的主体对象

关闭
观看更多
更多
正在加载
正在加载
退出全屏

视频加载失败,请刷新页面再试

Gen-2:精准控制期望发生运动的主体对象 刷新

Gen-2:精准控制期望发生运动的主体对象

文字消失

文字保持完好

可以看到通过使用Ambient,可以很精准的控制哪些区域可以让AI自主生成扩散运动,人物主体和文字都能保持很稳定的状态。

Runway始终在精确控制的方向上进行各种探索。当运动画笔刚问世时,合作伙伴区域就开始探讨如何摒弃运动方向的设定而产生运动的可能性。Runway的开发团队以其敏锐的洞察力和高效的响应能力,迅速实现了这一功能。

想要及时掌握更多AI新产品的进展和应用经验,欢迎订阅我的专栏!目前我的2024年度专栏已经开启预订,正在限时优惠,点击《揭秘2024:AI技术的下一波热潮,独家体验!》抢先加入。

公众号精选内容

基础入门 | 建筑室内 | 模型训练 | ChatGPT

StableDiffusion  |  Midjourney  |  进阶专栏 

23.112023.10 | 23.0923.0823.0723.06

2023.5 |2023.4 2023.3 | 2023.2 | 2022

☞三连击支持点赞 + 在看 + 分享?

Gen-2:精准控制期望发生运动的主体对象

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

版权声明:lida 发表于 2023年12月26日 pm5:34。
转载请注明:Gen-2:精准控制期望发生运动的主体对象 | ChatGPT资源导航

相关文章