DragGAN 开源
已经有一阵儿了,在七月初开源那会已经介绍过一次,效果非常炸裂,但介于当时上手体验成本非常高,一直在等一个性价比高的体验方式。这不,它来了!
我们来回顾一下 DragGAN 的效果
一 DragGAN 是什么
DragGAN 模型,是一种革命性交互式图像操作方式,允许用户将图像中的任意点“拖动”到目标位置,以精确控制姿势、形状、表情和布局。主要包括了两个组件:
- 基于特征的运动监督,驱动手柄点向目标位置移动
- 新的点追踪方法,利用辨别式GAN特征来定位手柄点的位置
简单来说就是就是可以通过用鼠标扮演手柄的角色,在图片中实现图像点拖拽,进而来实现人动物的五官,形态变换
这一节我们不过多讲解原理,直接开始上手体验。如果你对原理感兴趣,可以点赞让我看到!后续填坑!
二 安装
DragGAN 对于 GPU 资源的要求更高。为了方便大家更快的能上手体验,我写了个简单的 Kaggle 脚本,大家只需要一键执行脚本即可。
如果你还不会使用 Kaggle,可以先回顾一下前面的内容,并注册账号 。如何使用 kaggle
DragGAN脚本链接:www.kaggle.com/code/xinsi1…
如果你按照前面的课程注册号账号并且执行完脚本,你可以看到下图,并且能看到一个链接,点击这个链接即可把玩
三 使用
功能介绍
DragGAN 已经内置了几个照片,打开链接后可以看到如下的界面。
Drag
- Add Points: 可以在照片上面添加控制点,控制点成对出现,第一个是起始点,第二个是目标点。
- ResetPoints:重置所有的控制点
- Start:添加好控制点之后点击 Start,DragGAN 开始干活
- Stop:DragGAN 不会自动停止,需要手动点击 Stop,需要挑选合适的时机点击 Stop
Mask
- Edit Flexible Area:可以在照片上创建遮罩,DragGAN 只会调整遮罩内的画面
实战
眯眯眼
第一步:设置遮罩
第二步:添加控制点
第三步:找准时机点击 Stop(emmmm…. 很明显时机没把握好..
哈哈哈哈,时机真的很重要!!!
再来看看其他的对比:
笑的再开心些
瘦脸肯定是更不在话下
我要大眼睛
你把头扭过去
试玩还是挺有意思的,不要稍不留神还是会被过度修复,还需要让子弹再飞一会儿。
好在这个试玩方案很简单,大家可以上手玩一玩儿