DeepFaceLab相关文章
一:《简单介绍DeepFaceLab(DeepFake)的使用以及容易被忽略的事项》
二:《继续聊聊DeepFaceLab(DeepFake)不断演进的2.0版本》
三:《如何翻译DeepFaceLab(DeepFake)的交互式合成器》
四:《想要提高DeepFaceLab(DeepFake)质量的注意事项和技巧(一)》
五:《想要提高DeepFaceLab(DeepFake)质量的注意事项和技巧(二)》
六:《友情提示DeepFaceLab(DeepFake)目前与RTX3080和3090的兼容问题》
七:《高效使用DeepFaceLab(DeepFake)提高速度和质量的一些方法》
八:《支持DX12的DeepFaceLab(DeepFake)新版本除了CUDA也可以用A卡啦》
文章目录
一,不算太新的AMP模型
1.1 什么是AMP模型
在2021年5月30日的版本中,作者试验性的加入了AMP模型。
目前版本就有3个模型了:
- AMP
- Quick96
- SAEHD
AMP:对应amplifier(放大器),因为目标的面部表情被放大到源脸。
这个模型可以控制morph factor
(变形因子)参数,可以在合成前指定 0.0
到 1.0
的参数值。
当然还有很多具体的描述请看作者原文档吧。
1.2 训练AMP的步骤
-
需要足够多样的源脸数据集。
-
设置
morph factor
(变形因子)为0.5
-
运行
6) train AMP SRC-SRC.bat
脚本,训练源到源到50万次以上迭代 (越多越好) -
从
model
目录中删除inter_dst
文件 -
常规训练——也就是运行
6) train AMP.bat
1.3 最终效果
测试的内容都删了,才发现忘记截图……只能文字举个例子。
AMP模型最大的特点就是合成时指定morph factor
变形因子。
- morph factor = 0.0:合成后完全是目标脸,等于根本没有换脸。
- morph factor = 1.0:合成后完全是源脸。
所以当morph factor
介于0.0
到1.0
之间时,合成效果就在更像源/更像目标之间浮动。
试了一下确实是这样,但是对比SAEHD似乎没找到AMP的优点,它到底是干嘛用的。
个人怀疑,它是不是用于源难以重现目标所有表情时的一个选择?
如果你知道,请不吝赐教。
.
二,其它模型及特点
2.1 SAEHD
平时用的正常的模型,有很多参数选择。
可以根据自己的显卡调整分辨率和学习网络的各种选项。
简称SAEHD:High Definition Styled AutoEncoder
之前各种文章都是用的这个模型(也没别的啊)。
.
2.2 Quick96
最快速的模型,没有任何选项,固定96分辨率,全脸。
因为固定了选项,所以会自动用作者提供的预训练数据(所以很快)。
可以用在低端显卡上,比如2GB+的NVidia,或者4GB+的AMD。.
用这个模型可以快速的试一下,出效果。
缺点是分辨率太低了,量变引起质变,有时导致最终效果不佳(不仅是分辨率)。
.
2.3 被移除的模型
- TrueFace:只能N卡用,作者试了一下就移除了。
- SAE:被SAEHD给替代了。
- avatar :是不是给动漫用的,忘记了……反正被移除了,其效果可以被代替。
- RecycleGAN:呃,完全没印象……