训练模型,是换脸过程中最重要的一部分,也是耗时最长的一部分。很多人会问到底需要多少时间?有人会告诉你看loss值到0.02以下就可以了。我会告诉你,不要看什么数值,看预览窗口的人脸。看第二列是否和第一列一样清晰,看最后一列是否清晰,如果答案是“是”,那么恭喜你可以进入下一个环节了。
这个环节主要包括6个文件,每个文件代表一种模型,你只需选择一种即可。目前用的比较多的是,H64,H128,SAE 。
如果你玩这个软件,建议选着H64,出效果快,参数简单。
如果你需要更高的清晰度可选H128
如果你需要自定义更多参数选SAE。
6) train H64.bat
这个步骤虽然是最重要的,但是操作其实非常简单,比如你使用H64模型。只需双击文件。
双击文件文件之后一路回车,当跳出带头像的预览窗口就代表已经开始训练。刚开始训练的时候,第二列和第四列是空的,什么都没有,随着时间的推移会出现模糊的头像,继续训练头像会越来越清晰。
6) train H128.bat
这是H128,点击后出现的预览图明显比H64要大很多,这也是他们唯一的区别。
6) train SAE.bat
这是SAE的效果图。默认SAE的头像是128×128,等同于H128。 但是SAE的参数会更多。
下面说说模型训练环节常见的几个概念
Batch_size
这是一个深度学习中最常见的数字,也是每个模型必备参数。这个值到底取多少没有标准,默认为4,你可以用的值为2的n次方,比如2,4,8,16,32,64,128。一个普遍的常识是,数字大的会比小的效果好,loss收敛更快,震荡区域更小,但是对于机器配置的要求也越高。主要是对显存需求变大,一般4G显存最高只能16,继续提高会报OOM错误。
Epoch
这又是一个深度学习概念,讲的是训练完所有素材消耗的时间,最新版本这个名词改成了iteration 。 这么一改可能会让人有点混乱,但是你无需过多关注。你可以简单的认为是训练的次数。这个数值越大训练次数越多,效果越好。 而[1046ms] 这个数字越低,代表你电脑的配置越好,训练模型需要的时间更短。
LOSS
这TM又是一个深度学习的概念,反正就是越低越好。但是不要看绝对值,要看趋势,这个值慢慢降低,对应的预览图会越来越清晰,当降到一定数值(不一定是0.02或者0.01)后就很难在降低。
History
在开始训练的时候Write preview history 输入Y之后,workspace\model\h64_history下面就会保存各个阶段的预览图。这个图很直观的展现了你这个模型的进化过程。
对于train这个训练环节,你只要看最直观的预览图即可,其他都是浮云,浮云,浮云。
训练结束之后!!!
我们就可以进入真正的换脸环节了:脸部替换以及合成视频!
AI换脸系列文章: