在Nvidia的StyleGAN视频演示中,它们显示了各种UI滑块(很可能只是出于演示目的,而不是因为开发StyleGAN时实际上具有完全相同的控件)来控制功能混合:
https://www.youtube.com/watch?v=kSLJriaOumA
但是,此处https://github.com/NVlabs/stylegan的GitHub代表似乎缺少任何简单的功能控制方法。
是否有Jupyter(或Kaggle)笔记本具有通过滑块和上载源照片的功能控件的UI控件,或者一些简单的解决方案如何自己添加控件?我实际上如何使用StyleGAN项目做更多的工作,而不仅仅是生成随机图像?
最佳答案
万一有人找同样的东西。
最后,我设法找到了非常接近我想要的东西-一个可以通过UI控制StyleGAN面部特征的项目:
https://github.com/SummitKwan/transparent_latent_gan
它使用的是CelebA数据集,因此种类不够大,而且这些功能通常会纠缠在一起。我希望为更大的Flickr-Faces-HQ数据集找到类似于此解决方案的东西(或在Nvlabs的演示图像混合中),但似乎还没有。
我猜想,我将不得不学习机器学习和Python本身,以充分理解水平来调整Faces-HQ数据集上的transparent_latent_gan示例。
奇怪的是,(似乎)还没有人创造出Nvlabs视频演示中特有的便捷UI。