时间:2021-3-13来源:不详 作者:佚名 点击: 61 次
河南能治疗白癜风的医院 http://m.39.net/pf/a_4324728.html

点击我爱计算机视觉标星,更快获取CVML新技术

本文经机器之心()授权转载,禁止二次转载

选自arXiv

作者:WentaoJiang等

机器之心编译

参与:Panda

我们有时候可能会想知道如果将其他人的妆容放在自己脸上会是怎样。现在,不需要耗费时间学习化妆技巧以及花钱购买化妆品,借助深度生成模型,我们就能轻松尝试别人的妆容效果。近日,北京航空航天大学和中国科学院大学等机构的研究者新提出的姿态稳健型空间可感知式GAN(PSGAN),可以很方便地实现可定制化的妆容迁移,真可谓:美人秀色空绝世,我用AI试伊妆。妆容迁移效果图,我们希望模型能将Reference的化妆风格迁移到Source上,从而得到Results。在迁移学习领域,有一个任务名为妆容迁移(makeuptransfer),即将任意参照图像上的妆容迁移到不带妆容的源图像上。很多人像美化应用都需要这种技术。近来的一些妆容迁移方法大都基于生成对抗网络(GAN)。它们通常采用CycleGAN的框架,并在两个数据集上进行训练,即无妆容图像和有妆容图像。但是,现有的方法存在一个局限性:只在正面人脸图像上表现良好,没有为处理源图像和参照图像之间的姿态和表情差异专门设计模块。另外,它们也不能在测试阶段直接用于部分妆容迁移,因为它们无法以可感知空间的方式提取妆容特征。为了克服这些问题以更好地服务真实世界场景,颜水成等研究者认为完美的妆容迁移模型应具备以下能力:

能够稳健地处理不同的姿态,也就是在源图像和参照图像的姿态不同时也要能生成高质量的结果,比如可以将侧脸图像上的妆容迁移到正脸图像上。

能够实现逐部分迁移的迁移过程,即可以分开迁移人脸上不同区域的妆容,比如眼影或唇彩。

能够控制妆容的浓浅程度,即可以增强或减弱被迁移妆容的效果。Chenetal.提出了将图像解构为妆容隐码(makeuplatentcode)和人脸隐码(facelatentcode)来实现对妆容浓浅程度的控制,但这项研究并未考虑其它两项需求。

针对这些需求,研究者提出了一种全新的姿态稳健型可感知空间式生成对抗网络(PSGAN)。论文

------分隔线----------------------------
Copyright (c) @2012 - 2020



提醒您:本站信息仅供参考 不能做为诊断及医疗的依据 本站如有转载或引用文章涉及版权问题 请速与我们联系