摘要:针对人脸图像复原任务中对图像尺度信息利用不足和眼镜结构复原错误的问题,提出一种基于双阶段多尺度生成对抗网络复原模型。该模型第一阶段引入改进损失的U-Net粗重构网络,利用跳连接减少原始图像信息的丢失,融合三种不同的损失函数提高生成器的重构能力,采用双判别器考虑全局信息和局部信息,并提出一种混合域注意力机制用于关注图像的空间和通道信息。第二阶段的精修复网络构建了全新的特征增强模块,增强网络对细节信息的提取能力和对结构的表达能力,引入相对判别器,用于关注生成样本与真实样本之间的相对真实性,提高了生成质量和训练稳定性。实验结果表明,该方法能够复原各类图像缺失的情况,并能够有效复原佩戴眼镜的人脸图像,与其他方法相比,该方法的峰值信噪比、结构相似性和感知相似度评估等指标分别提升了3.81%,2.65%和0.45%。