地球信息科学理论与方法

基于条件生成对抗网络的电子地图可视水印去除方法

  • 江宝得 , 1, 2, 3 ,
  • 许少芬 2 ,
  • 王进 , 3, * ,
  • 王淼 2
展开
  • 1.中国地质大学(武汉)计算机学院,武汉 430074
  • 2.中国地质大学(武汉)国家地理信息系统工程技术研究中心,武汉430074
  • 3.工业和信息化部网络安全产业发展中心(工业和信息化部信息中心),北京 100846
* 王 进(1979— ),男,山东济南人,博士,高级工程师,主要从事深度学习与工业互联网安全、密码安全等方向的 研究。E-mail:

江宝得(1982— ),男,湖北武汉人,博士,硕士生导师,主要从事深度学习与智能制图等方面研究。E-mail:

收稿日期: 2022-08-22

  修回日期: 2022-11-01

  网络出版日期: 2023-04-19

基金资助

地理信息工程国家重点实验室基金资助项目(SKLGIE2019-Z-4-1)

地质探测与评估教育部重点实验室主任基金(GLAB2020ZR11)

Electronic Map Visible Watermark Removal with Conditional Generative Adversarial Networks

  • JIANG Baode , 1, 2, 3 ,
  • XU Shaofen 2 ,
  • WANG Jin , 3, * ,
  • WANG Miao 2
Expand
  • 1. School of Computer Science, China University of Geosciences, Wuhan 430074, China
  • 2. National Engineering Research Center of Geographic Information System, China University of Geosciences, Wuhan 430074, China
  • 3. Cybersecurity Industry Development Center (Information Center) of Ministry of Industry and Information Technology, Beijing 100846, China
* WANG Jin, E-mail:

Received date: 2022-08-22

  Revised date: 2022-11-01

  Online published: 2023-04-19

Supported by

State Key Laboratory of Geo-information Engineering(SKLGIE2019-Z-4-1)

Key Laboratory of Geological Survey and Evaluation of Ministry of Education(GLAB2020ZR11)

摘要

水印对于电子地图版权的保护十分重要,开展可视水印的去除研究有助于从攻防对抗的角度评价可视水印的有效性,进而提高电子地图可视水印的抗攻击研究水平。针对已有基于深度学习的可视水印去除方法存在训练样本量大、效率低、可视水印去除后有残留或要素丢失等问题,本文提出一种基于条件生成对抗网络(CGAN)的电子地图可视水印去除方法。该方法的模型主要由一个生成器和一个判别器组成,其中生成器采用U-Net结构,保证去除可视水印后生成的地图区域的真实性,判别器则采用基于区域判别的全卷积网络,通过对抗训练来区分生成的地图瓦片与真实地图瓦片之间的差异,使得可视水印去除后重建的电子地图更接近真实地图。实验表明,本文提出的方法简单易行,模型训练速度比基于全卷积网络的算法快4倍,能够去除文字、彩色图像及二者混合等模式的可视水印,可实现Google、高德、百度等国内外地图厂商提供的导航电子地图、遥感影像等多种地图瓦片上的可视水印批量去除,无需人工干预,且水印去除后的地图瓦片与原始真实地图瓦片有着良好的结构相似性。

本文引用格式

江宝得 , 许少芬 , 王进 , 王淼 . 基于条件生成对抗网络的电子地图可视水印去除方法[J]. 地球信息科学学报, 2023 , 25(2) : 288 -297 . DOI: 10.12082/dqxxkx.2023.220616

Abstract

Watermarks play an important role in the copyright protection of electronic map tiles. Research on visible watermark removal can help to evaluate the effectiveness of watermarks and improve anti-attack capabilities in an adversarial manner. The existing deep learning-based methods of visible watermark removal have problems such as requiring a large number of training samples, low efficiency, and watermark residual or unrealistic maps generated in results after watermark removal. To address these problems, inspired by the idea of image inpainting, this paper proposes a method based on conditional Generative Adversarial Networks (CGAN) to remove the visible watermarks on electronic maps. The network model mainly consists of a generator and a discriminator. Specifically, the generator adopts a U-Net structure, which includes an encoding stage and a decoding stage. In the encoding stage, multiple convolutional layers are used to obtain multi-scale features of the input watermarked map tile, and jump connections are used in the decoding stage to stitch features and up sample them to generate the watermark-free map tiles. The discriminator uses patch GAN, a full convolutional network model based on region discrimination, to evaluate the authenticity of the generated map tiles. In order to enrich the details and improve the verisimilitude of the generated maps, this paper further adds perceptual loss and L1 loss with the adversarial loss of CGAN. By optimizing the loss function of the real watermark-free map and the generated watermark-free map, an extremely real-like generated watermark-free map can be obtained. The proposed model has been extensively tested on a road map dataset, which was retrieved from domestic and foreign electronic map manufacturers such as Google, Gaode, Baidu, etc. It includes over 3000 watermarked map tiles with different watermark patterns like texts, colorful logos, and both. The results demonstrate that the proposed model in this paper can realize batch removal of visual watermarks on various map tiles such as navigation electronic maps and remote sensing images, and the training speed of the model is 4 times faster than the FCN-based approach. The comparison results by using different combination of loss functions show that the proposed perceptual loss and L1 loss can significantly improve the values of the evaluation metrics of MSE, PSNR, and DSSIM, which explain the similarity of the generated map tiles with the real map tiles. In a word, the approach proposed in this paper is efficient and simple. It can effectively protect the geometric and geographic information in the map tiles after watermark removal and realize batch removal without manual interferences.

1 引言

随着空间信息技术的飞速发展和基于位置服务的应用普及,电子地图已成为人们日常工作和生活中不可或缺的工具,其应用无处不在。为了保护电子地图的版权,地图服务提供商通常会在发布的电子地图或地图瓦片上打上透明或半透明的可视水印。尽管这些水印的添加模式多种多样,但在真实场景下其水印的抗攻击能力无法得到准确的衡量。因此,开展可视水印的去除研究有助于从攻防对抗的角度评价可视水印的有效性,进而提高电子地图可视水印的抗攻击研究水平[1]
一般情况下,电子地图上的可视水印通常包含细线、纹理和阴影等复杂的图形结构,且水印被嵌入到图像中的大小、位置和强度都是不确定的[2],导致地图上的水印在没有人工先验知识的情况下很难去除干净。目前传统的图像水印去除方法可分为2大类:单图像方案[3-5]和多图像方案[6-7]。单图像方案主要针对单张图像进行操作,可使用独立分量分析(ICA)方法将源图像与可视水印进行分离[3]或使用经典的图像修复方法来填充水印覆盖的图像区域[4];另外,Santoyo-Garcia等[5]还提出对水印图像进行分解,以便将水印区域与结构图像进行区分。然而,这些单图像方案仅能在单张图像上进行操作,需要人工提取可视水印的特征,且无法处理图像中较大的可视水印,在实际应用中存在很多的限制。多图像方案主要针对大量具有相同水印模式的图像进行批量水印去除。如 Dekel等[6]提出一种从批量图像中估计可视水印的轮廓和alpha遮罩方法,可以自动检测和去除图像中嵌入的水印。Xu等[7]利用图像修复技术进行可视水印自动去除。但这类多图像方案要求含水印的图像具有相同的可视水印模板,且每张图像需具有相似的水印大小、嵌入位置以及嵌入强度等要求。另外,图像的水印去除后会在水印区域造成不同程度的图像缺失[8]
随着深度学习在图像处理领域取得巨大的成功[9-11],一些学者开始利用深度学习方法进行可视水印去除研究,如Cheng等[12]使用U-Net网络实现图片上白色透明水印的去除,但仍有部分水印残留,效果难以令人满意[8]。受图像修复思想启发[13-16],部分学者将生成对抗网络(Generative Adversarial Networks,GAN)[17-19]引入到图像去水印的研究中,如Liu等[20]提出一个两阶段的水印分解网络,首先在第一阶段对水印进行分解提取,然后在第二阶段使用生成网络对提取的水印区域进行修复;Jiang等[21]同样将图像的水印去除分为水印提取和水印去除 2个部分。虽然基于GAN网络的可视水印去除能够较好的修复水印区域,但是人为的将去水印过程分为提取和去除2个阶段任务,不仅增加了工作量,而且需要更多的计算成本。因此,本文提出一种新的基于条件生成对抗网络(Conditional Generative Adversarial Networks,CGAN)的可视水印自动去除方法,该方法能实现端到端的水印去除,可提高模型训练效率,并通过改进损失函数,实现电子地图不同形状和颜色的可视水印自动去除,且能保持良好的要素细节。

2 基于CGAN的电子地图水印去除方法

本文提出的基于CGAN的电子地图可视水印去除方法的思路是:利用生成器生成无水印的电子地图,利用判别器区分输入的地图数据是来自于训练集的真实地图瓦片还是生成器生成的无水印地图瓦片,并将带水印的地图瓦片数据作为约束条件一起输入。通过生成器和判别器之间不断地对抗训练,双方的能力不断提升,直到生成器生成的无水印电子地图变得足够“以假乱真”为止,最终实现理想的去水印效果。

2.1 CGAN原理

CGAN是由Mehdi等[19]在GAN模型[17]的基础上提出,主要解决GAN生成的结果太过自由,生成较大的图片不可控,容易陷入局部最优和模型坍塌等问题[19]。为此,CGAN在生成器和判别器中分别引入条件变量,使用额外信息为模型增加约束,从而达到指导数据生成过程的目的。相比GAN模型,CGAN不易出现训练崩塌,更易达到全局最优[19]。CGAN的模型结构如图1所示。该模型由一个生成器和一个判别器组成。首先,将随机噪声z和条件y联合输入生成器,并通过生成器的卷积网络生成目标图像,其中y作为隐含表示,本文为带水印的地图瓦片,辅助并约束目标图像即无水印地图瓦片的生成;然后,将生成图像、真实图像x和条件y同时输入到判别器中,判别器输出一个标量来表示图像是真实图像或生成图像的可能性,值越接近1表示图片是真的可能性越高。在训练过程中交替训练生成器G和判别器D,其中G试图最小化目标函数,而D试图最大化目标函数,从而形成对抗训练。
图1 条件生成对抗网络结构

Fig. 1 Conditional generative adversarial network (CGAN) structure

2.2 基于CGAN的可视水印去除网络模型结构

本文提出的基于CGAN电子地图可视水印去除网络结构如图2所示。其中生成器网络采用 U-Net结构,它是一种具有对称跨层连接的编码器(Encoder)、解码器(Decoder)结构,包括特征编码和解码2个阶段。在特征编码阶段,原始输入的含水印地图数据逐层进行卷积和降采样,以获得具有较低空间分辨率的高级语义特征。在解码阶段,通过反卷积操作将底层特征逐层放大2倍,并通过跳跃连接获取同级编码特征进行拼接,一起上采样恢复至原始地图瓦片的尺度,从而使得生成的地图瓦片更接近于真实地图瓦片,并得到不含水印的地图。模型判别器采用基于区域判别的全卷积网络模型PatchGAN[18]根据L1损失、对抗损失和感知损失来对生成的地图瓦片进行真假判别。区域级Patch判别是指无论生成的地图瓦片有多大,均将其切分为多个N×N固定大小的Patch输入到判别器中去判断其是真或假,并将图像视为马尔可夫随机场,且不同Patch中的像素之间相互独立。其优点是:判别器的输入变小,计算量小,训练速度快,对图像大小没有限制[22]。在本实例中,Patch的大小N设置为70,以使得判别器拥有更少的参数和更快的运行速度,可以更好地对地图瓦片上的无水印和有水印部分进行区分。
图2 电子地图水印去除模型结构

Fig. 2 Model structure of electronic map watermarking removal

2.3 损失函数

本文改进的模型损失函数由条件生成对抗网络损失函数、L1范数和感知损失函数联合构成,其中,条件生成对抗网络的目标函数为:
L a d v ( G , D ) = E ( x , y ) l o g D ( x , y ) + E x l o g ( 1 - D ( x , G ( x ) )
式中:G表示生成器;D表示判别器;E表示期望;x表示含水印的电子地图瓦片;y表示原始不含水印的真实电子地图瓦片; G ( x )表示生成器生成的不含水印的电子地图瓦片; D ( x , y )表示在输入含水印电子地图瓦片x和对应的真实不含水印电子地图瓦片y时判断y为真的概率; D ( x , G ( x ) )表示在输入含水印电子地图瓦片x和对应的生成器所生成的无水印电子地图瓦片 G ( x )时判断 G ( x )为真的概率。
在训练过程中,判别器的目标是使所述目标函数最大,生成器的目标是使所述目标函数最小,则优化后的目标函数G*为:
G * = a r g m i n G m a x D L a d v ( G , D )
此外,为了防止生成的地图瓦片变得模糊,在目标函数中引入L1范数进行约束:
L l 1 ( G ) = G ( x ) - y 1
为了使生成器生成的无水印地图瓦片与真实的无水印地图瓦片更接近,在目标函数中引入感知损失(Perceptual Loss):
L p e r ϕ , j ( G ) = 1 C j H j W j ϕ j ( G ( x ) ) - ϕ j ( y ) 2 2
式中: ϕ表示已经提前训练好的VGG网络模型; j表示网络的第j层; C j H j W j表示第j层的特征图的大小; ϕ j ( y )表示对原始无水印真实地图瓦片第 j层提取得到的特征; ϕ j ( G ( x ) )表示对生成的无水印地图瓦片第j层提取得到的特征; 2表示2 范数。
因此,本文提出的模型最终联合优化目标函数为:
L t o t a l = a r g m i n G m a x D L a d v ( G , D ) + α L l 1 ( G ) + β L p e r ( G )
式中: α β分别是预设的L1范数和感知损失的加权系数。

3 实验与分析

3.1 数据集介绍

为了验证本文方法对地图水印的去除效果,本文构建了一个由文字、图像及二者组合的水印模式构成的3000张地图瓦片的数据集,每种水印模式的图片有500多张。其中,训练数据和测试数据按水印模式随机从地图瓦片数据集中抽取,二者数量之比为9:1。水印添加考虑到各种不同的位置、尺度大小、方向、重复方式等,水印内容包含常见在线电子地图如Google、百度、高德等可视logo。部分含水印的地图瓦片数据集示例如图3所示。
图3 嵌入不同水印模式的地图瓦片数据集示例

Fig. 3 Map tile dataset sample with various watermarks

3.2 模型训练

使用构建的训练数据集对本文提出的网络模型进行训练,并将损失函数稳定且最优时的参数作为最终的地图水印去除模型参数。具体训练过程如下:采用生成器和判别器交替训练策略。训练时,先固定生成器的网络模型参数,训练更新判别器的网络模型参数,使得所述对抗损失函数 L a d v ( G , D )最大化;然后再固定判别器的网络模型参数,训练更新生成器的网络模型参数,使得所述对抗损失函数 L a d v ( G , D )最小化。如此交替更新判别器D和生成器G的网络模型参数,直到判别器无法区分 G ( x ) y,其中,目标损失函数中的参数 α β预设置为10。此外,在对损失函数进行优化训 练时,采用Adam优化器进行梯度优化,其参数 α 1=0.5, β 1=0.999,初始学习率设为0.0002,通过联合优化目标损失函数来检测模型收敛进度,当模型收敛时,则停止训练。
对于生成器,除了编码器的第一个卷积层和解码器的最后一个反卷积层之外,每个层都采用了 Instance Normalization对特征图像的像素值进行归一化,有利于损失函数的快速收敛。编码器和解码器均采用非线性激活函数,并在解码器的前三层中引入了0.5的随机丢弃率减少优化的系数,可以在训练期间有效地防止过拟合。输入层输入经过处理的256×256×3的图片,卷积层尺寸为4×4,步长为2。在卷积层滑动中都进行全0填充,填充后,若步长为1,则滑动前后的图像尺寸不变,这样不仅可以保持卷积核的工作模式不变,而且还可以保持边界信息。在边界上进行0填充,可以使原图像的边界被多次扫描,增加图像边界信息的参考程度。
对于判别器,PatchGAN通过输入真实数据对或生成数据对来产生相应的输出,它有5个卷积层,其中前三层采用滑动步长为2,形状为4×4的卷积核,最后两层采用滑动步长为1,形状为4×4的卷积核,中间三层采用批标准化,前四层中的所有激活函数都是Leaky ReLU非线性激活函数,最后一层采用Sigmoid函数,以达到识别真假图像的目的。本文基于PyTorch平台进行模型的构建、训练及测试。

3.3 实验结果

图4展示了利用本文方法进行网络电子地图可视水印去除的实验结果,其中图4(a)—图4(d)分别为水域场景、城市街道场景、城市绿地场景、以及遥感影像场景的部分实验结果。各场景实验结果的第一行为带水印的输入数据,第二行为水印去除后的结果,图中不同颜色框部分为水印去除前后可视水印所在的区域位置。从实验结果可以看出,对于电子地图瓦片,无论其内嵌的水印是相对简单的文本水印还是结构复杂的彩色图像水印,亦或水印所嵌入的位置、大小、颜色及形状各不相同,本文方法都能够进行有效地去除,且水印去除之后的图中地理要素,如建筑物、道路、水体边界等,依旧保持较清晰的几何特征。即使对于难以处理的文字标注信息,在水印去除之后仍清晰可辨。同时,经水印去除重建后的地图要素没有失真,无水印残留,重建细节丰富,整体水印去除效果良好。另外,即使对于风格不同的遥感影像瓦片(图4(d)),通过利用遥感影像样本数据对本文模型进行训练后,同样能对遥感影像上不同模式的可视水印进行有效的去除。并且可以进行批量图像可视水印的自动去除,整个去水印过程无需人工干预。
图4 水印去除实验结果

Fig. 4 Watermark removal experimental results

3.4 对比分析

为了分析评价上文提及的条件对抗损失、Perceptual损失、L1损失对地图水印去除效果的影响,采用损失函数的均方误差MSE(Mean Squared Error)、图形评价指标峰值信噪比PSNR(Peak Signal to Noise Ratio)与结构差异性DSSIM(Structural Dissimilarity)指标来衡量去除水印后的地图瓦片与真实的地图瓦片之间的相似度。MSE数值越小、PSNR数值越大、DSSIM的数值越小,说明2个图像的相似程度越高,水印去除效果越好。
表1列出了本文所采用的几种目标损失函数的组合消融实验结果(相关损失函数见式(5))。其中,“L1+CGAN”和“Per+CGAN”表示网络模型仅单独使用L1损失或Perceptual损失与条件生成对抗网络模型损失的组合,而“L1+Per+CGAN”则表示网络模型同时使用L1损失、Perceptual损失和CGAN损失函数的组合。从去水印结果的评价指标值可以看出,采用“Per+CGAN”的组合在PSNR和DSSIM指标方面要比“L1+CGAN”的组合好,但3个指标值都不如“L1+Per+CGAN”的组合,这说明“L1+Per+CGAN”的组合能够增强生成图像的真实性。其原因主要是L1损失通过计算生成的地图瓦片与真实地图瓦片之间的一阶像素差值来控制全局的像素值差异,而Perceptual损失则是由生成地图瓦片与真实地图瓦片经判别器中VGG网络后的每一层的特征图之间二阶范式差值计算得到,该损失函数能够对提取的多层特征所代表的不同层次细节进行像素级损失比对,有利于加强生成地图瓦片的细节信息。
表1 使用不同损失函数的模型的指标评价结果

Tab. 1 Evaluation indicators of models using different loss functions

Loss MSE PSNR DSSIM
L1+CGAN 38.2092 33.5013 0.0185
Per+CGAN 45.7431 34.1378 0.0134
L1+Per+CGAN 33.1858 35.5405 0.0097
图5给出了使用不同损失函数组合的实验结果,其中第一列为含水印的地图瓦片,最后一列为对应的真实无水印地图瓦片,中间三列分别为采用不同损失函数组合的去水印结果。对比图中的水印去除效果可以看出,对于仅采用“L1+CGAN”损失或“Per+CGAN”损失的网络模型,去水印后的地图瓦片出现了图像模糊、要素边界不清晰、图像失真等情况,而采用“L1+Per+CGAN”损失函数的模型,去水印后所生成的地图瓦片与真实无水印地图瓦片十分接近。
图5 采用不同损失函数训练得到的模型去水印后的结果与真实无水印地图的对比

Fig. 5 Comparison of the watermark-free results obtained with models trained with different loss functions and the real watermark-free map

另外,为了进一步验证本文提出的水印去除方法的有效性与性能,与Cheng等[12]提出的基于深度学习的经典水印去除方法进行对比实验,结果如 图6所示。从中可以看出,采用本文方法能够生成更逼真、更清晰的复原图像,效果明显优于对比方法。同时,对比分析模型的训练时间可知,相较对比方法,本文模型训练时间缩减了近4倍,且在MSE、PSNR和DSSIM共3个评价指标方面,本文方法提升明显(表2)。
图6 水印去除的示例结果对比

Fig. 6 Comparison of example results of watermark removal

表2 使用不同方法在地图瓦片数据集上进行比较

Tab. 2 Compare different methods on map tile dataset

Method 耗时/(min/epoch) MSE PSNR DSSIM
Cheng等[12] 13.00 132.2290 17.8231 0.1719
本文方法 2.50 33.1858 35.5405 0.0097

4 结论

电子地图中的水印由于结构复杂,所嵌入的位置、大小和强度都不确定,给水印的去除带来了很大挑战。本文针对已有基于深度学习的可视水印去除方法存在训练样本量大、效率低、可视水印去除后有残留或要素丢失等问题,提出一种基于CGAN的电子地图可视水印去除方法。实验结果表明,本文方法具有水印去除效果好,不需要人工干预,能够在获取高质量无水印电子地图的同时保持地图要素的图形信息,且可以实现批量电子地图或地图瓦片的水印去除。本文主要工作如下:
(1)本文方法充分利用了条件生成对抗思想,以带水印的地图来辅助判别器判断生成的无水印地图和真实的无水印地图的真实性,最终训练生成器生成能“以假乱真”的无水印地图。
(2)在目标优化函数构建中,为了防止生成的地图瓦片变模糊,在现有生成对抗网络目标优化函数的基础上,加入了L1范数和感知损失函数,提高了生成无水印地图的峰值信噪比指标PSNR,并降低了其与真实无水印地图之间的均方误差MSE指标以及结构差异性DSSIM指标(表1),从而减少了生成器所生成的无水印地图与原始无水印地图之间的特征差异。
(3)本文所构建的判别器是基于区域判别的全卷积网络,相较于传统判别器,模型的训练速度提高了4倍,有效地提升了模型学习效率。
(4)本文方法具有良好的适应性,可实现Google、百度、高德等电子地图中所包含的不同文字、图像及二者组合的水印模式的logo可视水印的去除,且不用考虑水印所嵌入的方向、重复模式及透明度等因素(图4)。此外,本文方法也适用于遥感影像可视水印的去除。
当然,本文研究也存在一些不足,如训练的样本需要进行配对使用,额外增加了工作量;在进行遥感影像水印去除前,需要先利用遥感影像样本对数据对本文模型进行重新训练后才能使用。在后续的研究中可以考虑无需配对训练样本的地图水印去除方法,以及构建泛化性能更优的模型,从而减少模型训练的成本;同时还需进一步考虑地图要素的拓扑特征,以约束和细化水印去除后生成的地图效果。
[1]
Peng Y, Lan H, Yue M, et al. Multipurpose watermarking for vector map protection and authentication[J]. Multimedia Tools and Applications, 2018, 77(6):7239-7259. DOI:10.1007/s11042-017-4631-z

DOI

[2]
刘波. 基于深度学习的图像可见水印的检测及去除方法研究[D]. 哈尔滨: 哈尔滨工业大学, 2019.

[ Liu B. Research on detection and removal of image visible watermark based on deep learning[D]. Harbin:Harbin Institute of Technology, 2019. ]

[3]
Pei S, Zeng Y. A novel image recovery algorithm for visible watermarked images[J]. IEEE Transactions on Information Forensics and Security, 2006, 1(4):543-550. DOI:10.1109/TIFS.2006.885031

DOI

[4]
Huang C H, Wu J L. Attacking visible watermarking schemes[J]. IEEE Transactions on Multimedia, 2004, 6(1):16-30. DOI:10.1109/TMM.2003.819579

DOI

[5]
Santoyo-Garcia H, Fragoso-Navarro E, Reyes-Reyes R, et al. An automatic visible watermark detection method using total variation[C]. 2017 5th International Workshop on Biometrics and Forensics (IWBF), 2017:1-5. DOI:10.1109/IWBF.2017.7935109

DOI

[6]
Dekel T, Rubinstein M, Liu C, et al. On the effectiveness of visible watermarks[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017:2146- 2154. DOI:10.1109/CVPR.2017.726

DOI

[7]
Xu C, Lu Y, Zhou Y. An automatic visible watermark removal technique using image inpainting algorithms[C]. 2017 4th International Conference on Systems and Informatics (ICSAI), 2017:1152-1157. DOI:10.1109/ICSAI.2017.8248459

DOI

[8]
Radford A, Metz L, Chintala. S. Unsupervised representation learning with deep convolutional generative adversarial networks[J]. ArXiv Preprint ArXiv:1511.06434, 2015.

[9]
Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[J]. Communications of the ACM. 2017, 60(6):84-90. DOI:10.1145/3065386

DOI

[10]
He K, Gkioxari G, Dollar P, et al. Mask r-cnn[C]. Proceedings of the IEEE International Conference on Computer Vision, 2017:2961-2969.

[11]
Zhu J, Park T, Isola P, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[C]. Proceedings of the IEEE International Conference on Computer Vision, 2017:183-202.

[12]
Cheng D, Li X, Li W H, et al. Large-scale visible watermark detection and removal with deep convolutional networks[C]. Chinese Conference on Pattern Recognition and Computer Vision (PRCV), DOI: 2018:27-40. DOI:10.1007/978-3-030-03338-5_3

DOI

[13]
Xiong W, Yu J, Lin Z, et al. Foreground-aware image inpainting[C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019:5840-5848.

[14]
Zhang H, Hu Z, Luo C, et al. Semantic image inpainting with progressive generative networks[C]. Proceedings of the 26th ACM International Conference on Multimedia, 2018:1939- 1947. DOI:10.1145/3240508.3240625

DOI

[15]
Yu J, Lin Z, Yang J, et al. Generative image inpainting with contextual attention[C]. Proceedings of the IEEE conference on computer vision and pattern recognition, 2018:5505-5514. DOI:10.1109/CVPR.2018.00577

DOI

[16]
Nazeri K, Ng E, Joseph T, et al. Edgeconnect: Generative image inpainting with adversarial edge learning[J]. ArXiv preprint ArXiv:1901.00212, 2019.

[17]
Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial networks[J]. Communications of the ACM, 2020, 63(11):139-144.

DOI

[18]
Isola P, Zhu J Y, Zhou T, et al. Image-to-image translation with conditional adversarial networks[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017:1125-1134. DOI:10.1109/CVPR.2017.632

DOI

[19]
Mirza M, Osindero S. Conditional generative adversarial nets[J]. ArXiv preprint ArXiv:1411.1784, 2014.

[20]
Liu Y, Zhu Z, Bai X. Wdnet: Watermark-decomposition network for visible watermark removal[C]. Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision, 2021:3685-3693. DOI:10.1109/WACV48630.2021.00373

DOI

[21]
Jiang P, He S, Yu H, et al. Two‐stage visible watermark removal architecture based on deep learning[J]. IET Image Processing. 2020, 14(15):3819-3828. DOI:10.1049/iet-ipr.2020.0444

DOI

[22]
Li X, Lu C, Cheng D, et al. Towards photo-realistic visible watermark removal with conditional generative adversarial networks[C]. International Conference on Image and Graphics, 2019:345-356.

文章导航

/