欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2023106265679
申请人: 齐鲁工业大学(山东省科学院)
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.深度学习增强数字水印不可感知性方法,其特征在于,包括以下步骤:S1:水印图像预处理,得到提升不可感知性图像;

选择一款具有强鲁棒性、高不可感知性的水印算法作为提高水印视觉质量的实验对象;

S2:将生成的提升不可感知性图像和原始图像,输入卷积神经网络,利用损失函数提高水印图像的鲁棒盲水印不可感知性;

S3:利用网络结构提高水印图像的鲁棒盲水印不可感知性;

S31:结合U‑Net、GAN及VAE三者构造了生成器;

S32:构成判别器;

所述S1的具体流程为:

S11:对水印容量进行非正常的提高,使含水印图像的鲁棒性得到极大提高;

S12:破坏水印算法鲁棒性和不可感知性之间的平衡,得到提升不可感知性图像;

所述S2的具体流程为:

S21:将生成的提升不可感知性图像和原始图像都输入一个已训练好的卷积神经网络,并比较这两个图像在其中每一个卷积层输出的特征图上的差异,从而得到一个反应两张图像相似度的指标;

S22:将感知损失用于鲁棒盲水印不可感知性提高,损失函数如下:                  (1)

其中: 为逐像素的MSE损失函数;

为使用预训练的VGG16模型构成的感知损失;

是用于计算图像的总变分损失;

计算了正确标签和模型输出之间的差异;

S23:使用了torch.mean()函数对每个样本的对抗损失进行求平均;

S24:最终返回了整个训练当中的对抗损失。

2.根据权利要求1所述的深度学习增强数字水印不可感知性方法,其特征在于:所述S31的具体流程为:S311:U‑Net网络结构为一个自编码器,由 Encoder 和 Decoder 组成,Encoder 用于将输入图像压缩成一个较小的特征向量Code,Decoder 用于根据 Code 生成对应的输出图像,U‑Net 的特殊之处在于,将 Encoder 产生的特征图与 Decoder 针对同样分辨率的特征图进行拼接,能够在 Decoder 中更好地恢复细节信息;

S312:VAE网络结构为一个变分自编码器,由 Encoder 和 Decoder 组成,Encoder 用于将输入图像压缩成一个较小的特征向量Code,Decoder 用于根据 Code 生成对应的输出图像,Mu (μ) 是VAE的 Encoder 中产生的 Code 的均值,用符号 μ 表示,Encoder 会同时产生 Code 的均值Mu和方差LogVar,通过这些参数进行重参数化Reparameterize,从而得到最终的 Code。

3.根据权利要求2所述的深度学习增强数字水印不可感知性方法,其特征在于:所述判别器包括二维卷积层Conv2d ,二维转置卷积层ConvTranspose2d,全连接层Linear,修正线性单元激活函数ReLU, 多维数据展平成一维向量Flatten。