女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

生成對(duì)抗網(wǎng)絡(luò) vs 圖像水印,去除效果理想

WpOh_rgznai100 ? 來源:YXQ ? 2019-06-26 14:01 ? 次閱讀

當(dāng)前互聯(lián)網(wǎng)飛速發(fā)展,越來越多的公司、組織和個(gè)人都選擇在網(wǎng)上展示和分享圖像。為了保護(hù)圖像版權(quán),大家都會(huì)選擇在圖像上打上透明或者半透明的水印。隨著水印被廣泛地使用,針對(duì)水印的各種處理技術(shù)也在不斷發(fā)展,如何有效去除圖像上的水印引發(fā)了越來越多人的研究興趣。

今天的文章中,我們會(huì)介紹一種更為強(qiáng)大的水印去除器。這次我們借助生成對(duì)抗網(wǎng)絡(luò)來實(shí)現(xiàn),進(jìn)一步提升水印去除器的性能,從而達(dá)到更為理想的去除效果。

生成對(duì)抗網(wǎng)絡(luò)的前世今生

生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN),是由Ian Goodfellow等人在2014年首次提出。一般來說,生成對(duì)抗網(wǎng)絡(luò)由兩部分組成:生成器(Generator)和判別器(Discriminator)。生成器通過接收輸入數(shù)據(jù),學(xué)習(xí)訓(xùn)練數(shù)據(jù)的分布來生成目標(biāo)數(shù)據(jù)。判別器通常是一個(gè)二分類模型,用來判別生成器生成數(shù)據(jù)的真假性。

我們可以將生成器和判別器看作互相對(duì)抗的雙方,生成器的目的是令生成的數(shù)據(jù)盡可能的真實(shí),讓判別器無法區(qū)分真假;而判別器的目的是盡可能地識(shí)別出生成器生成的數(shù)據(jù)。在生成對(duì)抗網(wǎng)絡(luò)的訓(xùn)練過程中,上面的對(duì)抗場(chǎng)景會(huì)持續(xù)進(jìn)行,生成器和判別器的能力都得到了不斷提升。訓(xùn)練的過程可以用如下公式表示:

其中G和D分別表示生成器和判別器,x為真實(shí)數(shù)據(jù),z是生成器的輸入數(shù)據(jù)。最后訓(xùn)練結(jié)束我們就可以使用生成器來生成以假亂真的數(shù)據(jù)。一個(gè)直觀的生成對(duì)抗網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示。

生成對(duì)抗網(wǎng)絡(luò)近些年被大量應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域,根據(jù)具體應(yīng)用不同可以分為圖像生成和圖像轉(zhuǎn)換兩種類型的任務(wù)。圖像生成可以看成是一種學(xué)后聯(lián)想任務(wù),其中的代表是圖像自動(dòng)生成模型(DCGAN),網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示。這類任務(wù)只給出我們希望生成的目標(biāo)圖像,此時(shí)生成器的輸入是服從某一分布的噪聲,通過和判別器的對(duì)抗訓(xùn)練,將其轉(zhuǎn)換成目標(biāo)圖像的數(shù)據(jù)分布。

圖像轉(zhuǎn)換可以看成是一種目標(biāo)引導(dǎo)任務(wù),其中的代表是圖像超分辨率模型(SRGAN),SRGAN的網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示。這類任務(wù)除了給出我們希望生成的目標(biāo)圖像外,還會(huì)給出轉(zhuǎn)換前的原始圖像,此時(shí)生成器的輸入變?yōu)樵紙D像,生成器在和判別器的對(duì)抗訓(xùn)練過程中還要同時(shí)保證生成的圖像和目標(biāo)圖像盡可能的相近。

生成對(duì)抗網(wǎng)絡(luò)的發(fā)展非常迅速,近些年出現(xiàn)了各式各樣GAN的變種,例如在訓(xùn)練上優(yōu)化的WGAN和LSGAN,通過對(duì)輸入添加條件限制來引導(dǎo)學(xué)習(xí)過程的Conditional GAN,圖像生成任務(wù)中的BigGAN和StyleGAN,圖像轉(zhuǎn)換任務(wù)中的Pixel2Pixel和CycleGAN等等。期待未來生成對(duì)抗網(wǎng)絡(luò)在計(jì)算機(jī)視覺領(lǐng)域給我們帶來更多的驚喜。

生成對(duì)抗網(wǎng)絡(luò)vs圖像水印

上一節(jié)中我們介紹了生成對(duì)抗網(wǎng)絡(luò)的核心思想和一些應(yīng)用,現(xiàn)在我們嘗試將生成對(duì)抗網(wǎng)絡(luò)用于圖像的水印去除。去水印的目的是將帶水印的圖像轉(zhuǎn)變?yōu)闊o水印的圖像,這本質(zhì)上也是一種圖像轉(zhuǎn)換任務(wù)。

因此生成器的輸入為帶水印的圖像,輸出為無水印的圖像;而判別器用于識(shí)別結(jié)果到底是原始真實(shí)的無水印圖像,還是經(jīng)過生成器生成的無水印圖像。通過兩者之間不斷的對(duì)抗訓(xùn)練,生成器生成的無水印圖像變得足夠“以假亂真”,從而達(dá)到理想的去水印效果。

在實(shí)際的實(shí)踐過程中,我們還做了一系列優(yōu)化改進(jìn)。下面我們分別介紹生成器和判別器的具體結(jié)構(gòu)以及訓(xùn)練細(xì)節(jié)。在生成器的選擇上,我們繼續(xù)使用U-net網(wǎng)絡(luò)結(jié)構(gòu),U-net通過在輸入和輸出之間添加跳躍連接,融合了低層級(jí)特征和高層級(jí)特征。與直接的編解碼器結(jié)構(gòu)相比,能夠保留更多的圖像背景信息,保證去除水印后的圖像的真實(shí)性。

在判別器方面,我們使用了基于區(qū)域判別的全卷積網(wǎng)絡(luò)。與傳統(tǒng)的判別器直接輸出整張圖像的真假結(jié)果不同,我們通過對(duì)圖像區(qū)域級(jí)別的判別,可以更好地對(duì)圖像上的無水印和有水印部分進(jìn)行區(qū)分。

此外,我們采用了Conditional GAN的思想,判別器在對(duì)原始真實(shí)的無水印圖像和生成器生成的無水印圖像進(jìn)行區(qū)分的時(shí)候會(huì)加入帶水印圖像的條件信息,從而進(jìn)一步提升生成器和判別器的學(xué)習(xí)性能。生成器和判別器的具體結(jié)構(gòu)和細(xì)節(jié)如下圖所示。

生成器生成的無水印圖像除了要令判別器分辨不了真假之外,還需要保證和真實(shí)的無水印圖像盡可能接近。為此我們組合一范數(shù)損失(L1 Loss)和感知損失(Perceptual Loss)作為內(nèi)容損失,在生成器和判別器對(duì)抗的過程中加入訓(xùn)練。最終的損失函數(shù)為

其中的條件對(duì)抗損失為

最終我們使用生成器作為水印去除器實(shí)現(xiàn)圖像上的水印去除。為了對(duì)比和單一全卷積網(wǎng)絡(luò)實(shí)現(xiàn)的水印去除器的效果,我們可視化了一些去水印結(jié)果,左列是輸入的水印區(qū)域,中間列是單一全卷積網(wǎng)絡(luò)得到的無水印區(qū)域,右列是生成對(duì)抗網(wǎng)絡(luò)得到的無水印區(qū)域。從可視化的結(jié)果可以看出,經(jīng)過對(duì)抗訓(xùn)練后的生成器對(duì)水印的去除效果更優(yōu)。

寫在最后

圖像水印去除問題吸引了越來越多人的研究興趣,本篇文章介紹了如何利用生成對(duì)抗網(wǎng)絡(luò)來實(shí)現(xiàn)水印自動(dòng)去除。去水印研究的目的是為了驗(yàn)證水印的魯棒性,更好地提升水印的反去除能力。如何設(shè)計(jì)一種AI去不掉的水印是一個(gè)極具挑戰(zhàn)的問題,接下來我們會(huì)在這方面做一些嘗試,希望能夠?yàn)榘鏅?quán)保護(hù)盡一份力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 水印
    +關(guān)注

    關(guān)注

    0

    文章

    26

    瀏覽量

    11716
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    2174

    瀏覽量

    76138

原文標(biāo)題:基于GAN的圖像水印去除器,效果堪比PS高手

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何使用離線工具od SPSDK生成完整圖像

    SDSDK)會(huì)生成一個(gè)缺少前 4KB 的文件。 這些將由 flashloader 直接在目標(biāo)上填充,使用將要傳達(dá)給它的參數(shù),對(duì)吧? 我需要離線工作。我需要生成一個(gè) “完整圖像”,但無法訪問目標(biāo)。 我該怎么做?
    發(fā)表于 03-28 06:51

    使用OpenVINO GenAI和LoRA適配器進(jìn)行圖像生成

    借助生成式 AI 模型(如 Stable Diffusion 和 FLUX.1),用戶可以將平平無奇的文本提示詞轉(zhuǎn)換為令人驚艷的視覺效果
    的頭像 發(fā)表于 03-12 13:49 ?614次閱讀
    使用OpenVINO GenAI和LoRA適配器進(jìn)行<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>

    #新年新氣象,大家新年快樂!#AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內(nèi)容。它利用人工智能技術(shù)自動(dòng)生成或輔助生成文本、圖像、音頻、視頻等內(nèi)容。 AIGC的核心技術(shù)包括自然語言處理(NLP)、計(jì)算機(jī)視覺、
    發(fā)表于 01-13 10:46

    AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內(nèi)容。它利用人工智能技術(shù)自動(dòng)生成或輔助生成文本、圖像、音頻、視頻等內(nèi)容。 AIGC的核心技術(shù)包括自然語言處理(NLP)、計(jì)算機(jī)視覺、
    發(fā)表于 01-13 10:32

    借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

    以獲得卓越的視覺效果。這個(gè)過程并不止于此;一旦圖像生成,Imagen 2 可以進(jìn)一步優(yōu)化以滿足特定需求,從而創(chuàng)建一個(gè)強(qiáng)大的工作流程,用于制作頂級(jí)視覺內(nèi)容。
    的頭像 發(fā)表于 01-03 10:38 ?801次閱讀
    借助谷歌Gemini和Imagen模型<b class='flag-5'>生成</b>高質(zhì)量<b class='flag-5'>圖像</b>

    用TMS2812控制ADS1298進(jìn)行肌電采集,將相同的程序燒寫到flash中后再進(jìn)行采集時(shí)效果理想,為什么?

    我用TMS2812控制ADS1298進(jìn)行肌電采集,連接仿真器下采集的肌電信號(hào)較好,但如果將相同的程序燒寫到flash中后再進(jìn)行采集時(shí),效果就不怎么理想,想知道是為什么會(huì),仿真器和燒寫下的采集圖像見附件,請(qǐng)大神幫忙解答,萬分感謝
    發(fā)表于 01-03 07:34

    Freepik攜手Magnific AI推出AI圖像生成

    近日,設(shè)計(jì)資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這一里程碑式的發(fā)布標(biāo)志著AI圖像創(chuàng)作領(lǐng)域邁入了一個(gè)全新的高度
    的頭像 發(fā)表于 08-30 16:23 ?1477次閱讀

    請(qǐng)問LM311能準(zhǔn)確的交截生成對(duì)應(yīng)的PWM波形嗎?

    UC3825, TLV3501輸入正是100k的正弦波 輸入負(fù)是100kHz的鋸齒波 二者交截生成PWM波形 請(qǐng)問LM311能準(zhǔn)確的交截生成對(duì)應(yīng)的PWM波形嗎 之前使用UC3525里面自帶的比較器做的,LM311能達(dá)到這樣的速度嗎
    發(fā)表于 08-06 07:46

    OpenAI承認(rèn)正研發(fā)ChatGPT文本水印

    的識(shí)別效果并不理想。而且因?yàn)槎嘀仡檻]OpenAI尚未正式發(fā)布這項(xiàng)工具。 據(jù)悉,OpenAI的這個(gè)識(shí)別工具本質(zhì)上是在文字中創(chuàng)建一個(gè)不可見的水印;但是只專注于檢測(cè)來自 ChatGPT生成
    的頭像 發(fā)表于 08-05 15:56 ?1195次閱讀

    如何在Tensorflow中實(shí)現(xiàn)反卷積

    在TensorFlow中實(shí)現(xiàn)反卷積(也稱為轉(zhuǎn)置卷積或分?jǐn)?shù)步長卷積)是一個(gè)涉及多個(gè)概念和步驟的過程。反卷積在深度學(xué)習(xí)領(lǐng)域,特別是在圖像分割、圖像超分辨率、以及生成模型(如生成對(duì)抗
    的頭像 發(fā)表于 07-14 10:46 ?1012次閱讀

    生成對(duì)抗網(wǎng)絡(luò)(GANs)的原理與應(yīng)用案例

    生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks,GANs)是一種由蒙特利爾大學(xué)的Ian Goodfellow等人在2014年提出的深度學(xué)習(xí)算法。GANs通過構(gòu)建兩個(gè)
    的頭像 發(fā)表于 07-09 11:34 ?2085次閱讀

    人工神經(jīng)網(wǎng)絡(luò)模型的分類有哪些

    詳細(xì)介紹人工神經(jīng)網(wǎng)絡(luò)的分類,包括前饋神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、深度神經(jīng)網(wǎng)絡(luò)生成對(duì)抗
    的頭像 發(fā)表于 07-05 09:13 ?2116次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)圖像識(shí)別中的應(yīng)用

    卷積操作 卷積神經(jīng)網(wǎng)絡(luò)的核心是卷積操作。卷積操作是一種數(shù)學(xué)運(yùn)算,用于提取圖像中的局部特征。在圖像識(shí)別中,卷積操作通過滑動(dòng)窗口(或稱為濾波器、卷積核)在輸入圖像上進(jìn)行掃描,計(jì)算窗口內(nèi)像
    的頭像 發(fā)表于 07-02 14:28 ?1813次閱讀

    神經(jīng)網(wǎng)絡(luò)架構(gòu)有哪些

    識(shí)別、語音識(shí)別、自然語言處理等多個(gè)領(lǐng)域。本文將對(duì)幾種主要的神經(jīng)網(wǎng)絡(luò)架構(gòu)進(jìn)行詳細(xì)介紹,包括前饋神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)生成對(duì)抗
    的頭像 發(fā)表于 07-01 14:16 ?1378次閱讀

    鴻蒙ArkTS聲明式開發(fā):跨平臺(tái)支持列表【圖像效果】 通用屬性

    設(shè)置組件的模糊、陰影、球面效果以及設(shè)置圖片的圖像效果
    的頭像 發(fā)表于 06-04 16:34 ?1057次閱讀
    鴻蒙ArkTS聲明式開發(fā):跨平臺(tái)支持列表【<b class='flag-5'>圖像</b><b class='flag-5'>效果</b>】 通用屬性