女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

杜克大學(xué)的研究團(tuán)隊(duì)研發(fā)了一個(gè)AI圖像生成模型PULSE

倩倩 ? 來(lái)源:雷鋒網(wǎng) ? 2020-07-16 11:44 ? 次閱讀

近日,杜克大學(xué)的研究團(tuán)隊(duì)研發(fā)了一個(gè)AI圖像生成模型PULSE。PULSE可以在5秒鐘內(nèi)將低分辨率的人像轉(zhuǎn)換成清晰、逼真的人像。要指出的是,PULSE所做的工作并不是把輸入的低分辨率人像變成一張高分辨率的人像,而是“一對(duì)多”地輸出許多張面部細(xì)節(jié)各不相同的高分辨率人像。比如,用戶(hù)輸入一張16*16分辨率的圖像,PULSE可輸出一組1024*1024分辨率的圖像。

這項(xiàng)研究于本月在計(jì)算機(jī)視覺(jué)與模式識(shí)別頂會(huì)CVPR 2020上發(fā)表,論文標(biāo)題為《PULSE:通過(guò)對(duì)生成模型的潛在空間探索實(shí)現(xiàn)自監(jiān)督照片上采樣(PULSE:Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models)》。

論文鏈接:https://drive.google.com/file/d/1fV7FsmunjDuRrsn4KYf2Efwp0FNBtcR4/view

PULSE項(xiàng)目官網(wǎng):http://pulse.cs.duke.edu/

GitHub:https://github.com/adamian98/pulse

一、PULSE:能為天文學(xué)/醫(yī)學(xué)提供參考

在好萊塢間諜電影中,肩負(fù)拯救世界重任的特工常常采用高科技手段、把一張模糊的兇犯照片還原成清晰的人臉照片。現(xiàn)實(shí)中,許多研究人員致力于用AI技術(shù)使電影中的炫酷場(chǎng)景成真。但是,現(xiàn)有AI模型的性能普遍較差,生成的人臉圖像往往與照片主人公的真實(shí)長(zhǎng)相并不相似。

杜克大學(xué)計(jì)算機(jī)科學(xué)專(zhuān)業(yè)教授Cynthia Rudin指出,這是因?yàn)榈拖袼貓D像中的信息較少,AI模型無(wú)法準(zhǔn)確地“補(bǔ)足”缺失信息、進(jìn)而還原出清晰人臉圖像。因此,用AI技術(shù)對(duì)模糊人像進(jìn)行面部識(shí)別十分困難。

Rudin團(tuán)隊(duì)認(rèn)為,雖然不能用于模糊人像的面部識(shí)別,但是這類(lèi)AI模型可以作為一種分類(lèi)和探索工具,用于天文學(xué)、醫(yī)學(xué)等難以獲得清晰圖像的領(lǐng)域。也就是說(shuō),基于模糊圖像中缺失信息的各種可能性,AI模型可以生成許多清晰的圖像,生成的多種圖像可以為天文學(xué)、醫(yī)學(xué)等領(lǐng)域研究人員提供參考。

基于這種設(shè)想,杜克大學(xué)研究人員研發(fā)了基于生成式對(duì)抗網(wǎng)絡(luò)(GAN)的圖像超分辨率模型PULSE。PULSE模型基于NVIDIA的StyleGAN算法進(jìn)行開(kāi)發(fā)。

二、降尺度損失方法:用生成圖像“倒推”模糊圖,相似才能輸出

為了保證輸出圖像與輸入圖像的“對(duì)應(yīng)性”,研究人員在PULSE模型中應(yīng)用了一種“降尺度損失(downscaling loss)”方法。

當(dāng)PULSE模型的生成網(wǎng)絡(luò)提議以一張清晰圖像作為輸出時(shí),判別網(wǎng)絡(luò)會(huì)把這張清晰圖像的分辨率降低到與輸入圖像相等的水平。然后,判別網(wǎng)絡(luò)會(huì)對(duì)比降尺度損失圖像與輸入圖像之間的相似性。

只有在降尺度損失圖像與輸入圖像相似性較高時(shí),判別網(wǎng)絡(luò)才會(huì)判定生成網(wǎng)絡(luò)提議的清晰圖片可以作為輸出。

▲基于同一張模糊的圖像,PULSE可以生成面部細(xì)節(jié)不同的清晰圖像

三、40位評(píng)估者參與打分,PULSE模型MOS得分最高

研究人員用高分辨人臉數(shù)據(jù)集CelebA HQ評(píng)估PULSE的性能。為了進(jìn)行對(duì)比,研究人員利用CelebA HQ數(shù)據(jù)集訓(xùn)練了監(jiān)督模型BICBIC、FSRNET和FSRGAN。

所有模型均以16*16分辨率的圖像作為輸入,BICBIC、FSRNET和FSRGAN模型以128*128分辨率圖像作為輸出,PULSE模型以128*128分辨率圖像和1024*1024分辨率圖像作為輸出。

評(píng)估結(jié)果顯示,圖像質(zhì)量方面,PULSE模型在生成眼睛、嘴唇等圖像細(xì)節(jié)方面的能力優(yōu)于其他模型。

▲PULSE生成圖像的嘴唇、眼睛更加清晰

接下來(lái),研究人員用平均意見(jiàn)分?jǐn)?shù)(MOS)測(cè)試來(lái)定量評(píng)估模型的分辨率。研究人員應(yīng)用6個(gè)模型生成128*128分辨率的圖像,邀請(qǐng)40位評(píng)估者對(duì)6個(gè)模型的輸出結(jié)果進(jìn)行打分。

用于對(duì)比的模型分別是:HR、Nearest、Bicubic、FSRNet、FSRGAN。

結(jié)果顯示,PULSE的MOS分?jǐn)?shù)最高,為3.60,即評(píng)估者認(rèn)為PULSE模型生成的圖像分辨率最高。

結(jié)語(yǔ):代碼已在GitHub開(kāi)源,用戶(hù)擔(dān)憂種族偏見(jiàn)

本項(xiàng)研究中,杜克大學(xué)研發(fā)的PULSE模型能夠基于一張模糊的人像,生成多張面部細(xì)節(jié)不同的清晰人像,為使用者提供一個(gè)可能的參考范圍。目前,研究團(tuán)隊(duì)已將模型代碼在GitHub開(kāi)源,鼓勵(lì)其他開(kāi)發(fā)者進(jìn)行實(shí)驗(yàn)。

研究人員稱(chēng),在未來(lái),PULSE或可被用于天文學(xué)、醫(yī)學(xué)等領(lǐng)域。比如,一位天文學(xué)研究人員可以輸入一張模糊的黑洞圖像,并獲得許多可能的天體照片。

同時(shí),也有人對(duì)PULSE的種族偏見(jiàn)問(wèn)題表示擔(dān)憂。有Twitter用戶(hù)爆料稱(chēng),其在PULSE模型中輸入深膚色種族(比如奧巴馬的照片)的人臉照片后,PULSE輸出了白人的照片。研究人員稱(chēng),目前他們正嘗試通過(guò)引入更廣泛的數(shù)據(jù)集解決這一問(wèn)題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1092

    瀏覽量

    41026
  • 面部識(shí)別
    +關(guān)注

    關(guān)注

    1

    文章

    375

    瀏覽量

    27072
  • ai技術(shù)
    +關(guān)注

    關(guān)注

    1

    文章

    1307

    瀏覽量

    25002
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    利用NVIDIA 3D引導(dǎo)生成AI Blueprint控制圖像生成

    AI 賦能的圖像生成技術(shù)突飛猛進(jìn),從早期模型會(huì)生成手指過(guò)多的人類(lèi)圖像,到現(xiàn)在能創(chuàng)造出令人驚嘆的逼
    的頭像 發(fā)表于 06-05 09:24 ?162次閱讀

    文詳解視覺(jué)語(yǔ)言模型

    視覺(jué)語(yǔ)言模型(VLM)是種多模態(tài)、生成AI 模型,能夠理解和處理視頻、圖像和文本。
    的頭像 發(fā)表于 02-12 11:13 ?1493次閱讀
    <b class='flag-5'>一</b>文詳解視覺(jué)語(yǔ)言<b class='flag-5'>模型</b>

    字節(jié)豆包大模型團(tuán)隊(duì)成立AGI長(zhǎng)期研究團(tuán)隊(duì)Seed Edge

     據(jù)1月24日的報(bào)道,字節(jié)跳動(dòng)旗下的豆包大模型團(tuán)隊(duì)已悄然組建了個(gè)專(zhuān)注于通用人工智能(AGI)的長(zhǎng)期研究
    的頭像 發(fā)表于 01-24 15:03 ?1514次閱讀

    兩大AI模型性能提升 登上國(guó)際榜單

    近日,由盛大AI團(tuán)隊(duì)研發(fā)模型Watt-tool-70B和Newsbang/homer-72B,登上國(guó)際知名AI排行榜榜首。其中,Watt-
    的頭像 發(fā)表于 01-16 12:01 ?786次閱讀
    兩大<b class='flag-5'>AI</b><b class='flag-5'>模型</b>性能提升 登上國(guó)際榜單

    胡瀚接棒騰訊多模態(tài)大模型研發(fā)

    騰訊的杰出科學(xué)家和混元大模型技術(shù)團(tuán)隊(duì)的核心成員,曾在推動(dòng)騰訊在人工智能領(lǐng)域的發(fā)展中發(fā)揮了重要作用。然而,去年11月,有消息稱(chēng)劉威已從騰訊離職,這消息引發(fā)了業(yè)界對(duì)于騰訊
    的頭像 發(fā)表于 01-09 15:49 ?651次閱讀

    借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

    在快速發(fā)展的生成AI 領(lǐng)域,結(jié)合不同模型的優(yōu)勢(shì)可以帶來(lái)顯著的成果。通過(guò)利用谷歌的 Gemini 模型來(lái)制作詳細(xì)且富有創(chuàng)意的提示,然后使用 Imagen 3
    的頭像 發(fā)表于 01-03 10:38 ?807次閱讀
    借助谷歌Gemini和Imagen<b class='flag-5'>模型</b><b class='flag-5'>生成</b>高質(zhì)量<b class='flag-5'>圖像</b>

    Google兩款先進(jìn)生成AI模型登陸Vertex AI平臺(tái)

    新的 AI 模型,包括最先進(jìn)的視頻生成模型Veo以及最高品質(zhì)的圖像生成
    的頭像 發(fā)表于 12-30 09:56 ?527次閱讀

    NVIDIA推出全新生成AI模型Fugatto

    NVIDIA 開(kāi)發(fā)了個(gè)全新的生成AI 模型。利用輸入的文本和音頻,該
    的頭像 發(fā)表于 11-27 11:29 ?740次閱讀

    AI模型的訓(xùn)練數(shù)據(jù)來(lái)源分析

    學(xué)術(shù)機(jī)構(gòu)、政府組織或企業(yè)公開(kāi)發(fā)布,涵蓋了各種類(lèi)型的數(shù)據(jù),如圖像、文本、音頻、視頻等。例如: ImageNet :個(gè)廣泛用于圖像識(shí)別任務(wù)的大規(guī)模圖像
    的頭像 發(fā)表于 10-23 15:32 ?3158次閱讀

    AI模型的最新研究進(jìn)展

    AI模型的最新研究進(jìn)展體現(xiàn)在多個(gè)方面,以下是對(duì)其最新進(jìn)展的介紹: 、技術(shù)創(chuàng)新與突破 生成AI
    的頭像 發(fā)表于 10-23 15:19 ?1255次閱讀

    Freepik攜手Magnific AI推出AI圖像生成

    近日,設(shè)計(jì)資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這里程碑式的
    的頭像 發(fā)表于 08-30 16:23 ?1484次閱讀

    Meta發(fā)布Imagine Yourself AI模型,重塑個(gè)性化圖像生成未來(lái)

    Meta公司近日在人工智能領(lǐng)域邁出了重要步,隆重推出了其創(chuàng)新之作——“Imagine Yourself”AI模型,這突破性技術(shù)為個(gè)性化圖像
    的頭像 發(fā)表于 08-26 10:59 ?922次閱讀

    如何用C++創(chuàng)建簡(jiǎn)單的生成AI模型

    生成AI(Generative AI)是種人工智能技術(shù),它通過(guò)機(jī)器學(xué)習(xí)模型和深度學(xué)習(xí)技術(shù),從大量歷史數(shù)據(jù)中學(xué)習(xí)對(duì)象的特征和規(guī)律,從而能夠
    的頭像 發(fā)表于 07-05 17:53 ?1580次閱讀

    日本九州大學(xué)開(kāi)發(fā)了名為QDyeFinder的人工智能(AI)工具

    在探索大腦這宇宙中最復(fù)雜結(jié)構(gòu)的征途中,科學(xué)家們不斷突破技術(shù)的邊界,以更精細(xì)、更高效的方式揭示其奧秘。近期,日本九州大學(xué)研究團(tuán)隊(duì)在《自然·通訊》雜志上發(fā)表了
    的頭像 發(fā)表于 07-03 14:43 ?803次閱讀

    生成AI與神經(jīng)網(wǎng)絡(luò)模型的區(qū)別和聯(lián)系

    生成AI與神經(jīng)網(wǎng)絡(luò)模型是現(xiàn)代人工智能領(lǐng)域的兩個(gè)核心概念,它們?cè)谕苿?dòng)技術(shù)進(jìn)步和應(yīng)用拓展方面發(fā)揮著至關(guān)重要的作用。本文將詳細(xì)探討生成
    的頭像 發(fā)表于 07-02 15:03 ?1536次閱讀