女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌研究人員利用3D卷積網(wǎng)絡(luò)打造視頻生成新系統(tǒng)

DPVg_AI_era ? 來源:lq ? 2019-06-02 09:30 ? 次閱讀

谷歌研究人員利用3D卷積網(wǎng)絡(luò)打造視頻生成新系統(tǒng),只需要視頻的第一幀和最后一幀,就能生成完整合理的整段視頻,是不是很神奇?

漫畫書秒變動畫片了解一下?

想象一下,現(xiàn)在你的手中有一段視頻的第一幀和最后一幀圖像,讓你負(fù)責(zé)把中間的圖像填進(jìn)去,生成完整的視頻,從現(xiàn)有的有限信息中推斷出整個視頻。你能做到嗎?

這可能聽起來像是一項不可能完成的任務(wù),但谷歌人工智能研究部門的研究人員已經(jīng)開發(fā)出一種新系統(tǒng),可以由視頻第一幀和最后一幀生成“似是而非的”視頻序列,這個過程被稱為“inbetween”。

“想象一下,如果我們能夠教一個智能系統(tǒng)來將漫畫自動變成動畫,會是什么樣子?如果真實現(xiàn)了這一點,無疑將徹底改變動畫產(chǎn)業(yè)。“該論文的共同作者寫道。“雖然這種極其節(jié)省勞動力的能力仍然超出目前最先進(jìn)的水平,但計算機(jī)視覺機(jī)器學(xué)習(xí)技術(shù)的進(jìn)步正在使這個目標(biāo)的實現(xiàn)越來越接近?!?/p>

原理與模型結(jié)構(gòu)

這套AI系統(tǒng)包括一個完全卷積模型,這是是受動物視覺皮層啟發(fā)打造的深度神經(jīng)網(wǎng)絡(luò),最常用于分析視覺圖像。它由三個部分組成:2D卷積圖像解碼器,3D卷積潛在表示生成器,以及視頻生成器。

圖1:視頻生成模型示意圖

圖像解碼器將來自目標(biāo)視頻的幀映射到潛在空間,潛在表示生成器學(xué)習(xí)對包含在輸入幀中的信息進(jìn)行合并。最后,視頻生成器將潛在表示解碼為視頻中的幀。

研究人員表示,將潛在表示生成與視頻解碼分離對于成功實現(xiàn)中間視頻至關(guān)重要,直接用開始幀和結(jié)束幀的編碼表示生成視頻的結(jié)果很差。為了解決這個問題,研究人員設(shè)計了潛在表示生成器,對幀的表示進(jìn)行融合,并逐步增加生成視頻的分辨率。

圖2:模型生成的視頻幀序列圖,對于每個數(shù)據(jù)集上方的圖表示模型生成的序列,下方為原視頻,其中首幀和尾幀用于生成模型的采樣。

實驗結(jié)果

為了驗證該方法,研究人員從三個數(shù)據(jù)集中獲取視頻 - BAIR機(jī)器人推送,KTH動作數(shù)據(jù)庫和UCF101動作識別數(shù)據(jù)集 - 并將這些數(shù)據(jù)下采樣至64 x 64像素的分辨率。每個樣本總共包含16幀,其中的14幀由AI系統(tǒng)負(fù)責(zé)生成。

研究人員為每對視頻幀運(yùn)行100次模型,并對每個模型變量和數(shù)據(jù)集重復(fù)10次,在英偉達(dá)Tesla V100顯卡平臺上的訓(xùn)練時間約為5天。結(jié)果如下表所示:

表1:我們報告了完整模型和兩個基線的平均FVD,對每個模型和數(shù)據(jù)集重復(fù)10次,每次運(yùn)行100個epoch,表中FVD值越低,表示對應(yīng)生成視頻的質(zhì)量越高。

表2:使用直接3D卷積和基于的替代方法的模型的平均SSIM

RNN(SDVI)或光流(SepConv和SuperSloMo),數(shù)值越高越好。

研究人員表示,AI生成的視頻幀序列在風(fēng)格上與給定的起始幀和結(jié)束幀保持一致,而且看上去說得通?!傲钊梭@喜的是,這種方法可以在如此長的時間段內(nèi)實現(xiàn)視頻生成,”該團(tuán)隊表示,“這可能給未來的視頻生成技術(shù)研究提供了一個有用的替代視角?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1163

    瀏覽量

    41699
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6223

    瀏覽量

    107524
  • 智能系統(tǒng)
    +關(guān)注

    關(guān)注

    2

    文章

    406

    瀏覽量

    73125

原文標(biāo)題:谷歌AI動畫接龍:只用頭尾兩幀圖像,片刻生成完整視頻!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    阿里云通義萬相2.1視頻生成模型震撼發(fā)布

    近日,阿里云旗下的通義萬相迎來了重要升級,正式推出了全新的萬相2.1視頻生成模型。這一創(chuàng)新成果標(biāo)志著阿里云在視頻生成技術(shù)領(lǐng)域的又一次重大突破。 據(jù)悉,萬相2.1視頻生成模型在多個方面實現(xiàn)了顯著提升
    的頭像 發(fā)表于 01-13 10:00 ?745次閱讀

    OpenAI暫不推出Sora視頻生成模型API

    OpenAI近日宣布,目前暫無推出其視頻生成模型Sora的應(yīng)用程序接口(API)的計劃。Sora模型能夠基于文本和圖像生成視頻,引發(fā)了廣泛關(guān)注。然而,由于訪問量遠(yuǎn)超預(yù)期,OpenAI此前不得不緊急
    的頭像 發(fā)表于 12-20 14:23 ?478次閱讀

    OpenAI推出AI視頻生成模型Sora

    近日,備受期待的OpenAI再次推出了其創(chuàng)新之作——AI視頻生成模型Sora。這一新品的發(fā)布,無疑為AI技術(shù)注入了新的活力。 據(jù)悉,Sora與OpenAI旗下的AI工具DALL-E有著異曲同工之妙
    的頭像 發(fā)表于 12-12 09:40 ?623次閱讀

    OpenAI開放Sora視頻生成模型

    OpenAI近日宣布,其傾力打造的人工智能視頻生成系統(tǒng)Sora已正式向美國及其他市場的ChatGPT Plus訂閱用戶開放。自去年首次公開預(yù)覽以來,Sora歷經(jīng)約10個月的精心研發(fā)與優(yōu)化,現(xiàn)已全面
    的頭像 發(fā)表于 12-10 11:16 ?671次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實現(xiàn)工具和框架應(yīng)運(yùn)而生,為研究人員和開發(fā)者提供了強(qiáng)大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?590次閱讀

    字節(jié)跳動自研視頻生成模型Seaweed開放

    近日,字節(jié)跳動旗下的AI內(nèi)容平臺即夢AI傳來新消息,宣布自研的視頻生成模型Seaweed即日起正式面向平臺用戶開放使用。這一舉措標(biāo)志著字節(jié)跳動在AI視頻領(lǐng)域邁出了堅實的一步。
    的頭像 發(fā)表于 11-11 14:31 ?578次閱讀

    今日看點丨Vishay裁員800人,關(guān)閉上海等三家工廠;字節(jié)跳動發(fā)布兩款視頻生成大模型

    1. 字節(jié)跳動發(fā)布兩款視頻生成大模型 面向企業(yè)市場開啟邀測 ? 9月24日,字節(jié)跳動旗下火山引擎發(fā)布兩款視頻生成大模型(豆包視頻生成-PixelDance、豆包視頻生成-Seaweed
    發(fā)表于 09-25 15:48 ?911次閱讀

    火山引擎推出豆包·視頻生成模型

    在近期舉辦的2024火山引擎AI創(chuàng)新巡展上,火山引擎總裁譚待隆重推出了豆包·視頻生成模型,這一舉措標(biāo)志著火山引擎在視頻內(nèi)容生成領(lǐng)域邁出了重要一步。豆包模型憑借其獨特的技術(shù)優(yōu)勢,吸引了業(yè)界的廣泛關(guān)注。
    的頭像 發(fā)表于 09-25 14:11 ?545次閱讀

    阿里通義將發(fā)布視頻生成大模型

    在即將召開的云棲大會上,阿里通義將震撼發(fā)布其自主研發(fā)的視頻生成大模型。目前,用戶已可通過通義App頻道及通義萬相PC端預(yù)約體驗這一創(chuàng)新功能,盡管具體使用尚未開放。
    的頭像 發(fā)表于 09-19 17:01 ?558次閱讀

    歡創(chuàng)播報 騰訊元寶首發(fā)3D生成應(yīng)用

    1 騰訊元寶首發(fā)3D生成應(yīng)用 只需一張照片,便能迅速打造獨一無二的3D角色。7月16日,騰訊旗下大模型應(yīng)用“騰訊元寶”上線了“3D角色夢工廠
    的頭像 發(fā)表于 07-18 11:39 ?1142次閱讀
    歡創(chuàng)播報 騰訊元寶首發(fā)<b class='flag-5'>3D</b><b class='flag-5'>生成</b>應(yīng)用

    MediaTek與快手?jǐn)y手創(chuàng)新,端側(cè)視頻生成技術(shù)引領(lǐng)AI新紀(jì)元

    在科技日新月異的今天,MediaTek與快手再次攜手,于近日宣布了一項重大技術(shù)突破——高效端側(cè)視頻生成技術(shù)的誕生。這項技術(shù)不僅是對即將于2024年世界移動通信大會(MWC 2024)上亮相的先進(jìn)視頻生成技術(shù)的有力延續(xù),更是雙方在生成
    的頭像 發(fā)表于 07-05 11:52 ?1613次閱讀

    MediaTek聯(lián)合快手推出高效端側(cè)視頻生成技術(shù)

    MediaTek 與快手共同宣布,推出高效端側(cè)視頻生成技術(shù),共同探索并推進(jìn)生成式 AI 技術(shù)的革新。作為對 2024 世界移動通信大會(MWC 2024)上亮相的視頻生成技術(shù)的延續(xù),該技術(shù)結(jié)合快手
    的頭像 發(fā)表于 07-05 11:23 ?9240次閱讀

    奧比中光3D相機(jī)打造高質(zhì)量、低成本的3D動作捕捉與3D動畫內(nèi)容生成方案

    ? 在過去幾十年里,動作捕捉(MoCap)技術(shù)經(jīng)歷了顯著的發(fā)展,廣泛被應(yīng)用于電影、游戲、虛擬現(xiàn)實、醫(yī)療等多個領(lǐng)域。近期,奧比中光合作客戶Moverse使用Orbbec Femto系列3D相機(jī),打造
    的頭像 發(fā)表于 06-25 16:37 ?1431次閱讀

    谷歌AI新突破:為無聲視頻智能配音

    近日,谷歌DeepMind團(tuán)隊公布了一項革命性的技術(shù)——利用AI為無聲視頻生成背景音樂的“video-to-audio”技術(shù)。這一技術(shù)的出現(xiàn),不僅為視頻創(chuàng)作領(lǐng)域帶來了新的可能,也為觀眾
    的頭像 發(fā)表于 06-21 10:50 ?722次閱讀

    Runway發(fā)布Gen-3 Alpha視頻生成模型

    專為電影和圖像內(nèi)容創(chuàng)作者提供生成式AI工具的Runway公司近日宣布,其最新的Gen-3 Alpha視頻生成模型已經(jīng)正式問世。這款模型在多方面均取得了顯著的進(jìn)步,為創(chuàng)作者們帶來了前所未有的便利和可能性。
    的頭像 發(fā)表于 06-19 09:25 ?802次閱讀