女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用URL2Video可以將網(wǎng)頁快速生成有創(chuàng)意的短視頻

LiveVideoStack ? 來源:LiveVideoStack ? 作者:LiveVideoStack ? 2020-12-07 14:07 ? 次閱讀

機器學(xué)習(xí)可以實現(xiàn)對網(wǎng)頁內(nèi)容的理解,并選取關(guān)鍵對象生成有趣的短視頻。Google研究團隊通過使用URL2Video可以將網(wǎng)頁快速生成有創(chuàng)意的短視頻。包括百度、快手、字節(jié)跳動等都有相關(guān)的短視頻自動化生產(chǎn)工具,隨著技術(shù)的成熟,將有大量的短視頻出自自動化工具之手。在12月的LiveVideoStackCon 2020 SFO線上大會上,百度美國研究院資深研究員陳曦將會介紹“無人值守的大規(guī)模AI視頻生產(chǎn)”。

在Google,我們正在積極探索在制作多媒體內(nèi)容時,人們?nèi)绾问褂糜蓹C器學(xué)習(xí)和計算方法提供的創(chuàng)造性工具,從創(chuàng)作音樂、重新架構(gòu)視頻,到繪畫等等都涉及到了這方面內(nèi)容。尤其是視頻制作這樣一個頗具創(chuàng)意的過程,它可以很好地受益于這些工具,因為它需要做出一系列決策,確定哪些內(nèi)容最適合目標受眾,如何在視圖中妥善排布現(xiàn)有資源,以及怎樣進行時間安排能夠帶來最具吸引力的描述。但假如一個人能利用現(xiàn)有的資源,比如一個網(wǎng)站,來開啟視頻創(chuàng)作呢?大多數(shù)企業(yè)主辦的網(wǎng)站都呈現(xiàn)了關(guān)于其產(chǎn)品或服務(wù)豐富的視圖內(nèi)容,所有這些內(nèi)容都可以被重新應(yīng)用到其他多媒體格式,比如視頻,這可能使那些沒有大量資源的人能夠接觸到更廣泛的受眾。 2020年UIST上發(fā)表的“網(wǎng)頁端視頻的自動化制作”里,我們介紹了一種基于內(nèi)容所有者提供的時間和視圖限制,將網(wǎng)頁自動轉(zhuǎn)換為短視頻的研究原型——URL2Video。URL2Video從HTML源中提取資源(文本、圖像或視頻)及其設(shè)計風格(包括字體、顏色、圖形布局和層次結(jié)構(gòu)),并將這些可視資源組合成一系列的快照,同時保持與源頁面相似的外觀和感覺,然后根據(jù)用戶指定的縱橫比和持續(xù)時間,將這些材料重新利用,渲染成一個適合產(chǎn)品和服務(wù)廣告的視頻。

URL2Video概述

假設(shè)用戶提供了一個闡述他們業(yè)務(wù)的網(wǎng)頁URL,URL2Video會自動從頁面中選擇關(guān)鍵內(nèi)容,并根據(jù)一組針對熟悉網(wǎng)頁設(shè)計和視頻廣告制作的設(shè)計師的訪談研究得到的啟發(fā)式算法,決定每個資源的時間和視圖展示。這些如設(shè)計師般熟知的啟發(fā)式算法捕獲常見的視頻編輯樣式,包括內(nèi)容層次結(jié)構(gòu),限制一個快照中的信息量及其持續(xù)時間,為品牌提供一致的顏色和樣式等等。利用這些信息,URL2Video解析網(wǎng)頁,分析內(nèi)容,選擇視覺突出的文本或圖像,同時保留它們的設(shè)計風格,并根據(jù)用戶提供的視頻規(guī)范進行組合。

通過在輸入的網(wǎng)頁中提取結(jié)構(gòu)內(nèi)容和設(shè)計,URL2Video做出自動編輯決策,在視頻中呈現(xiàn)關(guān)鍵信息。它考慮到用戶定義的輸出視頻的時間限定(比如以秒為單位的持續(xù)時間)和空間限定(比如高寬比)。

網(wǎng)頁分析

一個網(wǎng)頁的URL,URL2Video會提取它的文檔對象模型(DOM)信息和多媒體材料。出于研究模型的目的,我們將域限制在靜態(tài)網(wǎng)上,這些頁面包含HTML層次結(jié)構(gòu)中保存的突出資源和標題,這些層次結(jié)構(gòu)遵循最近的網(wǎng)頁設(shè)計原則,鼓勵使用重點的元素、更清晰的部分以及引導(dǎo)讀者感知信息的視覺焦點順序。URL2Video將這些視覺上可區(qū)分的元素標記到資源組的候選列表,每個元素可能包含一個標題、一個產(chǎn)品圖象、詳細描述和調(diào)用操作按鈕,并捕獲每個元素的原始素材(文本和多媒體文件)和詳細的設(shè)計規(guī)范(HTML標簽、CSS樣式和呈現(xiàn)位置)。然后,通過根據(jù)每個資源組的視覺外觀和注釋,包括它們的HTML標簽、呈現(xiàn)的尺寸還有顯示在頁面上的順序?qū)γ總€組進行排序。這樣,在頁面頂部占據(jù)較大區(qū)域的資源組將獲得更高的分數(shù)。

限定型的資源選擇

在制作視頻時,我們考慮了兩個目標:(1)每個鏡頭都應(yīng)該提供簡潔的視頻信息;(2)視覺設(shè)計應(yīng)該與源網(wǎng)頁一致。基于這些目標和用戶提供的視頻限定條件,包括預(yù)期的視頻持續(xù)時間(以秒為單位)和高寬比(通常為16:9、4:3、1:1等),URL2Video自動選擇并命令資源組優(yōu)化總體優(yōu)先級分數(shù)。為了使內(nèi)容簡潔,它只顯示頁面中的主要元素,例如標題和一些多媒體資源。它限定了觀眾所感知內(nèi)容的每個視覺元素的持續(xù)時間。這樣,簡短的視頻強調(diào)了頁面頂部最突出的信息,時間長一些的視頻則包含了更多的商業(yè)活動或產(chǎn)品信息。

畫面構(gòu)圖與視頻渲染

根據(jù)基于DOM層次結(jié)構(gòu)的有序資源列表,URL2Video并行依照從訪談研究中獲得的設(shè)計啟發(fā),對時間和空間安排做出決策,將資源在單個鏡頭中展現(xiàn)出來。它將元素的圖形布局轉(zhuǎn)換為視頻的縱橫比,并應(yīng)用了包括字體和顏色在內(nèi)的樣式選擇。為了使視頻更具動感和吸引力,它調(diào)整了資源的顯示時間。最后,它將內(nèi)容渲染為MPEG-4格式的視頻。

用戶控制

研究原型界面允許用戶查看源網(wǎng)頁提取的每個視頻鏡頭中的設(shè)計屬性,以及重新排版材料,更改細節(jié)設(shè)計,如顏色和字體,并更改限制條件來生成新的視頻。

在URL2Video的創(chuàng)作界面(左)中,用戶指定源頁面輸入的URL、目標頁面視圖的大小以及輸出視頻參數(shù)。URL2Video分析網(wǎng)頁,并提取主要的視覺組件。由它組成了一系列的鏡頭,并將關(guān)鍵畫面可視化為一個故事板。這些組件滿足輸入時間和空間限定后輸出呈現(xiàn)為視頻。用戶可以播放視頻,檢查設(shè)計屬性(右下角),并進行調(diào)整以做視頻更改,例如重新排序鏡頭(右上)。

URL2Video用例

我們在現(xiàn)有的各種網(wǎng)頁上演示了端到端的URL2Video的性能。下面我們特別展示一個實例結(jié)果,其中URL2Video將嵌入多個短視頻剪接的頁面轉(zhuǎn)換為一個12秒的輸出視頻。請注意它如何在從源網(wǎng)頁面捕獲的視頻中對字體和顏色選擇、時間和內(nèi)容排序作出自動編輯決定的。

URL2Video從我們的Google搜索介紹頁面(頂部)識別關(guān)鍵內(nèi)容,包括標題和視頻資源。通過綜合考慮顯示流程、源設(shè)計和輸出限定,URL2Video將它們轉(zhuǎn)換為視頻(12秒的橫向視頻;底部) 下面的視頻作了進一步的演示: https://www.youtube.com/watch?v=3yFYc-Wet8k&feature=youtu.be 為了評估自動生成的視頻,我們與Google的設(shè)計師進行了一項用戶研究。實驗結(jié)果表明,URL2Video能夠有效地從網(wǎng)頁中提取設(shè)計元素,并通過引導(dǎo)視頻創(chuàng)建的過程為設(shè)計師提供支持。

下一步

雖然目前的研究集中在視覺展示,但我們正在開發(fā)新的技術(shù),以在視頻編輯中支持音軌和畫外音。總之,我們設(shè)想的未來是,創(chuàng)作者專注于做出高層決策,而機器學(xué)習(xí)模型配合其在多個平臺上為最終視頻的制作提供詳細的時間和圖形編輯建議。

致謝

我們非常感謝我們的論文合著者Zheng Sun(Research)和Katrina Panovich(YouTube)。我們還要感謝我們的同事,他們(按姓氏的字幕順序)-JordanCanedy, Brian Curless, Nathan Frey, Madison Le, Alireza Mahdian, Justin Parra,Emily Ryan, Mogan Shieh, Sandor Szego和Weilong Yang-為URL2Video作出了貢獻。我們感謝我們的領(lǐng)導(dǎo)人Tomas Izo, RahulSukthankar和Jay Yagnik的支持。

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 自動化
    +關(guān)注

    關(guān)注

    29

    文章

    5737

    瀏覽量

    81540
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8488

    瀏覽量

    134014
  • 短視頻
    +關(guān)注

    關(guān)注

    1

    文章

    126

    瀏覽量

    9245

原文標題:URL2Video:把網(wǎng)頁自動創(chuàng)建為短視頻

文章出處:【微信號:livevideostack,微信公眾號:LiveVideoStack】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    S-Video接口概述和分類

    S-Video接口在當下視頻接口中,存在感已經(jīng)漸漸減少,它們的樣式與“古早”的很多接口相似。在視頻接口的發(fā)展中,它依然是必不可少的。本期我們圍繞S-
    的頭像 發(fā)表于 04-11 10:59 ?685次閱讀
    S-<b class='flag-5'>Video</b>接口概述和分類

    Ntag424使用Sun功能編寫URL的卡片中的URL是否可以在每次讀取時更改?

    必須更改(類似于動態(tài)值)實際上我幾個問題,他們的答案解釋一切。我想根據(jù)場景提出一些問題; 1- 我使用 Sun 功能編寫 URL 的卡片中的 URL 是否
    發(fā)表于 04-10 06:20

    DLP6500FYE如何使用video mode?

    問題1:我想試用DMD的視頻模式,但是我HDMI線連接DMD控制板和電腦,并完成video mode 設(shè)置后,DMD并沒有投影出電腦端的圖案(激光照明),具體該如何使用video
    發(fā)表于 02-24 07:59

    X平臺推出短視頻信息流,瞄準美國TikTok用戶

    就在TikTok恢復(fù)美國服務(wù)之際,X平臺也宣布了一項重要更新——上線短視頻信息流服務(wù)。這一舉措無疑加劇美國短視頻市場的競爭。 X平臺表示,他們正在為美國用戶打造一個新的“沉浸式視頻
    的頭像 發(fā)表于 01-22 10:36 ?531次閱讀

    華為云 Flexus 云服務(wù)器 X 實例 Windows 系統(tǒng)部署一鍵短視頻生成 AI 工具 moneyprinter

    在追求創(chuàng)新與效率并重的今天,我們公司迎難而上,決定自主搭建一款短視頻生成 AI 工具——MoneyPrinter,旨在為市場帶來前所未有的創(chuàng)意風暴。面對服務(wù)器選擇的難題,我們經(jīng)過深思熟慮與多方比較
    的頭像 發(fā)表于 12-30 09:10 ?501次閱讀
    華為云 Flexus 云服務(wù)器 X 實例 Windows 系統(tǒng)部署一鍵<b class='flag-5'>短視頻生成</b> AI 工具 moneyprinter

    Lightricks與Shutterstock攜手,推動開源LTXV視頻人工智能生成視頻模型發(fā)展

    ,Lightricks將能夠利用高質(zhì)量HD和4K視頻素材,進一步訓(xùn)練其開源視頻生成模型——LTX Video(LTXV)。 Lightricks成為首個在Shutterstock行業(yè)首創(chuàng)
    的頭像 發(fā)表于 12-15 09:31 ?420次閱讀
    Lightricks與Shutterstock攜手,推動開源LTXV<b class='flag-5'>視頻</b>人工智能<b class='flag-5'>生成</b>式<b class='flag-5'>視頻</b>模型發(fā)展

    OpenAI推出AI視頻生成模型Sora

    。用戶只需輸入自己期望的場景或構(gòu)思,Sora便能根據(jù)這些輸入,快速生成高清的視頻剪輯結(jié)果。這一功能無疑為視頻制作領(lǐng)域帶來了革命性的變革。 通過Sora,用戶
    的頭像 發(fā)表于 12-12 09:40 ?599次閱讀

    AIGC在視頻內(nèi)容制作中的應(yīng)用前景

    AIGC技術(shù)能夠顯著縮短視頻內(nèi)容的制作周期。通過AI算法,可以快速生成視頻剪輯、特效、字幕和配樂等,減少人工操作的時間。例如,在
    的頭像 發(fā)表于 10-25 15:44 ?1500次閱讀

    Adobe發(fā)布人工智能視頻創(chuàng)作工具:Firefly Video Model

    Adobe公司于10月15日正式揭曉了其最新研發(fā)的人工智能視頻創(chuàng)作工具——Firefly Video Model。這一創(chuàng)新解決方案旨在借助AI技術(shù),賦能視頻內(nèi)容創(chuàng)作者拓寬創(chuàng)意邊界,提升
    的頭像 發(fā)表于 10-15 16:20 ?1167次閱讀

    視頻時鐘合成芯片怎么用

    視頻時鐘合成芯片(Video Clock Synthesizer,VCS)是一種用于生成和調(diào)整視頻信號時鐘的電子設(shè)備,廣泛應(yīng)用于視頻處理、顯
    的頭像 發(fā)表于 10-10 11:17 ?638次閱讀

    Adobe推出一款人工智能視頻生產(chǎn)工具

    Adobe即將在今年晚些時候震撼發(fā)布其最新力作——Adobe Firefly Video Model,一款專為創(chuàng)意專業(yè)人士打造的生成視頻創(chuàng)作與編輯神器。作為Firefly圖像
    的頭像 發(fā)表于 09-12 16:37 ?683次閱讀

    MATLAB-網(wǎng)頁訪問與關(guān)閉

    MATLAB Web 瀏覽器中打開 url 指定的網(wǎng)頁。如果 url 是外部網(wǎng)站,web(url) 將在您的系統(tǒng)瀏覽器中打開該網(wǎng)頁。如果打
    發(fā)表于 09-05 16:23

    曠視AI開源新突破:上傳照片即可生成表情包視頻

    為了展示其泛化性,MegActor甚至可以VASA中的人物肖像和視頻組合生成,得到生動的表情視頻。即使與阿里EMO的官方案例相比,MegA
    的頭像 發(fā)表于 07-12 11:20 ?696次閱讀
    曠視AI開源新突破:上傳照片即可<b class='flag-5'>生成</b>表情包<b class='flag-5'>視頻</b>!

    MediaTek聯(lián)合快手推出高效端側(cè)視頻生成技術(shù)

    的 AI 模型 I2V(image to video)Adapter 與 MediaTek 天璣 9300、天璣 8300 移動平臺強勁的 AI 算力,在端側(cè)實現(xiàn)由靜態(tài)圖像生成動態(tài)視頻
    的頭像 發(fā)表于 07-05 11:23 ?8963次閱讀

    Google開發(fā)專為視頻生成配樂的人工智能技術(shù)

    近日,科技巨頭Google旗下的人工智能研究實驗室DeepMind宣布了一項引人注目的技術(shù)突破——V2A技術(shù)(Video to Audio),這是一項專為視頻生成配樂的人工智能技術(shù)。這項技術(shù)的誕生,標志著人工智能在媒體創(chuàng)作領(lǐng)域邁
    的頭像 發(fā)表于 06-20 11:03 ?820次閱讀