女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA AI使用視頻輸入改進(jìn)運(yùn)動(dòng)捕捉動(dòng)畫模型

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:Nathan Horrocks ? 2022-04-06 16:42 ? 次閱讀

來自 NVIDIA 、多倫多大學(xué)和矢量研究所的研究人員提出了一種新的運(yùn)動(dòng)捕捉方法,即使用昂貴的運(yùn)動(dòng)捕捉硬件。它僅使用視頻輸入來改進(jìn)過去的運(yùn)動(dòng)捕捉動(dòng)畫模型。

YouTuber 和圖形研究人員 Károly Zsolnai-Fehér 博士在他的 YouTube 系列文章 兩分鐘的論文 中詳細(xì)介紹了這項(xiàng)創(chuàng)新技術(shù)的研究。這段視頻強(qiáng)調(diào)了研究人員如何僅通過視頻輸入捕獲使用人工智能的個(gè)體,并將其轉(zhuǎn)化為數(shù)字化身。然后,他們可以給阿凡達(dá)一個(gè)物理模擬,以消除腳滑動(dòng)和時(shí)間不一致或閃爍的傳統(tǒng)挑戰(zhàn)。

“在本文中,我們引入了一種新的框架,用于從原始視頻姿勢(shì)估計(jì)中訓(xùn)練運(yùn)動(dòng)合成模型,而不使用運(yùn)動(dòng)捕捉數(shù)據(jù),” Kevin Xie 在論文中解釋道。

“我們的框架通過接觸不變優(yōu)化(包括接觸力的計(jì)算)實(shí)施物理約束,從而細(xì)化噪聲姿勢(shì)估計(jì)。然后,我們?cè)诩?xì)化的姿勢(shì)上訓(xùn)練時(shí)間序列生成模型,合成未來的運(yùn)動(dòng)和接觸力。我們的結(jié)果表明,這兩種姿勢(shì)的性能都有顯著提升通過我們基于物理的細(xì)化和視頻的運(yùn)動(dòng)合成結(jié)果進(jìn)行估計(jì)。我們希望通過利用大量在線視頻資源,我們的工作將導(dǎo)致更具可伸縮性的人體運(yùn)動(dòng)合成。”

image3.gif

image3.gif

圖 2 。 AI 使用運(yùn)動(dòng)捕捉來捕捉運(yùn)動(dòng),將個(gè)人動(dòng)畫化為數(shù)字化身,并提供物理模擬來準(zhǔn)確模擬現(xiàn)實(shí)生活中的運(yùn)動(dòng)。

這個(gè)框架使人們離在虛擬世界中工作和玩耍更近了一步。它將幫助開發(fā)人員以更便宜的價(jià)格制作人體運(yùn)動(dòng)動(dòng)畫,并提供更豐富的運(yùn)動(dòng)多樣性。從視頻游戲到虛擬世界,這個(gè)框架無疑將影響我們可視化人類運(yùn)動(dòng)合成的方式。

關(guān)于作者

Nathan Horrocks 是 NVIDIA Research 的內(nèi)容營銷經(jīng)理。他重點(diǎn)強(qiáng)調(diào)了 NVIDIA 實(shí)驗(yàn)室在世界各地進(jìn)行的驚人研究。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5238

    瀏覽量

    105746
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48677

    瀏覽量

    246316
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    英偉達(dá)GTC2025亮點(diǎn) NVIDIA推出Cosmos世界基礎(chǔ)模型和物理AI數(shù)據(jù)工具的重大更新

    、Figure AI、Skild AI 是最早采用該技術(shù)的公司。 NVIDIA 宣布推出全新 NVIDIA Cosmos 世界基礎(chǔ)模型 (W
    的頭像 發(fā)表于 03-20 19:01 ?784次閱讀

    AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》----- 學(xué)習(xí)如何開發(fā)視頻應(yīng)用

    ,也可以是自定義的模型。 配置視頻生成的參數(shù),如視頻分辨率、幀率、時(shí)長等。同時(shí),設(shè)置輸入和輸出的格式,確保AI助手能夠正確地接收和處理
    發(fā)表于 03-05 19:52

    Evo 2 AI模型可通過NVIDIA BioNeMo平臺(tái)使用

    Evo 2 是一個(gè)強(qiáng)大的新型 AI 模型,它基于亞馬遜云科技(AWS)上的 NVIDIA DGX Cloud 構(gòu)建而成,能夠幫助用戶深入了解不同物種的 DNA、RNA 和蛋白質(zhì)。
    的頭像 發(fā)表于 02-28 09:57 ?610次閱讀

    NVIDIA推出加速物理AI開發(fā)的Cosmos世界基礎(chǔ)模型

    經(jīng)數(shù)百萬小時(shí)的駕駛和機(jī)器人視頻數(shù)據(jù)訓(xùn)練的先進(jìn)模型,可用于普及物理 AI 開發(fā),并以開放模型許可形式提供。
    的頭像 發(fā)表于 01-09 11:05 ?638次閱讀

    NVIDIA推出面向RTX AI PC的AI基礎(chǔ)模型

    NVIDIA 今日發(fā)布能在 NVIDIA RTX AI PC 本地運(yùn)行的基礎(chǔ)模型,為數(shù)字人、內(nèi)容創(chuàng)作、生產(chǎn)力和開發(fā)提供強(qiáng)大助力。
    的頭像 發(fā)表于 01-08 11:01 ?474次閱讀

    NVIDIA推出多個(gè)生成式AI模型和藍(lán)圖

    NVIDIA 宣布推出多個(gè)生成式 AI 模型和藍(lán)圖,將 NVIDIA Omniverse 一體化進(jìn)一步擴(kuò)展至物理 AI 應(yīng)用,如機(jī)器人、自動(dòng)
    的頭像 發(fā)表于 01-08 10:48 ?509次閱讀

    NVIDIA Cosmos世界基礎(chǔ)模型平臺(tái)發(fā)布

    NVIDIA 宣布推出NVIDIA Cosmos,該平臺(tái)由先進(jìn)的生成式世界基礎(chǔ)模型、高級(jí) tokenizer、護(hù)欄和加速視頻處理管線組成,將推動(dòng)自動(dòng)駕駛汽車(AV)和機(jī)器人等物理
    的頭像 發(fā)表于 01-08 10:39 ?477次閱讀

    OpenAI推出AI視頻生成模型Sora

    近日,備受期待的OpenAI再次推出了其創(chuàng)新之作——AI視頻生成模型Sora。這一新品的發(fā)布,無疑為AI技術(shù)注入了新的活力。 據(jù)悉,Sora與OpenAI旗下的
    的頭像 發(fā)表于 12-12 09:40 ?614次閱讀

    NVIDIA推出全新生成式AI模型Fugatto

    NVIDIA 開發(fā)了一個(gè)全新的生成式 AI 模型。利用輸入的文本和音頻,該模型可以創(chuàng)作出包含任意的音樂、人聲和聲音組合的作品。
    的頭像 發(fā)表于 11-27 11:29 ?720次閱讀

    可靈AI全球首發(fā)視頻模型定制功能,助力AI視頻創(chuàng)作

    近日,快手旗下的可靈AI在全球范圍內(nèi)率先推出了視頻模型定制功能,這一創(chuàng)新之舉成功解決了AI視頻生成過程中人物IP穩(wěn)定性不足的難題。 據(jù)了解,
    的頭像 發(fā)表于 11-26 14:02 ?1123次閱讀

    NVIDIA助力輕威科技開發(fā)下一代多人實(shí)時(shí)運(yùn)動(dòng)捕捉系統(tǒng)

    在本案例中,通過使用 Jetson 平臺(tái),輕威科技研發(fā)了無需穿戴的下一代多人實(shí)時(shí)運(yùn)動(dòng)捕捉系統(tǒng) SemCam,可以在演員無需穿戴任何 Mark 點(diǎn)和傳感器的前提下,僅憑 AI 視覺識(shí)別和 AI
    的頭像 發(fā)表于 11-13 11:46 ?631次閱讀

    NVIDIA助力提供多樣、靈活的模型選擇

    在本案例中,Dify 以模型中立以及開源生態(tài)的優(yōu)勢(shì),為廣大 AI 創(chuàng)新者提供豐富的模型選擇。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton 推理服務(wù)器
    的頭像 發(fā)表于 09-09 09:19 ?837次閱讀

    NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型

    借助 NVIDIA AI Foundry,企業(yè)和各國現(xiàn)在能夠使用自有數(shù)據(jù)與 Llama 3.1 405B 和 NVIDIA Nemotron 模型配對(duì),來構(gòu)建“超級(jí)
    發(fā)表于 07-24 09:39 ?855次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>

    ai模型和傳統(tǒng)ai的區(qū)別在哪?

    的BERT模型使用了33億個(gè)參數(shù),而傳統(tǒng)AI模型通常只有幾千到幾百萬個(gè)參數(shù)。 模型復(fù)雜度 AI模型
    的頭像 發(fā)表于 07-16 10:06 ?2416次閱讀

    英偉達(dá)推出AI模型推理服務(wù)NVIDIA NIM

    英偉達(dá)近日宣布推出一項(xiàng)革命性的AI模型推理服務(wù)——NVIDIA NIM。這項(xiàng)服務(wù)將極大地簡化AI模型部署過程,為全球的2800萬英偉達(dá)開發(fā)者
    的頭像 發(fā)表于 06-04 09:15 ?903次閱讀