女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌公布基礎(chǔ)模型Genie,主攻2D平臺(tái)類(lèi)游戲及機(jī)器人應(yīng)用

微云疏影 ? 來(lái)源:綜合整理 ? 作者:綜合整理 ? 2024-02-28 10:02 ? 次閱讀

在OpenAI研發(fā)出Sora后不久,谷歌Deep Mind團(tuán)隊(duì)公開(kāi)了在世界模型領(lǐng)域的新進(jìn)展——基礎(chǔ)世界模型Genie。該模型主要借鑒非對(duì)抗方式進(jìn)行訓(xùn)練,可根據(jù)各類(lèi)圖像乃至草圖生成具有豐富動(dòng)作表現(xiàn)的2D世界,從而實(shí)現(xiàn)人們與虛構(gòu)世界的深度互動(dòng)。只需輸入一張圖像,Genie便可構(gòu)建一個(gè)全新的交互環(huán)境。

DeepMind指出,Genie有能力根據(jù)最新的文生圖大模型生成初始幀,再借助Genie的能力賦予這些圖像更深層次的含義。Genie作為一個(gè)包含110億參數(shù)的基礎(chǔ)世界模型,成功研發(fā)得益于谷歌聲名在外的潛在動(dòng)作模型,用于推斷視頻幀間的運(yùn)動(dòng),視頻分詞器則可以將原始視頻幀轉(zhuǎn)化為離散標(biāo)記,而動(dòng)態(tài)模型則負(fù)責(zé)預(yù)測(cè)下一幀的活動(dòng)情況。

值得注意的是,相較于號(hào)稱(chēng)“高清晰度、高真實(shí)感”的Sora, Genie似乎更注重潛在行為的預(yù)測(cè),而不是極力展現(xiàn)畫(huà)面的真實(shí)性。現(xiàn)階段,從圖像或文本中生成高質(zhì)量視頻尚未成為Genie關(guān)注的核心業(yè)務(wù)點(diǎn)。DeepMind進(jìn)一步透露,Genie主要圍繞“2D平臺(tái)類(lèi)游戲及大約率算法”展開(kāi)應(yīng)用,這種處理方法具有廣泛適應(yīng)性,可應(yīng)用于各領(lǐng)域,也可以擴(kuò)展至更大規(guī)模的互聯(lián)網(wǎng)數(shù)據(jù)集。

然而,這個(gè)還在試驗(yàn)階段的Genie尚不能視為商業(yè)產(chǎn)品問(wèn)世。據(jù)DeepMind人士解釋?zhuān)珿enie的訓(xùn)練視頻為160x90像素且每秒僅10幀的超低分辨率視頻,生成的模擬游戲以每秒1幀的速率運(yùn)行。因此,實(shí)際場(chǎng)景更為復(fù)雜且要求更高實(shí)時(shí)性的商業(yè)應(yīng)用仍需耐心等待解決方案。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    131

    瀏覽量

    11343
  • genie
    +關(guān)注

    關(guān)注

    0

    文章

    7

    瀏覽量

    4325
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1200

    瀏覽量

    8617
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3011

    瀏覽量

    3790
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    盤(pán)點(diǎn)#機(jī)器人開(kāi)發(fā)平臺(tái)

    Athena機(jī)器人****開(kāi)發(fā)平臺(tái)思嵐推出Athena機(jī)器人開(kāi)發(fā)平臺(tái),有望主導(dǎo)機(jī)器人開(kāi)發(fā)平臺(tái)未來(lái)
    發(fā)表于 05-13 15:02

    【「# ROS 2智能機(jī)器人開(kāi)發(fā)實(shí)踐」閱讀體驗(yàn)】視覺(jué)實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    閱讀心得體會(huì):ROS2機(jī)器人視覺(jué)與地圖構(gòu)建技術(shù) 通過(guò)對(duì)本書(shū)第7章(ROS2視覺(jué)應(yīng)用)和第8章(ROS2地圖構(gòu)建)的學(xué)習(xí),我對(duì)機(jī)器人視覺(jué)感知和
    發(fā)表于 05-03 19:41

    【「# ROS 2智能機(jī)器人開(kāi)發(fā)實(shí)踐」閱讀體驗(yàn)】機(jī)器人入門(mén)的引路書(shū)

    的非常好的,特別是一些流程圖,很清晰的闡釋了概念 很適合作為初學(xué)者入門(mén)的引路書(shū) 還能了解很多技術(shù)和框架,破除初學(xué)者的自負(fù)困境,讓初學(xué)者知道功能是由很多開(kāi)發(fā)者維護(hù)的,前人已經(jīng)為各種產(chǎn)品搭建了完善的框架。避免陷入得一個(gè)單打獨(dú)斗的錯(cuò)覺(jué) 一直蠢蠢欲動(dòng)ros2
    發(fā)表于 04-30 01:05

    大象機(jī)器人攜手進(jìn)迭時(shí)空推出 RISC-V 全棧開(kāi)源六軸機(jī)械臂產(chǎn)品

    全球80多個(gè)國(guó)家和地區(qū)。 近日,大象機(jī)器人聯(lián)合進(jìn)迭時(shí)空推出全球首款RISC-V全棧開(kāi)源六軸機(jī)器臂“myCobot 280 RISC-V”,為開(kāi)發(fā)者打造全新的機(jī)器人開(kāi)源創(chuàng)新平臺(tái)。 “my
    發(fā)表于 04-25 17:59

    名單公布!【書(shū)籍評(píng)測(cè)活動(dòng)NO.58】ROS 2智能機(jī)器人開(kāi)發(fā)實(shí)踐

    手機(jī)為平臺(tái)的移動(dòng)互聯(lián)網(wǎng)時(shí)代,下一個(gè)以機(jī)器人為核心的智能機(jī)器人時(shí)代,是否也會(huì)遵循這樣的邏輯? 隨著ROS 2的誕生,智能機(jī)器人開(kāi)發(fā)迎來(lái)新篇章
    發(fā)表于 03-03 14:18

    普渡機(jī)器人接入DeepSeek滿血版模型

    2月20日起,普渡機(jī)器人正式接入DeepSeek滿血版模型機(jī)器人智能語(yǔ)音交互能力迎來(lái)智能化升級(jí)里程碑!此次升級(jí)中,首批搭載該模型的貝拉P
    的頭像 發(fā)表于 02-20 16:50 ?680次閱讀

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人的基礎(chǔ)模塊

    具身智能機(jī)器人的基礎(chǔ)模塊,這個(gè)是本書(shū)的第二部分內(nèi)容,主要分為四個(gè)部分:機(jī)器人計(jì)算系統(tǒng),自主機(jī)器人的感知系統(tǒng),自主機(jī)器人的定位系統(tǒng),自主機(jī)器人
    發(fā)表于 01-04 19:22

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人模型

    近年來(lái),人工智能領(lǐng)域的大模型技術(shù)在多個(gè)方向上取得了突破性的進(jìn)展,特別是在機(jī)器人控制領(lǐng)域展現(xiàn)出了巨大的潛力。在“具身智能機(jī)器人模型”部分,作者研究并探討了大
    發(fā)表于 12-29 23:04

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.初步理解具身智能

    與未來(lái),涵蓋如基于行為的人工智能、生物啟發(fā)的進(jìn)化人工智能及認(rèn)知機(jī)器人技術(shù)的發(fā)展。這一歷史背景為隨后的大模型驅(qū)動(dòng)的具身智能討論奠定了基礎(chǔ),隨著人工智能模型復(fù)雜性和能力的不斷提升,這一主題也變得愈加
    發(fā)表于 12-28 21:12

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    研讀《具身智能機(jī)器人系統(tǒng)》第7-9章,我被書(shū)中對(duì)大模型機(jī)器人技術(shù)融合的深入分析所吸引。第7章詳細(xì)闡述了ChatGPT for Robotics的核心技術(shù)創(chuàng)新:它摒棄了傳統(tǒng)的分層控制架構(gòu),創(chuàng)造性地
    發(fā)表于 12-24 15:03

    Google DeepMind發(fā)布Genie 2:打造交互式3D虛擬世界

    在OpenAI宣布即將發(fā)布新模型和新功能后,Google DeepMind也不甘落后,于近日推出了大型基礎(chǔ)世界模型——Genie 2。這款模型
    的頭像 發(fā)表于 12-05 14:16 ?946次閱讀

    名單公布!【書(shū)籍評(píng)測(cè)活動(dòng)NO.51】具身智能機(jī)器人系統(tǒng) | 了解AI的下一個(gè)浪潮!

    機(jī)器人全球供應(yīng)鏈的分布情況為例,具身智能機(jī)器人的核心元器件(包括 3D 視覺(jué)傳感器、六維力傳感器、微型傳動(dòng)系統(tǒng)、靈巧手與精密力控系統(tǒng)、高性能 驅(qū)控關(guān)節(jié)模組、融合通用大模型
    發(fā)表于 11-11 10:20

    引領(lǐng)通用具身新時(shí)代:普渡發(fā)布首款類(lèi)人形機(jī)器人PUDU D7

    深圳2024年9月19日?/美通社/ -- 9月19日,全球服務(wù)機(jī)器人領(lǐng)軍企業(yè)普渡機(jī)器人正式發(fā)布其初代類(lèi)人形機(jī)器人PUDU D7。基于仿生雙
    的頭像 發(fā)表于 09-20 09:07 ?820次閱讀
    引領(lǐng)通用具身新時(shí)代:普渡發(fā)布首款<b class='flag-5'>類(lèi)</b>人形<b class='flag-5'>機(jī)器人</b>PUDU <b class='flag-5'>D</b>7

    智能移動(dòng)機(jī)器人

    富唯智能移動(dòng)機(jī)器人分為復(fù)合機(jī)器人和轉(zhuǎn)運(yùn)機(jī)器人,搭載ICD核心控制器,實(shí)現(xiàn)一體化控制,最快可實(shí)現(xiàn)15分鐘現(xiàn)場(chǎng)機(jī)器人的快速部署,無(wú)縫對(duì)接產(chǎn)線,配合自研2
    的頭像 發(fā)表于 08-27 17:22 ?597次閱讀
    智能移動(dòng)<b class='flag-5'>機(jī)器人</b>

    Al大模型機(jī)器人

    金航標(biāo)kinghelm薩科微slkor總經(jīng)理宋仕強(qiáng)介紹說(shuō),薩科微Al大模型機(jī)器人有哪些的優(yōu)勢(shì)?薩科微AI大模型機(jī)器人由清華大學(xué)畢業(yè)的天才少年N博士和王博士團(tuán)隊(duì)開(kāi)發(fā),與同行相比具有許多優(yōu)
    發(fā)表于 07-05 08:52