女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器人接入大模型直接聽(tīng)懂人話,日常操作輕松完成!

CVer ? 來(lái)源:量子位(QbitAI) ? 2023-07-11 14:31 ? 次閱讀

李飛飛團(tuán)隊(duì)具身智能最新成果來(lái)了:

大模型接入機(jī)器人,把復(fù)雜指令轉(zhuǎn)化成具體行動(dòng)規(guī)劃,無(wú)需額外數(shù)據(jù)和訓(xùn)練。

42ef34d6-1fa9-11ee-962d-dac502259ad0.png

從此,人類(lèi)可以很隨意地用自然語(yǔ)言給機(jī)器人下達(dá)指令,如:

打開(kāi)上面的抽屜,小心花瓶!

430c81c6-1fa9-11ee-962d-dac502259ad0.gif

大語(yǔ)言模型+視覺(jué)語(yǔ)言模型就能從3D空間中分析出目標(biāo)和需要繞過(guò)的障礙,幫助機(jī)器人做行動(dòng)規(guī)劃。

480c09b2-1fa9-11ee-962d-dac502259ad0.gif

然后重點(diǎn)來(lái)了,真實(shí)世界中的機(jī)器人在未經(jīng)“訓(xùn)練”的情況下,就能直接執(zhí)行這個(gè)任務(wù)。

4b43432a-1fa9-11ee-962d-dac502259ad0.gif

新方法實(shí)現(xiàn)了零樣本的日常操作任務(wù)軌跡合成,也就是機(jī)器人從沒(méi)見(jiàn)過(guò)的任務(wù)也能一次執(zhí)行,連給他做個(gè)示范都不需要。

可操作的物體也是開(kāi)放的,不用事先劃定范圍,開(kāi)瓶子、按開(kāi)關(guān)、拔充電線都能完成。

4e6515ec-1fa9-11ee-962d-dac502259ad0.gif

目前項(xiàng)目主頁(yè)和論文都已上線,代碼即將推出,并且已經(jīng)引起學(xué)術(shù)界廣泛興趣。

4fd5cbba-1fa9-11ee-962d-dac502259ad0.png

論文地址:
https://voxposer.github.io/voxposer.pdf
項(xiàng)目主頁(yè):
https://voxposer.github.io/

一位前微軟研究員評(píng)價(jià)到:這項(xiàng)研究走在了人工智能系統(tǒng)最重要和最復(fù)雜的前沿。

4ffd5dba-1fa9-11ee-962d-dac502259ad0.png

具體到機(jī)器人研究界也有同行表示:給運(yùn)動(dòng)規(guī)劃領(lǐng)域開(kāi)辟了新世界。

5009c104-1fa9-11ee-962d-dac502259ad0.png

還有本來(lái)沒(méi)看到AI危險(xiǎn)性的人,因?yàn)檫@項(xiàng)AI結(jié)合機(jī)器人的研究而改變看法。

501ed6de-1fa9-11ee-962d-dac502259ad0.png

機(jī)器人如何直接聽(tīng)懂人話?

李飛飛團(tuán)隊(duì)將該系統(tǒng)命名為VoxPoser,如下圖所示,它的原理非常簡(jiǎn)單。

502fe406-1fa9-11ee-962d-dac502259ad0.png

首先,給定環(huán)境信息(用相機(jī)采集RGB-D圖像)和我們要執(zhí)行的自然語(yǔ)言指令。

接著,LLM(大語(yǔ)言模型)根據(jù)這些內(nèi)容編寫(xiě)代碼,所生成代碼與VLM(視覺(jué)語(yǔ)言模型)進(jìn)行交互,指導(dǎo)系統(tǒng)生成相應(yīng)的操作指示地圖,即3D Value Map。

5072ff8e-1fa9-11ee-962d-dac502259ad0.png

所謂3D Value Map,它是Affordance Map和Constraint Map的總稱,既標(biāo)記了“在哪里行動(dòng)”,也標(biāo)記了“如何行動(dòng)”。

509f2276-1fa9-11ee-962d-dac502259ad0.png

如此一來(lái),再搬出動(dòng)作規(guī)劃器,將生成的3D地圖作為其目標(biāo)函數(shù),便能夠合成最終要執(zhí)行的操作軌跡了。

而從這個(gè)過(guò)程我們可以看到,相比傳統(tǒng)方法需要進(jìn)行額外的預(yù)訓(xùn)練,這個(gè)方法用大模型指導(dǎo)機(jī)器人如何與環(huán)境進(jìn)行交互,所以直接解決了機(jī)器人訓(xùn)練數(shù)據(jù)稀缺的問(wèn)題。

更進(jìn)一步,正是由于這個(gè)特點(diǎn),它也實(shí)現(xiàn)了零樣本能力,只要掌握了以上基本流程,就能hold任何給定任務(wù)。

在具體實(shí)現(xiàn)中,作者將VoxPoser的思路轉(zhuǎn)化為一個(gè)優(yōu)化問(wèn)題,即下面這樣一個(gè)復(fù)雜的公式:

50f7ae78-1fa9-11ee-962d-dac502259ad0.png

它考慮到了人類(lèi)下達(dá)的指令可能范圍很大,并且需要上下文理解,于是將指令拆解成很多子任務(wù),比如開(kāi)頭第一個(gè)示例就由“抓住抽屜把手”和“拉開(kāi)抽屜”組成。

VoxPoser要實(shí)現(xiàn)的就是優(yōu)化每一個(gè)子任務(wù),獲得一系列機(jī)器人軌跡,最終最小化總的工作量和工作時(shí)間。

而在用LLM和VLM將語(yǔ)言指令映射為3D地圖的過(guò)程中,系統(tǒng)考慮到語(yǔ)言可以傳達(dá)豐富的語(yǔ)義空間,便利用“感興趣的實(shí)體(entity of interest)”來(lái)引導(dǎo)機(jī)器人進(jìn)行操作,也就是通過(guò)3DValue Map中標(biāo)記的值來(lái)反應(yīng)哪個(gè)物體是對(duì)它具有“吸引力”的,那些物體是具有“排斥性”。

510f2ba2-1fa9-11ee-962d-dac502259ad0.png

還是以開(kāi)頭的例子舉,抽屜就是“吸引”的,花瓶是“排斥”的。

當(dāng)然,這些值如何生成,就靠大語(yǔ)言模型的理解能力了。

而在最后的軌跡合成過(guò)程中,由于語(yǔ)言模型的輸出在整個(gè)任務(wù)中保持不變,所以我們可以通過(guò)緩存其輸出,并使用閉環(huán)視覺(jué)反饋重新評(píng)估生成的代碼,從而在遇到干擾時(shí)快速進(jìn)行重新規(guī)劃。

因此,VoxPoser有著很強(qiáng)的抗干擾能力。

?

51468480-1fa9-11ee-962d-dac502259ad0.gif

?△ 將廢紙放進(jìn)藍(lán)色托盤(pán)

以下分別是VoxPoser在真實(shí)和模擬環(huán)境中的表現(xiàn)(衡量指標(biāo)為平均成功率):

575ebaae-1fa9-11ee-962d-dac502259ad0.png

可以看到,無(wú)論是哪種環(huán)境哪種情況(有無(wú)干擾、指令是否可見(jiàn)),它都顯著高于基于原語(yǔ)的基線任務(wù)。

最后,作者還驚喜地發(fā)現(xiàn),VoxPoser產(chǎn)生了4個(gè)“涌現(xiàn)能力”:

(1)評(píng)估物理特性,比如給定兩個(gè)質(zhì)量未知的方塊,讓機(jī)器人使用工具進(jìn)行物理實(shí)驗(yàn),確定哪個(gè)塊更重;

(2)行為常識(shí)推理,比如在擺餐具的任務(wù)中,告訴機(jī)器人“我是左撇子”,它就能通過(guò)上下文理解其含義;

(3)細(xì)粒度校正,比如執(zhí)行“給茶壺蓋上蓋子”這種精度要求較高的任務(wù)時(shí),我們可以向機(jī)器人發(fā)出“你偏離了1厘米”等精確指令來(lái)校正它的操作;

(4)基于視覺(jué)的多步操作,比如叫機(jī)器人將抽屜精準(zhǔn)地打開(kāi)成一半,由于沒(méi)有對(duì)象模型導(dǎo)致的信息不足可能讓機(jī)器人無(wú)法執(zhí)行這樣的任務(wù),但VoxPoser可以根據(jù)視覺(jué)反饋提出多步操作策略,即首先完全打開(kāi)抽屜同時(shí)記錄手柄位移,然后將其推回至中點(diǎn)就可以滿足要求了。

578669e6-1fa9-11ee-962d-dac502259ad0.png

李飛飛:計(jì)算機(jī)視覺(jué)的3顆北極星

大約一年前,李飛飛在美國(guó)文理學(xué)會(huì)會(huì)刊上撰文,指出計(jì)算機(jī)視覺(jué)發(fā)展的三個(gè)方向:

具身智能(Embodied AI)

視覺(jué)推理(Visual Reasoning)

場(chǎng)景理解(Scene Understanding)

57ab97ac-1fa9-11ee-962d-dac502259ad0.png

李飛飛認(rèn)為,具身智能不單指人形機(jī)器人,任何能在空間中移動(dòng)的有形智能機(jī)器都是人工智能的一種形式。

正如ImageNet旨在表示廣泛且多樣化的現(xiàn)實(shí)世界圖像一樣,具身智能研究也需要解決復(fù)雜多樣的人類(lèi)任務(wù),從疊衣服到探索新城市。

遵循指令執(zhí)行這些任務(wù)需要視覺(jué),但需要的不僅僅是視覺(jué),也需要視覺(jué)推理理解場(chǎng)景中的三維關(guān)系。

最后機(jī)器還要做到理解場(chǎng)景中的人,包括人類(lèi)意圖和社會(huì)關(guān)系。比如看到一個(gè)人打開(kāi)冰箱能判斷出他餓了,或者看到一個(gè)小孩坐在大人腿上能判斷出他們是親子關(guān)系。

機(jī)器人結(jié)合大模型可能正是解決這些問(wèn)題的一個(gè)途徑。

57bf5a6c-1fa9-11ee-962d-dac502259ad0.png

除李飛飛外,參與本次研究的還有清華姚班校友吳佳俊,博士畢業(yè)于MIT,現(xiàn)為斯坦福大學(xué)助理教授。

論文一作Wenlong Huang現(xiàn)為斯坦福博士生,在谷歌實(shí)習(xí)期間參與了PaLM-E研究。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    29509

    瀏覽量

    211641
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    558

    瀏覽量

    10684
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3033

    瀏覽量

    3839

原文標(biāo)題:李飛飛團(tuán)隊(duì)「具身智能」新成果!機(jī)器人接入大模型直接聽(tīng)懂人話,日常操作輕松完成!

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    盤(pán)點(diǎn)#機(jī)器人開(kāi)發(fā)平臺(tái)

    地瓜機(jī)器人RDK X5開(kāi)發(fā)套件地瓜機(jī)器人RDK X5開(kāi)發(fā)套件產(chǎn)品介紹 旭日5芯片10TOPs算力-電子發(fā)燒友網(wǎng)機(jī)器人開(kāi)發(fā)套件 Kria KR260機(jī)器人開(kāi)發(fā)套件 Kria KR260-
    發(fā)表于 05-13 15:02

    【「# ROS 2智能機(jī)器人開(kāi)發(fā)實(shí)踐」閱讀體驗(yàn)】視覺(jué)實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    的cv_bridge庫(kù),可以輕松實(shí)現(xiàn)ROS圖像消息與OpenCV格式的轉(zhuǎn)換,這在實(shí)際開(kāi)發(fā)中極為便利。 視覺(jué)巡線與二維碼識(shí)別的應(yīng)用 視覺(jué)巡線是機(jī)器人自主導(dǎo)航的經(jīng)典案例,書(shū)中從仿真到真實(shí)機(jī)器人
    發(fā)表于 05-03 19:41

    【「# ROS 2智能機(jī)器人開(kāi)發(fā)實(shí)踐」閱讀體驗(yàn)】機(jī)器人入門(mén)的引路書(shū)

    ROS的全稱:Robot Operating System 機(jī)器人操作系統(tǒng) ROS的 目的 :ROS支持通用庫(kù),是通信總線,協(xié)調(diào)多個(gè)傳感器 為了解決機(jī)器人里各廠商模塊不通用的問(wèn)題,讓機(jī)器人
    發(fā)表于 04-30 01:05

    大象機(jī)器人攜手進(jìn)迭時(shí)空推出 RISC-V 全棧開(kāi)源六軸機(jī)械臂產(chǎn)品

    識(shí)別聯(lián)調(diào)。 進(jìn)迭時(shí)空致力于為智能機(jī)器人提供完整全棧優(yōu)化的RISC-V AI軟硬件解決方案,第一代RISC-V AI CPU芯片K1已完成AI視覺(jué)感知、AI語(yǔ)音處理、自動(dòng)避障、路徑規(guī)劃、運(yùn)動(dòng)控制等
    發(fā)表于 04-25 17:59

    智能機(jī)器人加速進(jìn)化:AI大模型與傳感器的雙重buff加成

    發(fā)布的追覓S50系列掃地機(jī)器人也成為市面上首批搭載DeepSeek-R1的智能清潔類(lèi)產(chǎn)品。 對(duì)于普通消費(fèi)者而言,AI大模型不再只是聊天機(jī)器人、內(nèi)容生成的工具,而是逐漸升級(jí)為日常生活中可
    的頭像 發(fā)表于 03-07 17:58 ?379次閱讀
    智能<b class='flag-5'>機(jī)器人</b>加速進(jìn)化:AI大<b class='flag-5'>模型</b>與傳感器的雙重buff加成

    普渡機(jī)器人接入DeepSeek滿血版模型

    自2月20日起,普渡機(jī)器人正式接入DeepSeek滿血版模型,機(jī)器人智能語(yǔ)音交互能力迎來(lái)智能化升級(jí)里程碑!此次升級(jí)中,首批搭載該模型的貝拉P
    的頭像 發(fā)表于 02-20 16:50 ?717次閱讀

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人的基礎(chǔ)模塊

    非常重要的地位。 先說(shuō)這個(gè)自主機(jī)器人的計(jì)算系統(tǒng)。計(jì)算系統(tǒng)是自主機(jī)器人的關(guān)鍵部件。自主機(jī)器人通過(guò)智能計(jì)算系統(tǒng)與物理世界交互,自主地完成任務(wù)。通常會(huì)包括幾個(gè)關(guān)鍵的模塊,分別是傳感模塊,感知
    發(fā)表于 01-04 19:22

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人模型

    、醫(yī)療、服務(wù)等領(lǐng)域的應(yīng)用前景更加廣闊,也使得人類(lèi)能夠更輕松地借助機(jī)器完成復(fù)雜工作。我深刻認(rèn)識(shí)到,大模型技術(shù)正在從根本上改變我們對(duì)機(jī)器人能力的
    發(fā)表于 12-29 23:04

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.初步理解具身智能

    與未來(lái),涵蓋如基于行為的人工智能、生物啟發(fā)的進(jìn)化人工智能及認(rèn)知機(jī)器人技術(shù)的發(fā)展。這一歷史背景為隨后的大模型驅(qū)動(dòng)的具身智能討論奠定了基礎(chǔ),隨著人工智能模型復(fù)雜性和能力的不斷提升,這一主題也變得愈加
    發(fā)表于 12-28 21:12

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.全書(shū)概覽與第一章學(xué)習(xí)

    非常感謝電子發(fā)燒友提供的這次書(shū)籍測(cè)評(píng)活動(dòng)!最近,我一直在學(xué)習(xí)大模型和人工智能的相關(guān)知識(shí),深刻體會(huì)到機(jī)器人技術(shù)是一個(gè)極具潛力的未來(lái)方向,甚至可以說(shuō)是推動(dòng)時(shí)代變革的重要力量。能參與這次活動(dòng)并有機(jī)會(huì)深入
    發(fā)表于 12-27 14:50

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    研讀《具身智能機(jī)器人系統(tǒng)》第7-9章,我被書(shū)中對(duì)大模型機(jī)器人技術(shù)融合的深入分析所吸引。第7章詳細(xì)闡述了ChatGPT for Robotics的核心技術(shù)創(chuàng)新:它摒棄了傳統(tǒng)的分層控制架構(gòu),創(chuàng)造性地
    發(fā)表于 12-24 15:03

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+初品的體驗(yàn)

    提高機(jī)器人的自適應(yīng)性和自主性,賦能機(jī)器人在多種場(chǎng)景中的應(yīng)用。例如在家庭自動(dòng)化領(lǐng)域,具身智能機(jī)器人能夠感知家庭成員的日常習(xí)慣和需求,自動(dòng)執(zhí)行清潔、整理或其他家務(wù)任務(wù)。它們通過(guò)觀察家庭成員
    發(fā)表于 12-20 19:17

    構(gòu)建語(yǔ)音控制機(jī)器人 - 線性模型機(jī)器學(xué)習(xí)

    2024-07-31 |Annabel Ng 在該項(xiàng)目的[上一篇博客文章]中,我介紹了運(yùn)行機(jī)器人電機(jī)、處理音頻信號(hào)和調(diào)節(jié)電壓所需的電路的基礎(chǔ)知識(shí)。然而,機(jī)器人還沒(méi)有完全完成!盡管機(jī)器人
    的頭像 發(fā)表于 10-02 16:31 ?483次閱讀
    構(gòu)建語(yǔ)音控制<b class='flag-5'>機(jī)器人</b> - 線性<b class='flag-5'>模型</b>和<b class='flag-5'>機(jī)器</b>學(xué)習(xí)

    工業(yè)機(jī)器人常用的編程方式

    機(jī)器人完成特定的任務(wù)。編程可以手動(dòng)完成,也可以通過(guò)計(jì)算機(jī)輔助設(shè)計(jì)(CAD)軟件自動(dòng)生成。編程方式的選擇取決于任務(wù)的復(fù)雜性、機(jī)器人的類(lèi)型、以及所需的靈活性和效率。 1. 手動(dòng)編程 1.1
    的頭像 發(fā)表于 09-04 09:26 ?2069次閱讀

    Al大模型機(jī)器人

    金航標(biāo)kinghelm薩科微slkor總經(jīng)理宋仕強(qiáng)介紹說(shuō),薩科微Al大模型機(jī)器人有哪些的優(yōu)勢(shì)?薩科微AI大模型機(jī)器人由清華大學(xué)畢業(yè)的天才少年N博士和王博士團(tuán)隊(duì)開(kāi)發(fā),與同行相比具有許多優(yōu)
    發(fā)表于 07-05 08:52