根據(jù)密歇根大學(xué)的研究,機(jī)器人可以通過(guò)學(xué)習(xí)房屋周?chē)煌矬w之間的關(guān)系來(lái)學(xué)習(xí)如何更快地找到事物。在本文的一個(gè)示例中,一種新模型為機(jī)器人提供了視覺(jué)搜索策略,可以指導(dǎo)機(jī)器人在已經(jīng)看到冰箱的情況下尋找附近的咖啡壺。
這項(xiàng)工作由Chad Jenkins教授和CSE博士領(lǐng)導(dǎo)。學(xué)生Zeng Zeng在2020年機(jī)器人技術(shù)與自動(dòng)化國(guó)際會(huì)議上被授予認(rèn)知機(jī)器人技術(shù)最佳論文獎(jiǎng)。
機(jī)器人專(zhuān)家的共同目標(biāo)是使機(jī)器具有在現(xiàn)實(shí)環(huán)境中導(dǎo)航的能力,例如,我們所生活的無(wú)序,不完善的家庭。這些環(huán)境可能是混亂的,沒(méi)有兩個(gè)完全相同,并且機(jī)器人會(huì)尋找特定的環(huán)境。他們從未見(jiàn)過(guò)的物體需要將它們從噪音中剔除。
“能夠有效地在環(huán)境中搜索對(duì)象對(duì)于服務(wù)機(jī)器人自主地執(zhí)行任務(wù)至關(guān)重要,” Zeng說(shuō)。“我們提供了一種實(shí)用的方法,使機(jī)器人能夠在復(fù)雜的環(huán)境中主動(dòng)搜索目標(biāo)對(duì)象。”
但是房屋并沒(méi)有完全混亂。我們圍繞不同類(lèi)型的活動(dòng)組織空間,通常將某些組的項(xiàng)目存儲(chǔ)或安裝在彼此附近。廚房通常裝有我們的烤箱,冰箱,微波爐和其他小型烹飪用具;臥室將有我們的梳妝臺(tái),床和床頭柜;等等。
Zeng和Jenkins提出了一種利用這些常見(jiàn)空間關(guān)系的方法。他們的“ SLiM”(語(yǔ)義鏈接圖)模型將機(jī)器人內(nèi)存中的某些“地標(biāo)對(duì)象”與其他相關(guān)對(duì)象以及有關(guān)通常如何在空間上定位的數(shù)據(jù)相關(guān)聯(lián)。他們使用SLiM來(lái)考慮目標(biāo)對(duì)象和地標(biāo)對(duì)象的多個(gè)功能,以便使機(jī)器人對(duì)在環(huán)境中如何布置事物有更全面的了解。
他們寫(xiě)道:“當(dāng)被問(wèn)到可以在哪里找到目標(biāo)物體時(shí),人類(lèi)能夠給出相對(duì)于其他物體的空間關(guān)系所表示的假設(shè)位置。” “機(jī)器人應(yīng)該能夠?qū)ξ矬w的位置做出類(lèi)似的推理。”
該模型不僅是不同對(duì)象之間通常有多近的硬編碼-從一天到另一天環(huán)顧一個(gè)房間,您肯定會(huì)看到足夠的更改以快速使此工作徒勞。相反,SLiM會(huì)考慮對(duì)象位置的不確定性。
作者在論文中對(duì)該項(xiàng)目進(jìn)行了解釋?zhuān)骸耙郧暗淖髌芳俣ǖ貥?biāo)物體是靜態(tài)的,因?yàn)樗鼈兇蠖啾A粼谏洗斡^察到的位置。” 為了克服這一限制,研究人員使用了一種因子圖(一種表示概率分布的特殊圖)來(lái)概率地建模不同對(duì)象之間的關(guān)系。
了解了可能存在的拖曳對(duì)象關(guān)系后,SLiM指導(dǎo)機(jī)器人探索可能包含目標(biāo)或地標(biāo)對(duì)象的有希望的區(qū)域。這種搜索方法基于以前的發(fā)現(xiàn),這些發(fā)現(xiàn)表明首先定位地標(biāo)(間接搜索)比簡(jiǎn)單地尋找目標(biāo)(直接搜索)要快。詹金斯(Zenkins)和曾(Zeng)使用的模型是兩者的混合體。
圖片來(lái)源:密歇根大學(xué)
在實(shí)驗(yàn)中,該團(tuán)隊(duì)在相同的模擬環(huán)境中測(cè)試了五個(gè)不同搜索模型的性能。一種是天真的直接搜索,不了解對(duì)象的空間關(guān)系,而其余四個(gè)則使用SLiM的空間映射結(jié)合不同的搜索策略或起始優(yōu)勢(shì):
使用已知的先前位置直接搜索目標(biāo),但不考慮對(duì)象可能已移動(dòng)的任何可能性
使用已知的先前位置直接搜索目標(biāo),該目標(biāo)說(shuō)明了對(duì)象可能已移動(dòng)的可能性
直接搜索,無(wú)需事先知道對(duì)象的位置
混合搜索,無(wú)需事先了解對(duì)象的位置。
最后,SLiM與混合搜索相結(jié)合成功地在每個(gè)測(cè)試中找到了路線最直接,搜索時(shí)間最少的目標(biāo)對(duì)象。
這項(xiàng)工作發(fā)表在論文“用于主動(dòng)視覺(jué)對(duì)象搜索的語(yǔ)義鏈接圖”中。
-
機(jī)器人
+關(guān)注
關(guān)注
213文章
29615瀏覽量
212195 -
自動(dòng)化
+關(guān)注
關(guān)注
29文章
5763瀏覽量
82714
發(fā)布評(píng)論請(qǐng)先 登錄
詳細(xì)介紹機(jī)場(chǎng)智能指路機(jī)器人的工作原理
【「# ROS 2智能機(jī)器人開(kāi)發(fā)實(shí)踐」閱讀體驗(yàn)】視覺(jué)實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用
【「# ROS 2智能機(jī)器人開(kāi)發(fā)實(shí)踐」閱讀體驗(yàn)】機(jī)器人入門(mén)的引路書(shū)
【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人的基礎(chǔ)模塊
【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+兩本互為支持的書(shū)
【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.全書(shū)概覽與第一章學(xué)習(xí)
《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型
【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+初品的體驗(yàn)
使用機(jī)器學(xué)習(xí)和NVIDIA Jetson邊緣AI和機(jī)器人平臺(tái)打造機(jī)器人導(dǎo)盲犬
具身智能與機(jī)器學(xué)習(xí)的關(guān)系
機(jī)器人技術(shù)的發(fā)展趨勢(shì)
AI大模型與深度學(xué)習(xí)的關(guān)系
構(gòu)建語(yǔ)音控制機(jī)器人 - 線性模型和機(jī)器學(xué)習(xí)

評(píng)論