女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用Isaac Gym 來強化學習mycobot 抓取任務

大象機器人科技 ? 來源:大象機器人科技 ? 作者:大象機器人科技 ? 2023-04-11 14:57 ? 次閱讀

我現在將介紹一個利用myCobot的實驗。這一次,實驗將使用模擬器而不是物理機器進行。當嘗試使用機器人進行深度強化學習時,在物理機器上準備大量訓練數據可能具有挑戰性。但是,使用模擬器,很容易收集大量數據集。然而,對于那些不熟悉它們的人來說,模擬器可能看起來令人生畏。因此,我們嘗試使用由 Nvidia 開發的 Isaac Gym,它使我們能夠實現從創建實驗環境到僅使用 Python 代碼進行強化學習的所有目標。在這篇文章中,我將介紹我們使用的方法。

1. 簡介

1.1 什么是Isaac Gym?

Isaac Gym是Nvidia為強化學習開發的物理模擬環境?;?OpenAI Gym 庫,物理計算在 GPU 上進行,結果可以作為 Pytorch GPU 張量接收,從而實現快速模擬和學習。物理模擬是使用 PhysX 進行的,它還支持使用 FleX 的軟體模擬(盡管使用 FleX 時某些功能受到限制)。

截至 2023 年 4 月的最新版本是預覽版 3。雖然早期版本有明顯的錯誤,但版本 6000 及更高版本已經看到了改進和添加功能,使其成為一個非常有吸引力的模擬環境。計劃與Isaac Sim集成的Omniverse Isaac Gym的未來版本。但是,Isaac Gym本身是獨立的,可用于Python中的實驗。在之前的博客文章(“GPU 服務器擴展和 A<> 基準測試”)中,提到使用 Omniverse Isaac 模擬器的研究和開發已經開始,但 Isaac Gym 被優先用于強化學習模擬。將Isaac Gym與Omniverse集成的最大好處可能是能夠使用逼真的視覺效果進行圖像識別和高精度連續身體模擬,例如光線追蹤??吹轿磥砣绾伟l展將是令人興奮的。

PhysX 是由 Nvidia 開發的物理引擎,可在模擬器的 GPU 上進行實時物理計算。雖然 Isaac Gym 使用的版本尚未在公開的 arXiv 或文檔中指定,但考慮到它的發布時間和與 FleX 的分離,它很可能基于 PhysX 4。在 Omniverse 中,使用 PhysX 5 并集成了 FleX。

FleX 也是 Nvidia 開發的物理引擎,但與 PhysX 的剛體模擬相比,它能夠使用基于粒子的模擬來表示軟體和流體。

1.2 本文的目的

我將告訴您我如何使用Isaac Gym輕松創建和學習強化學習任務。作為實際的測試用例

1.3 環境

PC1: Ubuntu 20.04, Python 3.8.10, Nvidia RTX A6000

PC2: Ubuntu 18.04, Python 3.8.0, Nvidia RTX 3060Ti

請注意,需要 Nvidia Driver 470 或更高版本。

2.安裝

在本章中,我們將安裝 Isaac Gym 和 IsaacGymEnvs。推薦環境為 Ubuntu 18.04、20.04、Python 3.6~3.8、Nvidia Driver==470。請注意,由于 python_requires<3.9 在 Isaac Gym 的 setup.py 中有描述,因此不能按 3.9 及更高版本的原樣使用。尚未在 Ubuntu 22.04 上進行測試,但可能沒問題。

2.1 Isaac Gym

您可以從 Nvidia的開發人員頁面免費下載Isaac Gym主軟件包。文檔以HTML格式保存在軟件包的“docs”目錄中(請注意,網站上沒有)。下載后,您可以使用以下命令安裝它:

$ cd isaacgym/python$ pip install -e .

但是,由于 PyTorch 被指定為“torch ==1.8.0”和“torchvision ==0.9.0”,因此在使用 GPU 時,您應該首先從與您的環境匹配的官方頁面安裝它。Docker 和 Conda 虛擬環境設置文件也可用。由于我使用 venv 來管理我的 Python 虛擬環境,所以我將繼續使用 pip。請注意,由于代碼塊問題,我用全角字符寫了“>”

2.2IsaacGymEnvs

IsaacGymEnvs是一個Python軟件包,用于在Isaac Gym中測試強化學習環境。通過參考實現的任務,可以使用 rl-games 中實現的強化學習算法輕松構建強化學習環境。即使對于那些計劃編寫自己的強化學習算法的人,也建議嘗試使用此軟件包與 Isaac Gym 一起學習。它最初包含在 Isaac Gym 中,在 Preview3 中分離出來,現在在 GitHub 上公開可用。

$ git clone https://github.com/NVIDIA-Omniverse/IsaacGymEnvs.git$ cd IsaacGymEnvs$ pip install –e .

這樣,必要的安裝現在就完成了。

3. 演示

當您安裝 Isaac Gym 并查看軟件包內部時,您會發現有許多示例環境可用。這些也出現在文檔中,但在本文中,我們將在第 4 章中重點介紹一些與創建自定義強化學習環境相關的示例。如果已設置環境,最好嘗試運行其中一些示例,看看它們可以執行哪些操作。您甚至可能會發現它們提供了有關如何使用 API 完成您有興趣嘗試的事情的一些指導(如果您仍然不確定,請隨時通讀文檔)。

3.1.Isaac Gym

截至預覽版 4,有 27 個示例環境可用。

● “1080_balls_of_solitude.py”

“1080_balls_of_solitude.py”腳本生成一組金字塔形的球,這些球會掉下來。在沒有選項的情況下運行腳本只允許同一環境(即在同一金字塔內)內球之間的碰撞?!?-all_collisions”選項允許與其他環境中的球發生碰撞,而“--no_collisions”選項可禁用同一環境中物體之間的碰撞。此腳本還演示如何配置“create_actor”函數的參數以將對象添加到環境中。

● “dof_controls.py”

該腳本具有一個以3D方式移動的Actor,這是OpenAI Gym中眾所周知的Cartpole問題的變體。它演示了如何為機器人的每個自由度 (DOF) 設置控制方法,可以是位置、速度或力。一旦設置,這些控制方法在模擬過程中無法更改,并且只能通過所選方法控制Actor。忘記設置這些控制方法可能會導致執行組件無法移動。

● “franka_nut_bolt_ik_osc.py”

這個腳本展示了Franka Robotics的多關節機器人手臂Panda拿起一個螺母并將其擰到螺栓上。手臂使用反向運動學(IK)進行控制。文件名包括“OSC”,但此腳本中未實現 OSC 控制。但是,腳本“franka_cube_ik_osc.py”包括 OSC 控制。

通過在預覽版 4 中添加 SDF 碰撞,可以加載高分辨率碰撞文件,從而可以在螺母和螺栓槽之間精確計算碰撞(圖 1)。雖然初始 SDF 加載可能需要一些時間,但后續加載會緩存并快速啟動。

poYBAGQ08u2AVMcpAAGwJQN8EOg569.png

圖 1:熊貓臂將螺母驅動到螺栓上的模擬

● interop_torch.py

此腳本演示如何使用函數get_camera_image_gpu_tensor直接從 GPU 上的相機獲取傳感器數據。獲得的數據可以使用OpenCV輸出為圖像文件,就像常規物理相機一樣。執行時,該腳本會創建一個名為 interop_images 的目錄,并將相機圖像保存在該目錄。由于仿真數據不在GPU和CPU之間交換,因此可以快速處理圖像。但是,如果使用多 GPU 環境,則可能會發生錯誤。論壇上建議的一種解決方案 是將 GPU 使用率限制為 CUDA_VISIBLE_DEVICES=0,但這在用于此腳本的環境中不起作用。

3.2.Isaac Gym環境

實現了 14 個強化學習任務,可以使用任務目錄中的腳本執行基準測試。

● 關于配置文件

為每個任務準備一個用 YAML 編寫的配置文件。常用設置位于 cfg 目錄的 config.yaml 中,可以使用 Hydra 使用命令行選項更改設置,而無需更改 YAML 文件。每個任務環境和 PhysX 的詳細設置都存儲在 cfg/task/ 目錄中,算法選擇和結構存儲在 cfg/train/ 目錄中。

● 關于算法實現

強化學習算法在Rl游戲中使用PPO實現。盡管 docs/rl_examples.md 提到了選擇 SAC 的選項,但它目前未包含在存儲庫中。

NN 層通常是 MLP,某些模型還包括 LSTM 層作為 RNN 層。盡管也可以添加 CNN 圖層,但沒有包含 CNN 圖層的示例模型。在第 5.2 節中,我們將討論將 CNN 層添加到模型的經驗。

示例代碼可以在 train.py 所在的 isaacgymenvs 目錄中執行。

● 卡特桿

python train.py task=Cartpole [options]

這是經典的推車任務,目標是以桿子不會掉落的方式移動推車。默認情況下,模型訓練 100 個 epoch,在 PC2 RTX 2Ti 環境中大約需要 3060 分鐘,在無外設模式下(沒有查看器)只需要 15 秒。當使用推理測試模型時,它表現良好,桿子保持直立(經過 30 個時期的訓練后,模型經過足夠的訓練以保持極點直立)。雖然看起來很簡單,但模型可以學習成功完成此任務的事實令人放心。

● 弗蘭卡立方體堆棧

python train.py task=FrankaCubeStack [options]

這是一項使用熊貓手臂堆疊盒子的任務。7軸臂的關節運動是一步一步學習的。默認設置為 10, 000 個紀元,但手臂運動可以在大約 1, 000 個紀元內學習。在 PC1 RTX A6000 環境中,完成 1, 000 個時期的訓練大約需要 20-30 分鐘。圖 2 和圖 3 顯示了手臂的前后狀態,從隨機移動到成功抓取和堆疊盒子。

動作空間由手臂關節的 7 個維度組成,而觀察空間共有 26 個維度。獎勵函數旨在針對涉及靠近盒子、抬起盒子、將盒子彼此靠近以及成功完成堆疊任務的操作進行不同的縮放。

令人驚訝的是,手臂可以如此容易地學習這種級別的任務。但是,請務必注意,學習假定定義的世界坐標系以及對象的已知位置和方向。因此,將這種學習行為應用于物理機器人可能并不那么簡單。

26維觀測細分:

● 7 個尺寸,用于移動盒子的位置和方向

● 從被堆疊的盒子到被移動的盒子的矢量的 3 個維度

● 7 種尺寸,用于夾持器的抓取位置和方向

● 9 種尺寸的手臂關節和抓手手指

poYBAGQ09fCAA1YyAAd6Ggd8vFU776.png

圖 2:訓練前的 FrankaCubeStack

pYYBAGQ09gmATzVGAAfIfRfljXQ812.png

圖 3:訓練后的 FrankaCubeStack

train.py 中的一些常見選項包括:

● 無頭(默認值:假):設置為 True 時,不會啟動查看器。這對于繁重的訓練或捕獲相機圖像時非常有用,因為觀看者可能會顯著減慢該過程。

● 測試(默認值:False):設置為 True 時,學習模式將關閉,允許您無需訓練即可運行環境。這對于生成環境和檢查學習結果很有用。

● 檢查點(默認:“):指定要加載的 PyTorch 權重文件。學習結果保存在 runs//nn/.pth 中,此選項用于恢復訓練或測試。

● num_envs(默認:int):指定并行學習環境的數量。設置適當的數字以避免在測試期間出現大量查看器非常重要(此選項也可以在訓練期間設置,但更改它可能會導致由于批量大小和干擾而導致錯誤)。

請注意,train.py 配置horizon_length和minibatch_size,但batch_size = horizon_length * num_actors * num_agents,并且batch_size必須能被minibatch_size整除。此外,num_actors 和num_agents與num_envs成正比,因此僅更改num_envs可能會導致錯誤。

其他樣本可以在環境中輕松嘗試,因此請嘗試一些有趣的測試。

3.3 查看器提示

● 繪制碰撞網格

模擬器通常會渲染對象的視覺網格,但在 Isaac Gym 的查看器中,您可以更改它以渲染碰撞網格體。為此,請轉到菜單窗口中的查看器選項卡,然后選中“渲染碰撞網格”。如果對象行為異常,最好檢查碰撞網格是否正確加載(有時視覺網格和碰撞網格具有不同的方向,或者網格可能未正確加載或在模擬器中沒有足夠的細節)。

poYBAGQ09iyAEffNAABZGWXFoJY924.png

圖 4:繪制碰撞網格

● 減少繪圖環境

您可以將渲染環境減少到只有一個,而無需更改任何設置。通過在 Actor 菜單中選中“僅顯示選定的環境”(如圖 5 所示),將僅顯示選定的環境。如果有任何奇怪的行為,可以通過輸出環境編號并僅呈現該環境來進行調試。這也減輕了渲染負載,并可以提高 FPS。

pYYBAGQ09kKAWUc0AABkzTlR6cY267.png

圖 5:對繪圖環境進行編號

● 更改初始相機位置

初始相機位置和方向可以使用 gymapi 的viewer_camera_look_at(查看器、middle_env、cam_pos、cam_target)進行設置。在用于訓練的任務腳本中,需要重寫 set_viewer 函數才能進行更改。

4. 原始環境和任務創建

終于到了為主要主題創建原始任務的時候了。

4.1. 準備

準備腳本和配置文件。目標是學習一個簡單的任務,使用Mycobot進行物體拾取。因此,我們將繼續創建一個名為“MycobotPicking”的任務。我們需要三個文件:

● 任務:主 Python 腳本

● cfg/task:環境和模擬參數的 YAML 配置文件

● cfg/train:用于學習算法、神經網絡層和參數的 YAML 配置文件。

我們可以參考前面提到的“FrankaCubeStack”任務并相應地創建這些文件。配置文件特別重要,我們可以根據自己的要求復制和修改它們。

如演示所示,我們可以使用命令行選項從 train.py 文件加載任務腳本。因此,我們需要在 tasks 目錄的 init.py 文件中為 task 類添加一個 import 語句,并在傳遞參數時添加任務名稱。

4.2. 環境創建

任務類是通過繼承任務/基目錄中的 VecTask 類創建的,任務具有以下結構,如圖 6 所示。

pYYBAGQ09mmAM_idAAIYDAptQek744.png

圖 6:任務配置。帶有橙色框的那些不需要編輯,并且為每個任務創建帶有綠色框的那些。

4.2.1. __init__處理

1. 創建模擬器和環境

● create_sim:此函數生成模擬器的實例。過程本身在父類中定義,屬性在配置文件中設置,例如重力和步長時間。與FrankaCubeStack類似,該函數使用以下兩個函數來生成接地平面和執行組件。

● create_ground_plane:此功能通過輸入平面的法線方向生成接地平面。如果要創建不平坦的地形,可以參考terrain_creation示例。

● create_envs:此函數加載并設置角色文件的屬性,生成執行組件并并行化環境。在這個任務中,我們從URDF生成了myCobot,從create_box API生成了目標對象。myCobot 的 URDF 基于之前使用 MoveIt 實驗中使用的 URDF,我們添加了一個用于揀選的抓手(有關抓手的詳細信息在第 5.1 節中解釋)。

2. 數據初始化

● init_data:此函數從配置文件定義環境變量,并為 Isaac Gym (PhysX) 處理的數據張量準備緩沖區。計算狀態和獎勵的必要數據定義為類變量。API 將張量數據加載到緩沖區中,緩沖區通過調用相應的刷新函數每一步更新一次。

4.2.2. 處理步驟

1. 分步處理:

主步驟函數在父類中定義,不需要修改。但是,以下兩個步驟作為抽象方法是必需的:

● pre_physics_step:使用動作操縱演員。操作的大小在配置中定義為 [“env”][“numActions”]。對于myCobot的6軸臂和夾持器,我們將其設置為7維。

● post_physics_step:計算觀察結果和獎勵。還要檢查是否重置環境。我們將其設置為在達到最大 500 步或成功提升后重置。

固定步序,應用物理模擬→→觀察獎勵計算的動作,傳遞數據進行學習。即使您在這里只寫“pass”,也可以在啟動查看器時檢查環境。

● reset_idx:將環境返回到其初始狀態。當然,初始狀態的隨機性與學習的泛化密切相關。我們將myCobot設置為初始姿勢,并隨機重置目標對象在myCobot可到達范圍內的位置。

2. 狀態和獎勵計算:

● compute_observation:使用刷新功能更新每個緩沖區,并將所需的狀態放入obs_buf。obs_buf的大小在配置中定義為 [“env”][“numObservation”]。

● compute_reward:計算獎勵。當抓手接近目標物體的抓握位置(手指之間)時,獲得獎勵,并且隨著目標物體高度的增加而獲得更大的獎勵。

4.3. 培訓的執行

現在任務框架已創建,讓我們訓練模型。我們可以使用以下命令開始訓練模型:

python train.py task=MycobotPicking --headless

200 個 epoch 后,將保存初始權重,如果獎勵提高,將保存新的權重。但是,我們創建的任務可能無法完美運行,訓練過程可能會停止快速進行。在下一節中,我將討論我對任務所做的調整,以提高其性能。

4.4. 任務協調

通過使用學習的權重進行測試,您可以調試訓練效果不佳的原因。您運行了命令

python train.py task=MycobotPicking test=True checkpoint=runs/MycobotPicking/nn/[checkpoint].pth

以測試模型。但是,您遇到了夾持器移動不佳的問題。盡管您努力解決問題,但您得出的結論是 URDF 不支持閉環結構,因此難以準確模擬夾持器的運動。因此,您決定使用基于規則的方法來控制夾持器的關閉和提升動作。您將夾持器的手指固定在固定鏈接上,并將操作空間從 7 個維度減少到 6 個維度。您還注意到,在使用模擬器控制機器人手臂時,最好使用沒有閉環的抓手,例如熊貓手臂。

您面臨的另一個問題是,代理在一定距離處停止接近物體并猶豫是否觸摸它,從而導致獎勵降低。您修改了獎勵系統,方法是使用閾值距離作為階躍函數增加獎勵函數的值,從而在代理到達目標點時最大化獎勵。您還刪除了任務完成后的環境重置,因為它會導致代理在達到實際目標之前停止學習。相反,您將最大步驟數調整為任務完成所需的數量,從而提高了學習速度。

你還發現,過于嚴厲地懲罰困難的任務會使強化學習代理過于保守。這給了智能體更像人類的個性,使學習過程更加有趣。最后,您在 FrankaCabinet 基準測試任務中遇到了類似的現象,即代理在將抽屜拉到一定距離后會停止學習,即使完全拉出抽屜可以獲得更高的獎勵。您沒有解決此問題,而是刪除了任務完成后的環境重置,并調整了最大步驟數以順利完成任務。

poYBAGQ1A4GALreQAA8dxxeMHSA754.png

圖 7:myCobot 遠離物體

手臂的自相撞被忽略了。雖然我能夠到達所需的位置,但手臂現在處于完全忽略自碰撞的位置,就像八字形一樣。我試圖研究是否可以在文檔中設置自碰撞計算,但它效果不佳。首先,將提供的URDF中的所有關節角度限制都設置為-3.14~3.14是不現實的,因此我決定調整每個關節角度的上限和下限以避免自碰撞。關節角度移動到最大可能值的原因仍然未知。

poYBAGQ1A5yAZ9c-AAkCoZKqQoA485.png

圖8:忽略事故碰撞的myCobot

手臂并沒有完全停在它應該停的地方,而是在它周圍搖擺。我們希望動作在到達目標位置時接近 0,但很難實現,并且手臂在目標位置周圍不斷振動。我們嘗試通過精確設置目標位置來懲罰動作并調整獎勵,但這并沒有改善結果。我們決定不擔心這個問題,因為它可以在實際操作中由基于規則的控制來處理。

雖然這不是必備品,但我們希望抓手朝下以獲得更好的外觀。因此,我們在獎勵函數中添加了一個懲罰項,用于懲罰抓手角度。圖 9 顯示了微調之前的學習結果。

poYBAGQ1A9WAFPwVABeqkpWsyJg202.png

圖 9:在微調之前學習后的 MyCobot

上述調整的結果如圖 10 所示。如果可以在實際機器人上達到這種精度水平,它應該能夠充分提升物體。

poYBAGQ1BAeAbKJUABTId2OaPZ0135.png

圖 10:微調后訓練后的 MyCobot

5. 其他

我將介紹不好的故事和我想嘗試的故事。

5.1. 自制 URDF 抓手不起作用的故事

myCobot的URDF基于之前嘗試移動實際機器人時使用的URDF,但它不包括夾持器。盡管在官方 GitHub 頁面上有一個抓手模型,但它只提供了一個帶有可視化表示的 DAE 文件,如圖 11(a) 所示。要創建可在模擬器中使用的 URDF,需要為每個關節部件提供單獨的 3D 模型。因此,使用Blender,我們按關節劃分零件(圖11(c)),并創建了簡化的箱形碰撞零件,因為很難重現復雜的形狀(圖11(b))。然后,我們在 URDF 文件中描述了鏈接和關節的結構以完成模型。但是,由于URDF不支持具有開放式鏈接結構的模型,因此我們從底座上的一個鏈接中移除了碰撞,并用指尖側完成了連接。雖然這種方法很粗糙,但我們能夠通過以相同角度移動六個關節來重現模擬器中實際機器人的運動。圖11(d)顯示了完成的模型和實際機器人之間的比較(使用提供的模型,但細節完全不同)。但是,當我們實際嘗試移動它時,如第 4.4 節所述,它的效果不佳。原因是在施加外力時無法協調地移動接頭(如果正確實施扭矩控制,則可能已經解決)。

poYBAGQ1BCaAF8H8AAHe2wRqYfA804.png

圖 11:為 myCobot 創建夾持器 (a) 已發布的夾持器模型 (b) 根據模型創建的碰撞模型零件 (c) 從夾持器模型拆卸的視覺模型部件 (d) 艾薩克健身房 圖紙和實際夾持器的比較

5.2. 使用圖像識別

在基準測試和MycobotPicking任務中,我們在觀察中使用對象位置和方向信息,但在實際任務中獲取這些信息并不容易。因此,僅使用2D相機信息和易于獲取的伺服關節角度信息進行強化學習將更有價值。

我們試圖用圖像替換觀察結果,并在FrankaCubeStack任務中使用CNN層進行學習。但是,我們只修改了算法以接受圖像輸入,并且正如預期的那樣,學習效果不佳。沒有框架將伺服關節角度信息作為一維數據添加到CNN層,直接在CNN層中使用圖像信息增加了計算復雜度,限制了環境的并行化。此外,我們需要調整超參數,如學習率和剪輯值,但我們沒有追求這一點,因為效果不夠有希望。

在這個測試中,我們只確認了添加CNN層進行學習的方法。但是,使用遷移學習對來自易于使用的對象識別模型(如 YOLO 或 ResNet)的抓手和對象識別的特征進行編碼,然后使用編碼的特征和關節角度進行強化學習,而不是直接將 CNN 層與相機圖像一起使用,可能更有效。

5.3. 在實際機器人上使用訓練模型

如上一篇文章所述,我嘗試使用經過訓練的模型以及myCobot和RealSense進行空間識別的Sim2Real實驗。但是,它的效果并不好。雖然伸展運動在一定程度上起作用,但運動在接近物體時變得不穩定,并且無法準確地移動到抓住物體的位置??赡艿膯栴}包括myCobot沒有足夠的能力來準確移動到目標姿勢,以及由于模擬器在到達當前目標姿勢之前預測下一個目標姿勢而實際機器人沒有,因此積累了微小的差異。關于前者,本實驗中使用的myCobot是一種廉價的教育手臂,便攜式重量為250g,因此,如果您想更準確地移動,則應使用更高端的機器人手臂,例如用于強化學習的機器人手臂進行拾取。制造myCobot的公司Elephantrobotics也銷售具有更強伺服電機的型號,可以承載高達1公斤的重量,所以我也想嘗試一下。

6. 總結

這一次,我使用 Isaac Gym 創建了一個強化學習任務,并實際訓練了模型。我在 3D 物理模擬器中體驗了機器人強化學習問題的設計以及運行訓練模型時出現的問題。能夠測試學習環境而不必從頭開始編寫強化學習算法很有吸引力?;鶞虱h境的可用性使得比較和驗證新的學習算法變得容易,這對于具有各種專業背景的研究人員和分析師來說是一個很大的優勢。

ALBERT擁有具有各種專業背景的研究人員和分析師,他們隨時準備協助任何技術或業務相關的查詢。請隨時與我們聯系。

審核編輯黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    213

    文章

    29435

    瀏覽量

    211394
  • NVIDIA
    +關注

    關注

    14

    文章

    5231

    瀏覽量

    105711
  • 大象機器人
    +關注

    關注

    0

    文章

    85

    瀏覽量

    66
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    什么是深度強化學習?深度強化學習算法應用分析

    什么是深度強化學習? 眾所周知,人類擅長解決各種挑戰性的問題,從低級的運動控制(如:步行、跑步、打網球)到高級的認知任務。
    發表于 07-01 10:29 ?1801次閱讀
    什么是深度<b class='flag-5'>強化學習</b>?深度<b class='flag-5'>強化學習</b>算法應用分析

    反向強化學習的思路

    強化學習的另一種策略(二)
    發表于 04-03 12:10

    深度強化學習實戰

    測試)三、主講內容1:課程一、強化學習簡介課程二、強化學習基礎課程三、深度強化學習基礎課程四、多智能體深度強化學習課程五、多任務深度
    發表于 01-10 13:42

    深度學習技術的開發與應用

    /A2C6.DDPG7.PPO8.SAC1.深度強化學習訓練場-OpenAI Gym 安裝與使用2.Pytorch安裝與使用3.自動駕駛賽車任務4.月球飛船降落任務實操解析與訓練一實驗
    發表于 04-21 14:57

    強化學習在RoboCup帶球任務中的應用劉飛

    強化學習在RoboCup帶球任務中的應用_劉飛
    發表于 03-14 08:00 ?0次下載

    將深度學習強化學習相結合的深度強化學習DRL

    深度強化學習DRL自提出以來, 已在理論和應用方面均取得了顯著的成果。尤其是谷歌DeepMind團隊基于深度強化學習DRL研發的AlphaGo,將深度強化學習DRL成推上新的熱點和高度,成為人工智能歷史上一個新的里程碑。因此,深
    發表于 06-29 18:36 ?2.8w次閱讀

    人工智能機器學習強化學習

    強化學習是智能系統從環境到行為映射的學習,以使獎勵信號(強化信號)函數值最大,強化學習不同于連接主義學習中的監督
    發表于 05-30 06:53 ?1507次閱讀

    什么是強化學習?純強化學習有意義嗎?強化學習有什么的致命缺陷?

    強化學習是人工智能基本的子領域之一,在強化學習的框架中,智能體通過與環境互動,學習采取何種動作能使其在給定環境中的長期獎勵最大化,就像在上述的棋盤游戲寓言中,你通過與棋盤的互動
    的頭像 發表于 07-15 10:56 ?1.8w次閱讀
    什么是<b class='flag-5'>強化學習</b>?純<b class='flag-5'>強化學習</b>有意義嗎?<b class='flag-5'>強化學習</b>有什么的致命缺陷?

    如何構建強化學習模型訓練無人車算法

    本文作者通過簡單的方式構建了強化學習模型訓練無人車算法,可以為初學者提供快速入門的經驗。
    的頭像 發表于 11-12 14:47 ?5064次閱讀

    如何使用深度強化學習進行機械臂視覺抓取控制的優化方法概述

    針對提高視覺圖像特征與優化控制之間契合度的問題,本文提出一種基于深度強化學習的機械臂視覺抓取控制優化方法,可以自主地從與環境交互產生的視覺圖像中不斷學習特征提取,直接地將提取的特征應用于機械臂
    發表于 12-19 15:23 ?22次下載
    如何使用深度<b class='flag-5'>強化學習</b>進行機械臂視覺<b class='flag-5'>抓取</b>控制的優化方法概述

    對NAS任務強化學習的效率進行深入思考

    在一些情況下,我們會用策略函數(policy, 總得分,也就是搭建的網絡在測試集上的精度(accuracy),通過強化學習(Reinforcement Learning)這種通用黑盒算法優化。然而,因為強化學習本身具有數據利用
    的頭像 發表于 01-28 09:54 ?5287次閱讀

    強化學習在智能對話上的應用介紹

    本文主要介紹深度強化學習任務型對話上的應用,兩者的結合點主要是將深度強化學習應用于任務型對話的策略學習上來源:騰訊技術工程微信號
    的頭像 發表于 12-10 19:02 ?1215次閱讀

    基于深度強化學習的視覺反饋機械臂抓取系統

    機械臂抓取擺放及堆疊物體是智能工廠流水線上常見的工序,可以有效的提升生產效率,本文針對機械臂的抓取擺放、抓取堆疊等常見任務,結合深度強化學習
    的頭像 發表于 06-12 11:25 ?3347次閱讀
    基于深度<b class='flag-5'>強化學習</b>的視覺反饋機械臂<b class='flag-5'>抓取</b>系統

    NeurIPS 2023 | 擴散模型解決多任務強化學習問題

    擴散模型(diffusion model)在 CV 領域甚至 NLP 領域都已經有了令人印象深刻的表現。最近的一些工作開始將 diffusion model 用于強化學習(RL)中解決序列決策問題
    的頭像 發表于 10-02 10:45 ?1164次閱讀
    NeurIPS 2023 | 擴散模型解決多<b class='flag-5'>任務</b><b class='flag-5'>強化學習</b>問題

    如何使用 PyTorch 進行強化學習

    強化學習(Reinforcement Learning, RL)是一種機器學習方法,它通過與環境的交互學習如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源機器
    的頭像 發表于 11-05 17:34 ?887次閱讀