今天和大家分享Reddit上的一個(gè)熱帖,樓主用PyTorch實(shí)現(xiàn)了基本的RL算法,而且每個(gè)算法都在一個(gè)文件夾中完成,即使沒有GPU,每個(gè)算法也可以在30秒內(nèi)完成訓(xùn)練。
近日,有開發(fā)人員用PyTorch實(shí)現(xiàn)了基本的RL算法,比如REINFORCE, vanilla actor-critic, DDPG, A3C, DQN 和PPO。這個(gè)帖子在Reddit論壇上獲得了195個(gè)贊并引發(fā)了熱議,一起來看一下吧。
特點(diǎn)如下:
每個(gè)算法都在一個(gè)文件中完成。
每個(gè)算法的長度可達(dá)100~150行代碼。
即使沒有GPU,每個(gè)算法也可以在30秒內(nèi)完成訓(xùn)練。
Envs固定在“CartPole-v1”上,你只需關(guān)注執(zhí)行。
minimalRL-pytorch算法:
1. REINFORCE(66行)
2. TD Actor-Critic(97行)
3. DQN(113行,包括重放內(nèi)存和目標(biāo)網(wǎng)絡(luò))
4. PPO(116行,包括GAE)
5. DDPG(149行,包括OU噪聲和軟目標(biāo)更新)
6. A3C(116行)
7. 有什么建議嗎?
依賴配置:
1. PyTorch
2. OpenAI GYM
使用:
# Works only with Python 3.#e.g.python3REINFORCE.pypython3actor_critic.pypython3dqn.pypython3ppo.pypython3ddpg.pypython3 a3c.py
評(píng)論中,不少朋友表示了對(duì)樓主的認(rèn)可和感謝:
Dump7留言:“可以!這是我見過的最美的東西之一。我不是一個(gè)能用框架編寫NN的人。但我正在努力。這將在很大程度上幫助到我。謝謝你做了這個(gè)。但是你能為基本的CNN和RNN制作這樣的單一文件代碼嗎?”
CodeReclaimers表示:“謝謝你分享這個(gè)——我知道把代碼簡化到最少是很費(fèi)事的。特別好的是,你的代碼將依賴配置控制在最低限度。通常都是,我去尋找可以學(xué)習(xí)的例子,要花至少30多分鐘來收集所有依賴配置,結(jié)果發(fā)現(xiàn)我的平臺(tái)上少了一些關(guān)鍵的東西。”
Reddit上的討論:
https://www.reddit.com/r/MachineLearning/comments/bt8sap/p_implementations_of_basic_rl_algorithms_with/
Github資源:
https://github.com/seungeunrho/minimalRL
-
算法
+關(guān)注
關(guān)注
23文章
4695瀏覽量
94647 -
代碼
+關(guān)注
關(guān)注
30文章
4886瀏覽量
70216 -
pytorch
+關(guān)注
關(guān)注
2文章
809瀏覽量
13754
原文標(biāo)題:6行代碼搞定基本的RL算法,速度圍觀Reddit高贊帖
文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
利用Arm Kleidi技術(shù)實(shí)現(xiàn)PyTorch優(yōu)化

PyTorch 2.5.1: Bugs修復(fù)版發(fā)布

評(píng)論