女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

強化學習中泛化的對比性行為相似性嵌入向量

Tensorflowers ? 來源:TensorFlow ? 作者:TensorFlow ? 2021-11-02 10:05 ? 次閱讀

強化學習 (RL) 是一種順序決策范例,用于訓練智能體來處理復雜的任務,例如機器人運動、玩視頻游戲、放飛平流層氣球以及設計硬件芯片等。

放飛平流層氣球

http://rdcu.be/cbBRc

玩視頻游戲

https://ai.googleblog.com/2020/04/an-optimistic-perspective-on-offline.html

雖然 RL 智能體已經在各種活動任務中呈現出很好的結果,但很難將這些智能體的能力轉移到新的任務中,即便這些任務在語義層面上是等同的。例如,在跳躍任務中,智能體需要從圖像觀察中學習如何跳過一個障礙物。在用于訓練 Deep RL 智能體的一些任務中,障礙物位置是變化的,此時若障礙出現在先前沒有見過的位置上,則這類智能體很難成功地躍過。

跳躍任務:智能體(白塊),從像素中學習如何跳過一個障礙物(灰色方塊)。本任務的挑戰在于,如何在測試任務中使用少量的訓練任務來泛化未見過的障礙物位置和離地高度。在指定的任務中,智能體需要在離障礙物一定距離時準確地確定跳躍的時間,否則會撞到障礙物

在發表于 ICLR 2021 的“強化學習中泛化的對比性行為相似性嵌入向量 (Contrastive Behavioral Similarity Embeddings for Generalization in Reinforcement Learning)”一文中,我們將 RL 中固有的順序結構納入表征學習過程,以增強對未見過的任務的泛化。這與之前的主流方法不同,主流方法通常是由監督學習 (Supervised learning) 改編而來,因此在很大程度上忽略了這里提及的順序方面。而我們的方法則利用了這樣一個事實:智能體在具有相似根本方法的任務中進行操作時,至少會在這些任務中表現出類似的短序列性的行為。

強化學習中泛化的對比性行為相似性嵌入向量

https://agarwl.github.io/pse/

之前關于泛化的研究通常是由監督學習改編而來,并主要圍繞加強學習過程。這些方法很少利用序列方面的屬性,例如時間觀察中操作的相似性

我們的方法是訓練智能體學習一種表征,智能體在某些狀態下的最佳行為和未來狀態接近時,這些狀態就是相似的。這種接近的概念,我們稱之為行為相似性,可以泛化至不同任務中的觀察結果。為了衡量不同任務的狀態之間的行為相似性(例如,跳躍任務中不同的障礙物位置),我們引入了策略相似性指標(PSM),這是一個在理論層面驅動的狀態相似性指標,受互模擬的啟發而成。例如下圖所示,智能體在兩個視覺上不同的狀態下,未來操作是相同的,因此,根據 PSM,這些狀態就是相似的。

互模擬

https://arxiv.org/pdf/1207.4114.pdf

了解行為相似性。智能體(藍色圖標)需要在遠離危險圖標的情況下取得獎勵。即便初始狀態在視覺上是不同的,但就其在當前狀態以及緊接著的未來狀態下的最佳行為而言,它們是相似的。策略相似性指標 (PSM) 將高相似度分配給這種行為上相似的狀態,將低相似度分配給不相似的狀態

為了提升泛化程度,我們的方法學習了狀態嵌入向量,對應基于神經網絡的任務狀態表征,將行為上相似的狀態聚集在一起(如上圖),同時將行為上不相似的狀態分開。為此,我們提出了對比性指標嵌入向量(CMEs),利用對比性學習的優勢來學習基于狀態相似性指標的表征。我們將對比性嵌入向量與策略相似性指標 (PSM) 進行實例化,用來學習策略相似性嵌入向量(PSEs)。PSEs 將相似的表征分配給在這些狀態和未來狀態下具有相似行為的狀態,如上圖所示的兩個初始狀態。

如下列結果所示,PSEs 顯著增強了前面提到的從像素學習的跳躍任務的泛化能力,其表現優于先前的方法。

從像素學習的跳躍任務

https://github.com/google-research/jumping-task

網格配置
方法 “寬” “窄” “隨機”
正則化 17.2 (2.2) 10.2 (4.6) 9.3 (5.4)
PSEs 33.6(10.0) 9.3 (5.3) 37.7(10.4)
數據增強 50.7 (24.2) 33.7 (11.8) 71.3 (15.6)
數據增強 + 互模擬 41.4 (17.6) 17.4 (6.7) 33.4 (15.6)
數據增強 +PSEs 87.0(10.1) 52.4(5.8) 83.4(10.1)

跳躍任務結果:在有數據增強和無數據增強的情況下,不同方法解決的測試任務比例 (%)。下圖顯示了“寬”、“窄”和“隨機”網格的配置,包含 18 個訓練任務和 268 個測試任務。我們報告了不同隨機初始化 100 次運行的平均性能,括號內為標準差

正則化

https://arxiv.org/abs/1810.00123

數據增強

https://arxiv.org/abs/1910.05396

互模擬

https://arxiv.org/abs/2006.10742

跳躍任務網格配置:不同配置下帶有數據增強的 PSEs 平均性能的可視化。對于每種網格配置,高度沿 Y 軸變化(11 個高度),而障礙物位置沿 X 軸變化(26 個位置)。紅色字母 T 表示訓練任務。米色方塊是 PSEs 解決的任務,而黑色方塊是未解決的任務,均在有數據增強的情況下進行

我們還對 PSEs 和基線方法學到的表征進行了可視化,通過 UMAP 將它們投射到 2D 點上,這是一種常用的高維度數據可視化技術。如可視化圖像所示,PSEs 將行為上相似的狀態聚集在一起,而將不相似的狀態分開,這與之前的方法不同。此外,PSEs 將狀態分為兩組:(1) 跳躍前的所有狀態;(2) 操作不影響結果的狀態(跳躍后的狀態)。

UMAP

https://pair-code.github.io/understanding-umap/

將已學習的表征可視化。(a) 障礙物位置不同的情況下,跳躍任務(彩色方塊)的最佳軌跡。具有相同數字標簽的點表示智能體與障礙物距離相同,這是在各種跳躍任務中作為基礎的最佳不變特征。(b-d) 我們用 UMAP 可視化隱藏的表征,其中點的顏色表示相應觀察的任務。(b) PSEs 捕捉到了正確的不變特征,如圖所示,具有相同數字標簽的點被聚集在了一起。也就是說,在跳躍操作(編號為 2 的方塊)之后,所有其他操作(無編號方塊)都是相似的,如重疊的曲線所示。與 PSEs 相反,包括 (c) l2-loss 嵌入向量(而不是對比性損失)和 (d) 基于獎勵的互模擬指標在內的基線并沒有把具有相似數字標簽、行為上相似的狀態放在一起。(c, d) 的泛化能力較弱,可能是由于具有相似最佳行為的狀態最終被放在遠距離嵌入向量上

結論

總體上看,本文展現了利用 RL 中的固有結構來學習有效表征的優勢。具體來說,本文展示了兩項可推進 RL 中泛化的貢獻:策略相似性指標和對比性指標嵌入向量。PSEs 結合這兩種思路來加強泛化。對于未來工作,值得探究的方向包括找到更好的方法來定義行為相似性,并利用這種結構進行表征學習。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    459

    文章

    52160

    瀏覽量

    436055
  • 智能體
    +關注

    關注

    1

    文章

    262

    瀏覽量

    10958
  • 強化學習
    +關注

    關注

    4

    文章

    269

    瀏覽量

    11515

原文標題:利用策略相似性嵌入向量 (PSEs) 提高強化學習的泛化程度

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    直播預約 |數據智能系列講座第7期:面向高能力的視覺感知系統空間建模與微調學習

    鷺島論壇數據智能系列講座第7期「面向高能力的視覺感知系統空間建模與微調學習」6月25日(周三)20:00精彩開播期待與您云相聚,共襄學術盛宴!|直播信息報告題目面向高
    的頭像 發表于 05-29 10:04 ?106次閱讀
    直播預約 |數據智能系列講座第7期:面向高<b class='flag-5'>泛</b><b class='flag-5'>化</b>能力的視覺感知系統空間建模與微調<b class='flag-5'>學習</b>

    18個常用的強化學習算法整理:從基礎方法到高級模型的理論技術與代碼實現

    本來轉自:DeepHubIMBA本文系統講解從基本強化學習方法到高級技術(如PPO、A3C、PlaNet等)的實現原理與編碼過程,旨在通過理論結合代碼的方式,構建對強化學習算法的全面理解。為確保內容
    的頭像 發表于 04-23 13:22 ?271次閱讀
    18個常用的<b class='flag-5'>強化學習</b>算法整理:從基礎方法到高級模型的理論技術與代碼實現

    詳解RAD端到端強化學習后訓練范式

    受限于算力和數據,大語言模型預訓練的 scalinglaw 已經趨近于極限。DeepSeekR1/OpenAl01通過強化學習后訓練涌現了強大的推理能力,掀起新一輪技術革新。
    的頭像 發表于 02-25 14:06 ?472次閱讀
    詳解RAD端到端<b class='flag-5'>強化學習</b>后訓練范式

    智能零部件管理助力電思儀的標準管理

    能做到所有參數一目了然!比如畫一個新零件時,SPM系統會自動推薦外形相似的類似模型。 工程師通過嵌入Creo的多種智能搜索方法,快速找到備選模型,自動對比高亮顯示差異,大幅提高了判斷物料重用
    發表于 02-14 14:03

    JCMsuite應用:散射體的光學手性響應

    在JCMsuite,利用光學手性的形式和內置的手性參量可以計算光散射體的手性響應。結果表明,時間諧波光學手性密度服從局部連續方程[1]。這使得手性行為的分析類似于研究電磁能量的標準消光實驗。 在
    發表于 12-25 15:37

    《具身智能機器人系統》第7-9章閱讀心得之具身智能機器人與大模型

    方法應該捕捉任務之間的結構相似性,便于知識遷移。 針對“9.3關鍵選擇及利弊權衡”這一小節的內容,書中是用純文字敘述,而我將其結構整理成表格,方便直觀對比兩種方法。 比較維度 預訓練+微調+ICL
    發表于 12-24 15:03

    JCMsuite應用:散射體的光學手性響應

    在JCMsuite,利用光學手性的形式和內置的手性參量可以計算光散射體的手性響應。結果表明,時間諧波光學手性密度服從局部連續方程[1]。這使得手性行為的分析類似于研究電磁能量的標準消光實驗。 在
    發表于 12-18 13:41

    螞蟻集團收購邊塞科技,吳翼出任強化學習實驗室首席科學家

    近日,專注于模型賽道的初創企業邊塞科技宣布被螞蟻集團收購。據悉,此次交易完成后,邊塞科技將保持獨立運營,而原投資人已全部退出。 與此同時,螞蟻集團近期宣布成立強化學習實驗室,旨在推動大模型強化學習
    的頭像 發表于 11-22 11:14 ?1318次閱讀

    深度學習模型的魯棒優化

    。異常值和噪聲可能會誤導模型的訓練,導致模型在面對新數據時表現不佳。 數據標準/歸一 :將數據轉換到同一尺度上,有助于模型更好地學習數據的內在規律,從而提高模型的
    的頭像 發表于 11-11 10:25 ?871次閱讀

    如何使用 PyTorch 進行強化學習

    的計算圖和自動微分功能,非常適合實現復雜的強化學習算法。 1. 環境(Environment) 在強化學習,環境是一個抽象的概念,它定義了智能體(agent)可以執行的動作(actions)、觀察到
    的頭像 發表于 11-05 17:34 ?908次閱讀

    谷歌AlphaChip強化學習工具發布,聯發科天璣芯片率先采用

    近日,谷歌在芯片設計領域取得了重要突破,詳細介紹了其用于芯片設計布局的強化學習方法,并將該模型命名為“AlphaChip”。據悉,AlphaChip有望顯著加速芯片布局規劃的設計流程,并幫助芯片在性能、功耗和面積方面實現更優表現。
    的頭像 發表于 09-30 16:16 ?639次閱讀

    【「時間序列與機器學習」閱讀體驗】全書概覽與時間序列概述

    。 ●第5章“時間序列的相似度與聚類”:介紹時間序列的相似性度量方法,如歐氏距離、動態時間規整算法等,用于衡量兩個或多個時間序列在形狀和模式上的相似程度;聚類算法,如K-Means、DBSCAN等
    發表于 08-07 23:03

    如何理解機器學習的訓練集、驗證集和測試集

    理解機器學習的訓練集、驗證集和測試集,是掌握機器學習核心概念和流程的重要一步。這三者不僅構成了模型學習與評估的基礎框架,還直接關系到模型性能的可靠
    的頭像 發表于 07-10 15:45 ?6320次閱讀

    深度學習與傳統機器學習對比

    在人工智能的浪潮,機器學習和深度學習無疑是兩大核心驅動力。它們各自以其獨特的方式推動著技術的進步,為眾多領域帶來了革命的變化。然而,盡管它們都屬于機器
    的頭像 發表于 07-01 11:40 ?2210次閱讀

    通過強化學習策略進行特征選擇

    更快更好地學習。我們的想法是找到最優數量的特征和最有意義的特征。在本文中,我們將介紹并實現一種新的通過強化學習策略的特征選擇。我們先討論強化學習,尤其是馬爾可夫決策
    的頭像 發表于 06-05 08:27 ?581次閱讀
    通過<b class='flag-5'>強化學習</b>策略進行特征選擇