強化學習屬于機器學習中的一個子集,它使代理能夠理解在特定環境中執行特定操作的相應結果。目前,相當一部分機器人就在使用強化學習掌握種種新能力。
強化學習是一種行為學習模型,由算法提供數據分析反饋,引導用戶逐步獲取最佳結果。
不同于使用樣本數據集訓練機器模型的各類監督學習,強化學習嘗試通過反復試驗掌握個中訣竅。通過一系列正確的決策,模型本身將得到逐步強化,慢慢掌控解決問題的更佳方法。
強化學習與人類在嬰幼兒時期的學習過程非常相似。我們每個人的成長都離不開這種學習強化——正是在一次又一次跌倒與父母的幫扶之下,我們才最終站立起來。
這是一種基于經驗的學習流程,機器會不斷嘗試、不斷犯錯,最終找到正確的解決思路。
我們只需要為機器模型提供最基本的“游戲規則”,余下的就完全交給模型自主探索。模型將從隨機嘗試開始,一步步建立起自己的復雜戰術,通過無數次嘗試達成任務、獲得獎勵。
事實證明,強化學習已經成為培養機器人想象力的重要方法之一。不同于普通人類,人工智能將從成千上萬輪游戲中積累知識,而強大的計算機基礎設施則為這類模型提供可靠的算力支持。
YouTube上的視頻就是強化學習的應用實例。在觀看當前視頻之后,該平臺會向你展示它認為你可能感興趣的類似內容。如果你點開了推薦視頻但卻沒有看完,機器會認為此次推薦失敗,并在下一次嘗試其他推薦方法。
強化學習的挑戰
強化學習面對的核心挑戰,在于如何規模模擬環境。模擬環境在很大程度上由有待執行的任務所決定。我們以國際象棋、圍棋或者雅達利游戲為例,這類模擬環境相對簡單也易于構建。但是,要想用同樣的方法訓練出安全可靠的自動駕駛汽車,就必須創建出非常逼真的街道原型環境,引入突然闖出的行人或者可能導致碰撞事故的各類因素。如果仿真度不夠,那么模型在從訓練環境轉移到現實場景之后,就會出現一系列問題。
另一個難題,在于如何擴展及修改代理的神經網絡。除了獎勵與處罰之外,我們再無其他方法與該網絡建立聯系。這有可能引發嚴重的“健忘”癥狀,即網絡在獲取新信息后,會將一部分可能非常重要的舊知識清除出去。換句話說,我們需要想辦法管理學習模型的“記憶”。
最后,我們還得防止機器代理“作弊”。有時候,機器模型能夠獲得良好的結果,但實現方式卻與我們的預期相去甚遠。一部分代理甚至會在不完成實際任務的情況下,通過“渾水摸魚”拿到最大獎勵。
強化學習的應用領域
游戲
機器學習之所以具有極高的知名度,主要源自它在解決各類游戲問題時展現出的驚人實力。
最著名的自然是AlphaGo與AlphaGo Zero。AlphaGo通過無數人類棋手的棋譜進行大量訓練,憑借策略網絡中的蒙特卡洛樹價值研究與價值網絡(MCTS)獲得了超人的棋力。但研究人員隨后又嘗試了另一種更加純粹的強化學習方法——從零開始訓練機器模型。最終,新的代理AlphaGo Zero出現,其學習過程完全源自自主摸索、不添加任何人為數據,最終以100-0的碾壓性優勢戰勝了前輩AlphaGo。
個性化推薦
新聞內容推薦是一項歷史性難題,快速變化的新聞動態、隨時可能轉變的用戶喜好再加上與用戶留存率若即若離的點擊率都讓研究人員頭痛不已。Guanjie等研究者發布的《DRN:用于新聞推薦的深度強化學習框架》一文,希望探討如何將強化學習技術應用于新聞推薦系統以攻克這一重大挑戰。
為此,他們構建起四種資源類別,分別為:1)用戶資源;2)上下文資源(例如環境狀態資源);3)用戶新聞資源;4)新聞資源(例如行動資源)。他們將這四種資源插入深度Q網絡(DQN)以計算Q值。隨后,他們以Q值為基礎選擇一份新聞列表進行推薦,并將用戶對推薦內容的點擊情況作為強化學習代理的重要獎勵指標。
作者們還采用其他技術以解決相關難題,包括記憶重復、生存模型、Dueling Bandit Gradient Descent等方法。
計算機集群中的資源管理
如何設計算法以將有限的資源分配給不同任務同樣是一項充滿挑戰的課題,而且往往需要人為啟發的引導。
題為《使用深度強化學習實現資源管理》的論文介紹了如何使用強化學習讓模型自動探索如何為保留的作業分配及調度計算機資源,借此最大程度降低平均作業(任務)的處理時長。
這種方法用“狀態空間”來表現當前資源分配與作業的資源配置方式。而在行動空間方面,他們使用一種技巧,允許代理在各個時間階段選擇多項行動。獎勵則是系統中所有作業的總和(-1/作業持續時間)。接下來,他們將強化學習算法與基準值相結合,借此計算策略梯度,找出最佳策略參數,憑借這些參數計算出能夠實現目標最小化的行動概率分布。
交通燈控制
在題為《基于強化學習的多代理交通信號網絡控制系統》一文中,研究人員嘗試設計一種交通信號燈控制方案,借此解決交通擁堵問題。他們的方法僅在模擬環境下進行了測試,并表現出優于傳統方法的性能水平,這也體現出在交通系統設計中引入多代理強化學習技術的潛在可行性。
他們在五個路口的交通網絡中部署了五個代理,并在中央路口處部署強化學習代理以控制交通信號。他們將交通狀態定義為8維向量,每個元素代表各條車道的相對交通流量。每個代理可以從8種選項中任選其一,各選項代表每個階段的組合,獎勵條件則是新的組合必須在交通流量延遲方面優于前一組合。作者們使用SQN計算{狀態,行動}對的Q值。
機器人
強化學習在機器人技術領域的應用同樣大放異彩。感興趣的朋友請關注強化學習在機器人領域的研究成果。在這方面,研究人員們通過訓練引導機器人學習策略,嘗試將原始視頻圖像與機器人的行動映射起來。將RGB圖像輸入CNN進行計算,最終輸出的則是各臺驅動引擎的扭矩。強化學習組件負責根據訓練數據中的狀態分布總結出準確的轉換策略。
網絡系統配置
網絡系統當中往往包含超過100項可配置參數,而參數調整過程則需要合格的操作人員持續進行跟蹤與錯誤測試。
題為《強化在線網絡系統自我配置能力的學習方法》的論文,介紹了研究人員如何在基于動態虛擬機的環境中自動重新配置多層網絡系統內各項參數的首次嘗試。
研究人員可以將重新配置的流程公式化為有限MDP(馬爾科夫決策流程)的形式。其中的狀態空間為系統配置,各參數的行動空間則包括{增加,減少,保持不變}。獎勵被定義為預期響應時間與實測響應時間之差。作者使用Q學習算法執行這項任務。
當然,作者也使用了其他一些技術(例如策略初始化)以解決較大狀態空間與復雜問題場景下的計算難度問題,因此并不能算單純依靠強化學習與神經網絡組合實現。但可以相信,這項開拓性工作為未來的探索鋪平了道路。
化學
強化學習在優化化學反應方面同樣表現出色。研究人員們發現,他們的模型已經摸索出極為先進的算法,《通過深度強化學習優化化學反應》一文還探討了如何將這種算法推廣到多種不同的潛在場景當中。
配合LSTM(長短期記憶網絡)對策略特征進行建模,強化學習代理通過以{S,A,P,R}為特征的馬爾科夫決策流程(MDP)優化了化學反應。其中的S代表一組實驗條件(例如溫度、pH等),A為可以調整的一切可能行動的集合,P為從當前實驗條件轉換至下一條件的概率,R則為狀態獎勵函數。
這套應用方案很好地演示了強化學習技術如何在相對穩定的環境下減少試錯次數并縮短學習周期。
拍賣與廣告
阿里巴巴公司的研究人員發表了《在廣告展示中采用多代理強化學習進行實時競拍》一文,表示其基于集群的分布式多代理解決方案(DCMAB)取得了可喜的成果,并計劃在下一步研究中投放淘寶平臺進行實際測試。
總體而言,淘寶廣告平臺負責為經銷商提供可供競拍的廣告展示區域。目前大多數代理無法快速解決這個問題,因為交易者往往互相競標,而且出價往往與其業務及決策密切相關。在這篇論文中,研究人員將商戶與客戶劃分為不同的組以降低計算復雜性。各代理的狀態空間表示代理本身的成本-收入狀態,行動空間為(連續)競標,獎勵則為客戶集群收入。
近期,越來越多研究人員開始嘗試將強化學習與其他深度學習架構相結合,并帶來了令人印象深刻的成果。
其中最具影響力的成果之一,正是DeepMind將CNN與強化學習相結合做出的嘗試。以此為基礎,代理可以通過高維傳感器“觀察”環境,而后學習如何與之交互。
CNN配合強化學習已經成為人們探索新思路的有力組合。RNN是一種具有“記憶”的神經網絡。與強化學習結合使用,RNN將為代理提供記憶能力。例如,研究人員將LSTM與強化學習進行組合,創建出一套深循環Q網絡(DRQN)并學習如何游玩雅達利游戲。他們還使用LSTM加強化學習解決了化學反應優化問題。
DeepMind還展示了如何使用生成模型與強化學習生成程序。在這套模型中,以對抗方式訓練而成的代理會將對抗信號作為改善行動的獎勵,這種方式與GAN(生成對抗網絡)將梯度傳播至入口空間的方法有所不同。
總結:何時開始使用強化學習?
所謂強化,是指根據制定的決策配合獎勵摸索最佳方法;這類能夠隨時與環境交互并從中學習。每做出一項正確行動,我們都將予以獎勵;錯誤行動則對應懲罰。在行業當中,這類學習方法將有助于優化流程、模擬、監控、維護并有望催生出強大的自治型系統。
大家可以參考以下標準思考何時在何處使用強化學習技術:
? 需要對復雜甚至存在一定危險性的特定流程進行模擬時。
? 處理某些需要大量人類分析師及領域專家的特定問題時。強化學習方法能夠模仿人類的推理過程,而非單純預測最佳策略。
? 能夠為學習算法提供良好的獎勵定義時。你可以在每次交互中正確對模型進行校準,借此保證獎勵總比懲罰多,幫助模型逐步摸索出正確的解決路線。
? 當缺少關于特定問題的充足數據時。除了工業領域之外,強化學習也廣泛適用于教育、衛生、金融、圖像以及文本識別等各個行業。
除了工業領域之外,強化學習也廣泛適用于教育、衛生、金融、圖像以及文本識別等各個行業。
責編AJX
評論