999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

Fast-PPO:最優基線法的近端策略優化算法

2020-07-13 06:15:58陳佳黎劉保生楊郭鑣
小型微型計算機系統 2020年7期
關鍵詞:策略方法

肖 竹,謝 寧,陳佳黎,劉保生,姜 峰,楊郭鑣

(電子科技大學 未來媒體中心 計算機科學與工程學院,成都 611731)

1 引 言

最近,針對強化學習(RL)提出了幾種不同的神經網絡函數逼近算法[1,2].主要的常用算法有深度Q學習[3,4],Vanilla策略梯度(PG)[5],信任區域策略梯度(TRPO)[6]和近端策略優化算法[7].Q學習算法[8,9]可以很好地應用在動作離散的學習環境中,但不能在動作連續控制的基礎上表現良好.Vanilla策略梯度方法在數據效率和魯棒性方面都較差.信任區域策略梯度算法[6]相對復雜,與包含噪聲或參數共享的架構不兼容.近端策略優化算法使用懲罰來改進過大的優化,在信任區域策略梯度算法方法的基礎上獲得更好的采樣復雜性[10].

由于近端策略優化算法是一種新的強化學習的策略梯度(PG)方法[11],因此可以采用提高策略梯度方法效率的手段來改進近端策略優化算法,包括基于參數的探索和最佳基線[12],我們選擇使用最佳基線來提高效率.我們的想法啟發于最先進的策略梯度方法、策略梯度和基于參數的勘探(PGPE)以及最佳基線減分(將方差正則化技術與基于參數的勘探和最佳基線相結合)[12].在實踐中,在策略梯度方法中使用了最佳基線,從經驗上幫助發現策略更新的正確方向.

NPC(Non-Player Character)行為的傳統做法是通過腳本或行為樹來操縱的.冗長的規則表通過分析NPC周圍環境的信息來確定其下一個行為.然而,隨著游戲的更新、設計和維護,調整這些規則表是非常耗時的.就最近強化學習算法的實際應用而言,強化學習與神經網絡的結合[13]廣泛應用于NPC在視頻游戲中的智能決策,通過在NPC達到其預期目標時提供獎勵來訓練,并非手動定義觀察到的動作圖.例如,Wu和Tian[14]將卷積神經網絡(CNN)部署到A3C中,在部分可觀測的3D環境中訓練一個智能對象,從最近的四個原始幀和游戲變量中,根據課程學習[15]的方法,從簡單的任務開始,逐步過渡到更難的任務,預測下一步行動和價值函數.

因此,我們將提出的強化學習算法用來控制NPC在游戲中的行為,以證明我們提出的方法比其他方法更有效.實驗分為三個階段.第一階段,四個強化學習算法(Fast-PPO、PPO[7]、PG[16]、R-PGPEOB[17])都在同一個游戲中使用.我們可以看到,無論環境是離散空間還是連續空間,Fast-PPO和PPO算法都是有效的.但PG和PGPE只能用于連續空間.在第二階段,我們設計了一個網球賽,Fast-PPO和PPO控制兩個球拍.我們提出的Fast-PPO算法控制的球拍可以獲得比其他算法更高的分數.因為,Fast-PPO比PPO具有更快的收斂速度和更高的回報.第三階段,采用Fast-PPO算法訓練一只狗獲取一根木棍,證明了我們提出的強化學習算法的通用性.

2 預備知識

2.1 策略梯度法

策略梯度法[11]通過計算策略梯度的估計量并將其插入隨機梯度上升算法來工作.策略梯度(PG)算法可以學習隨機策略,設計策略的目標函數,通過梯度下降算法對參數進行優化,最后進行獎勵.假設軌跡為τ=(s0,a0,r0,…,sT-1,aT-1,rT-1),at是當前動作,st是當前狀態,這是一個完整的事件狀態、行動和獎勵,通常的策略梯度算子形式如下:

JPG=t[R]

(1)

θJPG=t[θlogπθ(at|st)R]

(2)

2.2 正則化策略梯度法

當總回報R較大時,軌跡τ的發生概率增加,當總回報R較小時,軌跡τ的發生概率減小.同時為了進一步減小梯度估計的方差,趙婷婷等人[17]提出正則化策略梯度算法R-PGPEOB,策略梯度的形式為:

(3)

V(θ)=Varθ[Rθlogπθ(at|st)]

(4)

2.3 近端策略優化算法

(5)

LCPI(θ)=t[min(rt(θ)t,clip(rt(θ),1-ε,1+ε)t)]

(6)

其中epsilon是一個超參數.min中的第一項是LCPI.第二項,clip(rt(θ),1-ε,1+ε)t通過削減概率比來修改代理目標,這消除了在區間[1-ε,1+ε]的影響.最后,取剪切和未剪切目標中的最小值,最終目標函數是未剪切目標的下限.

3 提出的快速PPO算法

如前一節所述,PPO算法是PG算法的一個變種.雖然PPO算法對策略的更新是有效的,但我們認為PPO算法對策略更新的限制過強,不僅采用rt(θ)來防止策略更新過快,還采用clip函數進一步控制策略的更新速度.根據該方法[17],基線減分能夠提高PG算法的效率.因為基線的使用有助于從經驗上找到策略更新的正確方向,從而提高PG算法的效率.因此,我們提出了一種具有最佳基線的PPO方法(Fast-PPO),它結合了PPO算法的優點和最佳基線方法的優點.

3.1 基線減法的策略梯度

Fast-PPO算法中的梯度估計可以通過減去基線bA進一步穩定:

(7)

根據方法[6,17]中使用的優勢函數,計算出最佳基線如下:

(8)

其中Var表示協方差矩陣的軌跡,即:

A=(A1,A2,…,Al)T

Varθ[A]=tr(Eθ[(A-Eθ[A])(A-Eθ[A])T])

(9)

3.2 基于最佳基線DPG方法的拓展

在Zhao的方法中[17],梯度更新使用隨機梯度下降方法.隨機梯度下降算法[21]每次從訓練集中隨機選擇一個樣本來學習.

隨機梯度下降算法一次只隨機選取一個樣本來更新模型的參數,因此每次運行都非常快速,可以在線更新.最大隨機梯度下降的缺點是,不是每個更新都會朝正確的方向進行,從而產生優化方差.

因此,在快速PPO算法中,我們使用小批量梯度方法[22]來降低小批量梯度,以將批量梯度和隨機梯度結合起來.在更新速度和更新次數之間取得平衡.每次更新都從訓練集中隨機選擇m(m

θ=θ-η·LPG(θ;xi:i+m;yi:i+m)

(10)

與隨機梯度下降相比,小批量梯度降低了收斂波動性,降低了參數更新的方差,使參數更新更加穩定.

利用小批量的思想,我們可以解出bA的方程(9),給出快速PPO的最佳基線:

(11)

其中:

(12)

現在我們來簡化公式‖▽θlogπi(θ)‖2:

令:

(13)

于是:

▽θlogπi(θ)=E-P

(*)(14)

因此,

‖▽θlogπi(θ)‖2=trace((*)2)=trace(E-2P+PPT)

(15)

然后我們可以將等式(15)簡化為:

trace((*)2)=trace(E-2P+PPT)

=trace(E)-2trace(P)+trace(PPT)

(16)

3.3 Fast-PPO中A2C的結構

Actor-Critic(AC)框架算法[23]可用于解決連續運動空間中的DRL問題.但是AC有兩個網絡(actor和critic)需要訓練,因此它需要分別優化這兩組權重.Critic網絡計算當前狀態下某個操作的得分Q,Actor網絡使用該Q值更新其自己的策略權重.然而,基于價值函數的方法訓練波動較大.

為了緩解這個問題,A3C定義了一個優勢函數,它給出了與當前狀態相比的平均動作(動作值函數)的優勢值.考慮到使用在策略和價值函數之間共享參數的神經網絡結構的想法,我們提出了一個損失函數,可用于結合策略替代項和價值函數誤差項[7].

如果使用共享策略函數和價值函數參數[7]的神經網絡架構,損失函數則可以組合上述目標函數以及價值函數的誤差項[24].同時也可以通過添加熵獎勵來確保充分的探索.我們通過結合這幾項,獲得以下損失函數方程,如下所示:

(17)

在整個Fast-PPO算法的每次迭代中,通過執行當前策略來估計目標函數,然后通過輪流優化目標函數來更新策略參數.

PG方法中的每一次更新都應該增加那些優于平均值的操作的概率,同時減少那些低于平均值的操作的概率.但其方差很高,因此提出了AC算法[26],用一個值函數代替經驗收益作為偏差來減少方差.但實際上,John Schulman[20]主要討論了GAE(廣義優勢估計)方法,該方法大大減少了方差,確保了控制偏差的前提.使用的GAE估計量是:

(18)

其中t在給定的長度T軌跡段內以[0,T]指定時間指數.概括這一選擇,使用廣義優勢估計的截短版本[20],當λ=1時,可簡化方程(17)為:

t=δt+(γλ)δt+1+…+…+(γλ)T-t+1δT-1

(19)

其中:

δt=rt+γV(st+1)-V(st)

(20)

算法 1.Fast-PPO,Actor-Critic Style

foriteration=1,2,…do

foractor=1,2,…,Ndo

在環境中,T時間步驟內,運行策略πθold

從整體而言,“師傅型”師資的職業職責有:①了解學徒的發展規律;②熟悉合作企業的典型職業工作和企業實際操作流程;③開發、設計、制定以工作過程行動導向的培訓計劃;④從事培訓準備、培訓實施、培訓考核指導等工作;⑤促進學徒學習,引領學徒職業素養形成,傳承企業文化;⑥為學徒提供職業發展咨詢、服務。具體需要具備以下素質:

endfor

在Kepochs中,令Mini-batchM的大小:M≤NT,優化含θ的L目標函數

θold←θ

endfor

4 實 驗

在本節中,我們通過與原始PPO算法的比較,實驗評估了我們提出的方法的效率.我們使用一個新的開源工具包,使用Unity平臺創建模擬環境并與之交互:Unity ML-Agents Toolkit.通過將Unity作為仿真平臺,該工具包可以開發具有豐富的感官和物理復雜性的學習環境,提供引人注目的認知挑戰并支持動態多代理交互.

基于ML-Agents,NPC通過相機獲取的狀態信息可以發送到Python的訓練模型,并且通過圖像識別來提取圖像中的參數信息.例如,障礙物的分類,到目標的距離,自身和目標的相對位置以及運動方向的判斷,這些信息被發送到訓練模型,并且模型輸出的命令被發送回NPC,從而控制NPC在虛擬游戲環境中的動作.訓練架構如圖1所示.

圖1 訓練架構圖

4.1 任務中RL算法的比較

在這一部分,我們將Hallway,Banana和3DBall作為培訓agent的環境.這三種環境分為兩類.一個是離散的空間,包括Hallway和Banana,另一個連續的空間是3DBall.結果如圖2所示.

這些任務的目標如表1所示.它們的訓練參數設置如下:

HallwayBrain:

序列長度:64; num layers:2; hidden units:128;memory size:256; beta:1.0e-2; gamma:0.99; num epoch:3;

buffer size:1024; 批量大小:128; 最大步數:5.0e5.

BananaBrain:

批量大小:1024; beta:5.0e3; buffer size:10240;最大步數:1.5e5.

3DBallBrain:

批量大小:64; buffer size:12000; lambd:0.99; gamma:0.995; beta:0.001.

表1 任務及其目標

Table 1 Tasks and their goals

任務空間目 標Hallway離散移動到與房間中方塊的顏色相對應的目標Banana離散盡量多吃黃香蕉,同時避免吃到藍香蕉3DBall連續為了盡可能長時間地保持球在平臺上的平衡

圖2 任務場景和獎勵(從左到右、從上到下分別是Hallway、Banana和3DBall)

從上述任務的獎勵曲線可以看出,在Hallway任務中,Fast-PPO在200,000次收斂到0.6,PPO在450,000次收斂到0.4,R-PGPEOB算法甚至無法完成此任務.與PPO算法相比,Fast-PPO可以在此任務中將速度提高1倍以上,并且Fast-PPO的獎勵也是1.5倍.我們相信更高的獎勵可以讓代理商更好地完成任務.在Banana實驗中,Fast-PPO和PPO具有相同的收斂趨勢,但Fast-PPO收斂的收益率為13,大于PPO收斂的回報率為12.R-PGPEOB早期跌入局部最大值,無法從環境中學習.在3DBall任務中,Fast-PPO和PPO也具有相同的收斂趨勢,但仔細觀察,Fast-PPO比PPO更穩定,即標準差更小.R-PGPEOB在800,000次達到局部最大值,再也無法繼續從環境中學習.根據這三個實驗的結果,我們可以得出結論R-PGPEOB算法可以在連續的空間中應用,但是非常有限并且容易陷入局部最大值.此外,它們在離散空間中表現極其不好.然而,Fast-PPO和PPO不僅可以在連續空間中有效地應用,而且可以在離散空間中有效地應用.另外,無論環境是否離散或者連續,Fast-PPO都有最高的回報.

4.2 Fast-PPO和PPO在網球中的比較

Fast-PPO和PPO都可以通過幾場比賽來控制NPC的行為.為了直觀地比較Fast-PPO和PPO的效率,我們使用Unity Machine Learning Agent Toolkit中的網球游戲作為培訓智能代理的環境.然后我們使用上述方法分別訓練代理的行為.每種方法的表現都是通過超過2萬次運行的回報和損失來衡量的.雖然我們只是展示了網球訓練的結果(在網球環境中訓練球拍的過程如圖3所示),但我們還是做了更多的工作來說明我們的方法(Fast-PPO)能夠有效地訓練NPC在各種動作游戲中的行為.

每種方法的表現都是通過累積獎勵和策略損失來衡量的.對于我們的方法,我們設置超參數γ= 0.99,λ= 0.95,c1= 0.5,自學習參數β使用Tensor流的多項式衰減方法,初始值為0.05.同時,策略參數在每次迭代中迭代超過200000次.在每次迭代中,我們收集了1024個樣本用于批處理.結果如圖4所示.

可以清楚地看到,我們的方法具有更大的累積獎勵.此外,PG和R-PGPEOB已陷入600000次死鎖,不再向環境中學習.因此,證明了我們提出的方法比PPO方法和其他算法更有效.

在通過我們提出的方法(Fast-PPO)和其他算法訓練代理之后,我們獲得存儲為.byte文件的策略,該文件可以用作Unity中的大腦來控制代理的行為.為了更直觀地觀察Fast-PPO和其他算法的性能,我們設計了網球游戲.這兩種方法用于控制兩個網球拍.從上面的實驗中,我們可以看出PPO是唯一可以與Fast-PPO一戰高下的算法.所以我們使用經過訓練的PPO算法和Fast-PPO算法來控制各種球拍并執行網球比賽.代理人的目標是他們必須在彼此之間反彈球而不丟球或將球送出界外.

圖3 網球比賽的過程

圖4 Fast-PPO和其他算法的獎勵比較

通過數千萬次運行,我們獲得了兩個對手的分數,如圖5所示.事實上,這場比賽不符合網球比賽的規則.因為在這項任務中,即使一方失去了分數,游戲仍然會繼續.我們只想收集由PPO和Fast-PPO算法控制的AI分數.然而,我們可以保證Fast-PPO的得分總是高于PPO,這意味著用Fast-PPO方法訓練的大腦比用PPO方法訓練的大腦更有效.因此有理由相信我們提出的方法(Fast-PPO)是一種更好的方法來訓練NPC的動作游戲.

圖5 Fast-PPO和PPO之間的得分比較

4.3 在Corgi中應用Fast-PPO

為了證明我們提出的Fast-PPO算法的普遍性,本部分進行了更為復雜的訓練任務.實際上,使用強化學習訓練NPC的過程與訓練幼犬的方式非常相似.我們將向小狗展示一根棍子然后扔出棍子.起初,小狗會四處游蕩,不知道該做什么,直到它最終拿起木棍并將其帶回來,并獲得零食作為獎勵.經過幾次訓練后,小狗知道獲得回擊的策略是獲得獎勵的最佳方式,然后繼續這樣做.這是如何加強NPC行為學習的過程.每當NPC正確完成任務時,我們都會給NPC一個獎勵.通過多次模擬游戲,NPC構建了一個內部模型,以最大化獎勵并實現所需的行為.因此,我們不必為每次觀察NPC創建和維持低級別的行動.我們只需要在任務正確完成時提供高級獎勵,然后NPC就可以學習適當的低級行為.每次Corgi執行動作時,我們都會向代理提供獎勵,獎勵設置為:

(21)

圖6 Corgi撿木棍的過程

訓練Corgi有以下四條規則:

·獲得獎勵:當柯基犬走向目標時,我們會給予獎勵.

·時間懲罰:我們將給予Corgi每項行動的定額罰款.通過這種方式,Corgi將學會盡快檢索棍子并避免過多的時間懲罰.

·輪換罰分:如果Corgi旋轉太多次,將受到懲罰.實際上,如果小狗變得太多,它就會暈眩.為了讓游戲更加逼真,Corgi在轉彎過快時會受到懲罰.

·目標獎勵:Corgi到達目標位置時會獲得獎勵.

使用Fast-PPO和其他算法的訓練犬的結果如圖7所示.訓練之后,byte文件用于控制Corgi的行為.獲取木棍的過程如圖6所示.它顯示了使用Fast-PPO訓練的Corgi完成棺材棒的任務.我們可以清楚地看到,柯基犬正朝著目標穩步前進,并且很好地完成了這項任務.

圖7 柯基犬的獎勵圖

5 結 論

在本文中,我們提出了一種新的方法,即具有最佳基線的Fast-PPO,與PPO算法相比,它有助于提高正確方向的策略更新速度.通過比較獎勵,我們提出的方法(Fast-PPO)通過實驗證明了具有比主流強化學習算法更好的性能.從理論上講,我們提出的方法比其他強化學習算法具有更高的回報和更快的收斂速度.此外,以Unity中的環境為例,應用Fast-PPO算法,無論環境是連續的還是離散的,所有結果都表明了Fast-PPO算法在游戲中控制NPC的良好性能.

猜你喜歡
策略方法
基于“選—練—評”一體化的二輪復習策略
求初相φ的常見策略
例談未知角三角函數值的求解策略
我說你做講策略
學習方法
高中數學復習的具體策略
數學大世界(2018年1期)2018-04-12 05:39:14
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 试看120秒男女啪啪免费| 亚洲欧美一级一级a| 国产国产人成免费视频77777| 无码高潮喷水在线观看| 99热这里只有免费国产精品 | 国产欧美日韩91| 伊人福利视频| 77777亚洲午夜久久多人| 国产永久在线视频| 国产精品一区二区在线播放| 91成人在线观看视频| 国国产a国产片免费麻豆| 欧美在线一二区| 992tv国产人成在线观看| 欧美一级特黄aaaaaa在线看片| 久久www视频| 午夜一区二区三区| 国产美女精品在线| 色亚洲激情综合精品无码视频 | 亚洲欧洲日韩国产综合在线二区| 久久久波多野结衣av一区二区| 国产一级毛片高清完整视频版| 国产成人高清亚洲一区久久| 无码专区在线观看| 国产成人综合亚洲欧美在| 亚洲人成网18禁| 久久久精品无码一区二区三区| 日韩大乳视频中文字幕| 亚洲性影院| 欧美精品一区在线看| 国产jizzjizz视频| 国产精品久久国产精麻豆99网站| 国产区精品高清在线观看| 国产成人精品一区二区三区| 亚洲va视频| 国产精品色婷婷在线观看| 国产精品太粉嫩高中在线观看| 亚洲中文字幕久久无码精品A| 人妻一区二区三区无码精品一区| 国产在线小视频| 欧美69视频在线| 国产精品国产三级国产专业不| 亚洲日本精品一区二区| 亚洲中文无码av永久伊人| 日韩第一页在线| 久久永久免费人妻精品| 丁香综合在线| 国产激情无码一区二区免费| 欧美国产日韩另类| 色噜噜综合网| 99国产精品国产高清一区二区| 性激烈欧美三级在线播放| 国产精品亚洲а∨天堂免下载| 第一区免费在线观看| 中文字幕在线播放不卡| 天堂网国产| 日本a∨在线观看| 激情五月婷婷综合网| 欧美成人精品在线| 欧美α片免费观看| 亚洲精品亚洲人成在线| 草草影院国产第一页| 亚洲无码37.| 亚洲欧洲AV一区二区三区| 手机在线国产精品| 国产在线视频福利资源站| 真人高潮娇喘嗯啊在线观看 | 久久久久88色偷偷| 国产精品亚洲片在线va| 青青草91视频| 亚洲黄网在线| 国产91丝袜在线播放动漫 | 亚洲天堂.com| 欧美啪啪一区| 国产福利免费观看| 综合社区亚洲熟妇p| 欧美翘臀一区二区三区| 天天色天天综合| 国产精品一区不卡| 污视频日本| 亚洲欧州色色免费AV| 久久精品人人做人人爽电影蜜月|