PyTorch強化學習——策略梯度演算法
theme: hydrogen
持續創作,加速成長!這是我參與「掘金日新計劃 · 6 月更文挑戰」的第15天,點選檢視活動詳情
0. 前言
本節中,我們使用策略梯度演算法解決 CartPole
問題。雖然在這個簡單問題中,使用隨機搜尋和爬山演算法就足夠了。但是,我們可以使用這個簡單問題來更專注的學習策略梯度演算法,並在之後的學習中使用此演算法解決更加複雜的問題。
1. 策略梯度演算法
策略梯度演算法通過記錄回合中的所有時間步並基於回合結束時與這些時間步相關聯的獎勵來更新權重訓練智慧體。使智慧體遍歷整個回合然後基於獲得的獎勵更新策略的技術稱為蒙特卡洛策略梯度。
在策略梯度演算法中,模型權重在每個回合結束時沿梯度方向移動。關於梯度的計算,我們將在下一節中詳細解釋。此外,在每一時間步中,基於當前狀態和權重計算的概率得到策略,並從中取樣一個動作。與隨機搜尋和爬山演算法(通過採取確定性動作以獲得更高的得分)相反,它不再確定地採取動作。因此,策略從確定性轉變為隨機性。例如,如果向左的動作和向右的動作的概率為 [0.8,0.2]
,則表示有 80%
的概率選擇向左的動作,但這並不意味著一定會選擇向左的動作。
2. 使用策略梯度演算法解決CartPole問題
在本節中,我們將學習使用 PyTorch
實現策略梯度演算法了。
匯入所需的庫,建立 CartPole
環境例項,並計算狀態空間和動作空間的尺寸:
```python
import gym
import torch
import matplotlib.pyplot as plt
env = gym.make('CartPole-v0')
n_state = env.observation_space.shape[0] print(n_state)
n_action = env.action_space.n
print(n_action)
``
定義
run_episode函式,在此函式中,根據給定輸入權重的情況下模擬一回合
CartPole遊戲,並返回獎勵和計算出的梯度。在每個時間步中執行以下操作:
- 根據當前狀態和輸入權重計算兩個動作的概率
probs- 根據結果概率取樣一個動作
action- 以概率作為輸入計算
softmax函式的導數
d_softmax`,由於只需要計算與選定動作相關的導數,因此:
$$ \frac {\partial p_i} {\partial z_j} = p_i(1-p_j), i=j $$
- 將所得的導數
d_softmax
除以概率probs
,以得與策略相關的對數導數d_log
- 根據鏈式法則計算權重的梯度
grad
:
$$ \frac {dy}{dx}=\frac{dy}{du}\cdot\frac{du}{dx} $$
- 記錄得到的梯度
grad
- 執行動作,累積獎勵並更新狀態
python def run_episode(env, weight): state = env.reset() grads = [] total_reward = 0 is_done = False while not is_done: state = torch.from_numpy(state).float() # 根據當前狀態和輸入權重計算兩個動作的概率 probs z = torch.matmul(state, weight) probs = torch.nn.Softmax(dim=0)(z) # 根據結果概率取樣一個動作 action action = int(torch.bernoulli(probs[1]).item()) # 以概率作為輸入計算 softmax 函式的導數 d_softmax d_softmax = torch.diag(probs) - probs.view(-1, 1) * probs # 計算與策略相關的對數導數d_log d_log = d_softmax[action] / probs[action] # 計算權重的梯度grad grad = state.view(-1, 1) * d_log grads.append(grad) state, reward, is_done, _ = env.step(action) total_reward += reward if is_done: break return total_reward, grads
回合完成後,返回在此回合中獲得的總獎勵以及在各個時間步中計算的梯度資訊,用於之後更新權重。
接下來,定義要執行的回合數,在每個回合中呼叫 run_episode
函式,並初始化權重以及用於記錄每個回合總獎勵的變數:
python
n_episode = 1000
weight = torch.rand(n_state, n_action)
total_rewards = []
在每個回合結束後,使用計算出的梯度來更新權重。對於回合中的每個時間步,權重都根據學習率、計算出的梯度和智慧體在剩餘時間步中的獲得的總獎勵進行更新。
我們知道在回合終止之前,每一時間步的獎勵都是 1
。因此,我們用於計算每個時間步策略梯度的未來獎勵是剩餘的時間步數。在每個回合之後,我們使用隨機梯度上升方法將梯度乘以未來獎勵來更新權重。這樣,一個回合中經歷的時間步越長,權重的更新幅度就越大,這將增加獲得更大總獎勵的機會。我們設定學習率為 0.001
:
```python
learning_rate = 0.001
for e in range(n_episode):
total_reward, gradients = run_episode(env, weight)
print('Episode {}: {}'.format(e + 1, total_reward))
for i, gradient in enumerate(gradients):
weight += learning_rate * gradient * (total_reward - i)
total_rewards.append(total_reward)
然後,我們計算通過策略梯度演算法獲得的平均總獎勵:
python
print('Average total reward over {} episode: {}'.format(n_episode, sum(total_rewards)/n_episode))
我們可以繪製每個回合的總獎勵變化情況,如下所示:
python
plt.plot(total_rewards)
plt.xlabel('Episode')
plt.ylabel('Reward')
plt.show()
```
在上圖中,我們可以看到獎勵會隨著訓練回合的增加呈現出上升趨勢,然後能夠在最大值處穩定。我們還可以看到,即使在收斂之後,獎勵也會振盪,這是由於策略梯度演算法是一種隨機策略演算法。
最後,我們檢視學習到策略在 1000
個新回合中的效能表現,並計算平均獎勵:
```python
n_episode_eval = 1000
total_rewards_eval = []
for e in range(n_episode_eval):
total_reward, _ = run_episode(env, weight)
print('Episode {}: {}'.format(e+1, total_reward))
total_rewards_eval.append(total_reward)
print('Average total reward over {} episode: {}'.format(n_episode_eval, sum(total_rewards_eval)/n_episode_eval))
Average total reward over 1000 episode: 200
```
進行測試後,可以看到回合的平均獎勵接近最大值 200
。可以多次測試訓練後的模型,得到的平均獎勵較為穩定。正如我們一開始所說的那樣,對於諸如 CartPole
之類的簡單環境,策略梯度演算法可能大材小用,但它為我們解決更加複雜的問題奠定了基礎。
相關連結
- OpenCV使用顏色進行膚色檢測
- Keras深度學習——構建電影推薦系統
- PyTorch張量操作詳解
- OpenCV直方圖的比較
- Python 常用字串操作
- 使用 dlib 進行人臉識別
- OpenCV 人臉檢測詳解(僅需2行程式碼學會人臉檢測)
- Keras深度學習——使用fastText構建單詞向量
- Keras深度學習——使用skip-gram和CBOW模型構建單詞向量
- Keras深度學習——從零開始構建單詞向量
- Keras深度學習——生成對抗網路
- Keras深度學習——建立自定義目標檢測資料集
- PyTorch強化學習——基於值迭代的強化學習演算法
- PyTorch強化學習——模擬FrozenLake環境
- PyTorch強化學習——策略評估
- PyTorch強化學習——馬爾科夫決策過程
- Keras深度學習——DeepDream演算法生成影象
- Keras深度學習——使用對抗攻擊生成可欺騙神經網路的影象
- PyTorch強化學習——策略梯度演算法
- Keras深度學習——交通標誌識別