強化學習簡介

在本章,我們將對 深度強化學習 章節中所涉及的強化學習算法進行入門介紹。我們所熟知的監督式學習是在帶有標籤的已知訓練資料上進行學習,得到一個從資料特徵到標籤的映射(預測模型),進而預測新的資料實例所具有的標籤。而強化學習中則出現了兩個新的概念,“智慧體” 和 “環境”。在強化學習中,智慧體通過與環境的交互來學習策略,從而最大化自己在環境中所獲得的獎勵。例如,在下棋的過程中,你(智慧體)可以透過與棋盤及對手(環境)進行交互來學習下棋的策略,從而最大化自己在下棋過程中獲得的獎勵(贏棋的次數)。

如果說監督式學習關注的是 “預測”與統計理論有密切關聯的學習類型的話,那麼強化學習關注的則是 “決策”,與電腦演算法(尤其是動態規劃和搜索)有著密切的關係。筆者認為強化學習的原理入門相較於有監督學習而言具有更高的門檻,尤其是給習慣於確定性算法的工程師,突然呈現一堆抽象概念的數值疊代關係,在大多數時候只能是囫圇吞棗。於是筆者希望通過一些較為具體的範例,盡可能的簡單表達,讓具有一定演算法基礎的讀者說明強化學習的基本思想。

從動態規劃說起

如果你曾經參加過 NOIP 或 ACM 之類的演算法競賽,或者為互聯網公司的上機考做過準備(如 LeetCode),想必對動態規劃(Dynamic Programming,簡稱 DP)不會太陌生。動態規劃的基本思路是將待求解的問題分解成許多個結構相同的子問題,並保存已解決的子問題的答案,在需要的時候直接利用 1 。使用動態規劃求解的問題需要滿足兩個性質:

  • 最優子結構:一個最優策略的子策略也是最優的。

  • 無後效性:過去的步驟只能通過當前的狀態影響未來的發展,當前狀態是歷史的總結。

我們回顧動態規劃的經典入門題目 「數字三角形」

數字三角形問題

給定一個形如下圖的 N+1 層數字三角形及三角形每個坐標下的數字 r(i, j) ,智慧體在三角形的頂端,每次可以選擇向下( \downarrow )或者向右( \searrow )到達三角形的下一層,請輸出一個動作序列,使得智慧體經過的路徑上的數字之和最大。

../../_images/triangle.png

數字三角形範例。此範例中最優動作序列為「向右-向下」,最優路徑為「(0, 0) - (1, 1) - (2, 1)」,最大數字和為 r(0, 0) + r(1, 1) + r(2, 1) = 5

我們先不考慮如何尋找最優動作序列的問題,而假設我們已知智慧體在每個坐標 (i, j) 處會選擇的動作 \pi(i, j) (例如 \pi(0, 0) = \searrow 代表智慧體在(0, 0)處會選擇向右的動作),我們只是單純計算智慧體會經過的路徑的數字之和。我們從下而上的考慮問題,假設 f(i, j) 智慧體在坐標(i, j)處的「現在及未來將會獲得的數字之和」,則可以透過遞回關係寫出以下等式:

(1)f(i, j) = \begin{cases}f(i+1, j) + r(i, j), & \pi(i, j) = \downarrow \\ f(i+1, j+1) + r(i, j), & \pi(i, j) = \searrow\end{cases}

上面的式子另一個等價寫法如下:

(2)f(i, j) = [p_1 f(i+1, j) + p_2 f(i+1, j+1)] + r(i, j)

其中

(p_1, p_2) = \begin{cases}(1, 0), \pi(i, j) = \downarrow \\ (0, 1), \pi(i, j) = \searrow\end{cases}

有了上面的式子之後,我們要解決的問題就變為了:通過調整智慧體在每個坐標(i, j)會選擇的動作 \pi(i, j) 的組合,使得 f(0, 0) 的值最大。為了解決這個問題,最粗暴的方法是遍歷所有 \pi(i, j) 的組合,例如在範例圖中,我們需要決策 \pi(0, 0)\pi(1, 0)\pi(1, 1) 的值,一共有 2^3 = 8 種組合,我們只需要將 8 種組合逐個代入並計算 f(0, 0) ,輸出最大值及其對應組合即可。

不過,這樣顯然效率太低了。於是我們考慮直接計算 (2) 式關於所有動作 \pi 組合的最大值 \max_\pi f(i, j) 。在 (2) 式中, r(i, j) 與任何動作 \pi 都無關,所以我們只需考慮 p_1 f(i+1, j) + p_2 f(i+1, j+1) 這個表達式的最大值。於是,我們分別計算 \pi(i, j) = \downarrow\pi(i, j) = \searrow 時該表達式關於任何動作 \pi 的最大值,並取兩個最大值中的較大者,如下所示:

\max_\pi f(i, j) &= \max_\pi [p_1 f(i+1, j) + p_2 f(i+1, j+1)] + r(i, j) \\
    &= \max [\underbrace{\max_\pi(1 f(i+1, j) + 0 f(i+1, j+1))}_{\pi(i, j) = \downarrow}, \underbrace{\max_\pi(0 f(i+1, j) + 1 f(i+1, j+1))}_{\pi(i, j) = \searrow}] + r(i, j) \\
    &= \max [\underbrace{\max_\pi f(i+1, j)}_{\pi(i, j) = \downarrow}, \underbrace{\max_\pi f(i+1, j+1)}_{\pi(i, j) = \searrow}] + r(i, j)

g(i, j) = \max_\pi f(i, j) ,上式可寫爲 g(i, j) = \max[g(i+1, j), g(i+1, j+1)] + r(i, j) ,這即是動態規劃中常見的「狀態轉移方程」。通過狀態轉移方程和邊界值 g(N, j) = r(N, j), j = 0 \cdots N ,我們即可自下而上高效的疊代計算出 g(0, 0) = \max_\pi f(0, 0)

../../_images/value_iteration_case_0_ch.png

通過對 g(i, j) 的值進行三輪疊代計算 g(0, 0) 。在每一輪疊代中,對於坐標(i, j),分別取得當 \pi(i, j) = \downarrow\pi(i, j) = \searrow 時的「未來將會獲得的數字之和的最大值」(即 g(i+1, j)g(i+1, j+1) ),取兩者中的較大者,並加上當前坐標的數字 r(i, j)

加入隨機性和機率的動態規劃

在實際生活中,我們做出的決策往往並非完全確定的指向某個結果,而是同時受到環境因素的影響。例如選擇磨練棋藝固然能讓一個人贏棋的機率變高,但也並非指向百戰百勝。正是所謂的 “不但要靠自己的奮鬥,也要考慮到歷史的演進過程”。對應於我們在前面章節討論的數字三角形問題,我們考慮以下變種:

數字三角形問題(範例 1)

智慧體初始在三角形的頂端,每次可以選擇向下( \downarrow )或者向右( \searrow )的動作。不過環境會對處於任意坐標(i, j)的智慧體的動作產生 「干擾」,導致以下的結果:

  • 如果選擇向下( \downarrow ),則該智慧體最終到達正下方坐標(i+1, j)的機率為 \frac{3}{4} ,到達右下方坐標(i+1, j+1)的機率為 \frac{1}{4}

  • 如果選擇向右( \searrow ),則該智慧體最終到達正下方坐標(i+1, j)的機率為 \frac{1}{4} ,到達右下方坐標(i+1, j+1)的機率為 \frac{3}{4}

請給出智慧體在每個坐標所應該選擇的動作 \pi(i, j) ,使得智慧體經過的路徑上的數字之和的期望值(Expectation) 2 最大。

此時,如果你想直接寫出問題的狀態轉移方程,恐怕就不那麼容易了(動作選擇和轉移結果不是一一對應的!)。但如果類比前面章節 (2) 式子問題描述的框架,我們會發現問題容易了一些。在這個問題中,我們沿用符號 f(i, j) 來表示智慧體在坐標(i, j)處的「現在及未來將會獲得的數字之和的期望值」,則「當前(i, j)坐標的期望值 = 『選擇動作 \pi(i, j) 後可獲得的數字之和』的期望 + 當前坐標的數字」,如下式

(3)f(i, j) = [p_1 f(i+1, j) + p_2 f(i+1, j+1)] + r(i, j)

其中

(p_1, p_2) = \begin{cases}(\frac{3}{4}, \frac{1}{4}), \pi(i, j) = \downarrow \\ (\frac{1}{4}, \frac{3}{4}), \pi(i, j) = \searrow\end{cases}

類比前面章節的推導過程,令 g(i, j) = \max_\pi f(i, j) ,我們可以得到

(4)g(i, j) = \max[\underbrace{\frac{3}{4} g(i+1, j) + \frac{1}{4} g(i+1, j+1)}_{\pi(i, j) = \downarrow}, \underbrace{\frac{1}{4} g(i+1, j) + \frac{3}{4} g(i+1, j+1)}_{\pi(i, j) = \searrow}] + r(i, j)

然後我們即可使用這一遞推式由下到上計算 g(i, j)

../../_images/value_iteration_case_1_ch.png

通過對 g(i, j) 的值進行三輪疊代計算 g(0, 0) 。在每一輪疊代中,對於坐標(i, j),分別計算當 \pi(i, j) = \downarrow\pi(i, j) = \searrow 時的「未來將會獲得的數字之和的期望值的最大值」(即 \frac{3}{4} g(i+1, j) + \frac{1}{4} g(i+1, j+1)\frac{1}{4} g(i+1, j) + \frac{3}{4} g(i+1, j+1) ),取兩者中的較大者,並加上當前坐標的數字 r(i, j)

我們也可以從智慧體在每個坐標(i, j)所做的動作 \pi(i, j) 出發來觀察 (4) 式。在每一輪疊代中,先分別計算兩種動作帶來的未來收益期望值(策略評估),然後取收益較大的動作作為 \pi(i, j) 的取值(策略改進),最後根據動作更新 g(i, j)

../../_images/policy_iteration_case_1_ch.png

策略評估 - 策略改進框架:通過對 \pi(i, j) 的值進行疊代來計算 g(0, 0) 。在每一輪疊代中,對於坐標(i, j),分別計算當 \pi(i, j) = \downarrow\pi(i, j) = \searrow 時「未來將會獲得的數字之和的期望值」(策略評估),取較大者對應的動作作為 \pi(i, j) 的取值(策略改進)。然後根據本輪疊代確定的 \pi(i, j) 的值更新 g(i, j)

我們可以將演算法流程概括如下:

  • 初始化環境

  • for i = N-1 downto 0 do

    • (策略評估)計算第 i 層中每個坐標 (i, j) 選擇 \pi(i, j) = \downarrow\pi(i, j) = \searrow 的未來期望值 q_1q_2

    • (策略改進)對第 i 層中每個坐標 (i, j),取未來期望值較大的動作作為 \pi(i, j) 的取值

    • (值更新)根據本輪疊代確定的 \pi(i, j) 的值更新 g(i, j) = max(q_1, q_2) + r(i, j)

環境資訊無法直接獲得的情況

讓我們更現實一點:在很多現實情況中,我們甚至連環境影響所涉及的具體機率值都不知道,而只能通過在環境中不斷探索總結。例如,當學習了一種新的圍棋規則的時候,我們並無法直接獲得勝率提升的機率,只有與對手使用新規則實戰多盤才能知道這個規則是好是壞。對應於數字三角形問題,我們再考慮以下範例:

數字三角形問題(範例 2)

智慧體初始在三角形的頂端,每次可以選擇向下( \downarrow )或者向右( \searrow )的動作。環境會對處於任意坐標 (i, j) 的智慧體的動作產生「干擾」,而且這個干擾的具體機率(即上節中的 p_1p_2 )未知。不過,允許在數字三角形的環境中進行多次的試驗。當智慧體在坐標 (i, j)時,可以向數字三角形環境發送動作指令 \downarrow\searrow ,數字三角形環境將返回智慧體最終所在的坐標(正下方(i+1, j)或右下方(i+1, j+1))。請設計演算法,確定智慧體在每個坐標所應該選擇的動作 \pi(i, j) ,使得智慧體經過的路徑上的數字之和的期望值最大。

我們可以通過大量試驗來估計動作為 \downarrow\searrow 時機率 p_1p_2 的值,不過這在很多現實問題中是困難的。事實上,我們有另一套方法,使得我們不必顯式估計環境中的機率參數,也能得到最優的動作策略。

回到前面章節的「策略評估 - 策略改進」框架,我們現在遇到的最大困難是無法在「策略評估」中通過前一階段的 g(i+1, j)g(i+1, j+1) 和機率參數 p_1p_2 直接計算每個動作的未來期望值 p_1 g(i+1, j) + p_2 g(i+1, j+1) (因為機率參數未知)。不過,期望值的妙處在於:就算我們無法直接計算期望值,我們也是可以通過大量試驗估計出期望值的。如果我們用 q(i, j, a) 表示智慧體在坐標(i, j)選擇動作 a 時的未來期望值 3 ,則我們可以觀察智慧體在(i, j)處選擇動作 a 後的 K 次試驗結果,取這 K 次結果的平均值作為估計值。例如,當智慧體在坐標(0, 1)並選擇動作 \downarrow 時,我們進行 20 次試驗,發現 15 次的結果為 1,5 次的結果為 2,則我們可以估計 q(0, 1, \downarrow) \approx \frac{15}{20} \times 1 + \frac{5}{20} \times 2 = 1.25

於是,我們只需將前面章節「策略評估」中的未來期望值計算,更換為使用試驗估計 a = \downarrowa = \searrow 時的未來期望值 q(i, j, a) ,即可在環境概率參數未知的情況下進行「策略評估」步驟。步驟。值得一提的是,由於我們不需要顯式計算期望值 p_1 g(i+1, j) + p_2 g(i+1, j+1) ,所以我們也無須關心 g(i, j) 的值了,前面章節值更新的步驟也隨之省略(事實上,這裡 q(i, j, a) 已經取代了前面章節 g(i, j) 的地位)。

還有一點值得注意的是,由於試驗是一個從上而下的步驟,需要演算法為整個路徑均提供動作,那麼對於那些尚未確定動作 \pi(i, j) 的坐標應該如何是好呢?我們可以對這些坐標使用 「隨機動作」,即 50% 的機率選擇 \downarrow ,50%的機率選擇 \searrow ,在試驗過程中對兩種動作均進行充分的「探索」。

../../_images/q_iteration_case_2_ch.png

將前面章節「策略評估」中的未來期望值計算,更換為使用試驗估計 a = \downarrowa = \searrow 時的未來期望值 q(i, j, a)

我們可以將演算法流程概括如下:

  • 初始化q值

  • for i = N-1 downto 0 do

    • (策略評估)探索估計第 i 層中每個坐標(i, j)選擇 a = \downarrowa = \searrow 的未來期望值 q(i, j, \downarrow)q(i, j, \searrow)

    • (策略改進)對第i層中每個坐標(i, j),取未來期望值較大的動作作為 \pi(i, j) 的取值

從直接演算法到疊代演算法

到目前為止,我們都非常嚴格的遵守了動態規劃中 “劃分階段” 的思想,即按照問題的時間特徵將問題分成許多個階段並依次求解。對應到數字三角形問題中,即從下到上逐層計算和更新未來期望值(或 q 值),每一輪疊代中更新本層的未來期望值(或 q 值)。在這個過程中,我們很確定,經過 N 次策略評估和策略改進後,演算法將停止,而我們可以獲得精確的最大數字和和最佳動作。我們將這種演算法稱為 “直接演算法”,這也是我們在各種演算法競賽中常見的演算法類型。

不過在實際場景中,演算法的計算時間往往是有限的,因此我們可能需要演算法具有較好的「漸進特性」,即並不要求演算法輸出精確的理論最佳解,只需能夠輸出近似的較佳解,且解的質量隨著疊代次數的增加而提升。我們往往稱這種演算法為「疊代演算法」。對於數字三角形問題,我們考慮以下範例:

數字三角形問題(變式3)

智慧體初始在三角形的頂端,每次可以選擇向下( \downarrow )或者向右( \searrow )的動作。環境會對處於任意坐標 (i, j)的智慧體的動作產生 「干擾」,而且這個干擾的具體機率未知。允許在數字三角形的環境中進行 K 次試驗(K 可能很小也可能很大)。請設計演算法,確定智慧體在每個坐標所應該選擇的動作 \pi(i, j) ,使得智慧體經過的路徑上的數字之和的期望值盡可能大。

為了解決這個問題,我們不妨從更高的層次來檢視我們目前的演算法做了什麼。其實演算法的主體是交替進行「策略評估」和「策略改進」兩個步驟。其中,

  • 「策略評估」根據智慧體在坐標(i, j)的動作 \pi(i, j) ,評估在這套動作組合下,智慧體在坐標(i, j)選擇動作a的未來期望值 q(i, j, a)

  • 「策略改進」根據上一步計算出的 q(i, j, a) ,選擇未來期望值最大的動作來更新動作 \pi(i, j)

事實上,這一 “策略評估” 和 “策略改進” 的交替步驟並不一定需要按照層的順序自下而上進行。我們只要確保演算法能根據有限的試驗結果 “盡量” 反複進行策略評估和策略改進,就能讓演算法輸出的結果 “漸進” 的越變越好。於是,我們考慮以下演算法流程

  • 初始化 q(i, j, a)\pi(i, j)

  • repeat

    • 固定智慧體的動作 \pi(i, j) 的取值,的取值,進行 k 次試驗(試驗時加入一些隨機擾動,使得能 “探索” 更多動作組合,上個章節也有類似的操作)。

    • (策略評估)根據當前 k 次試驗的結果,調整智慧體的未來的期望值 q(i, j, a) 的取值,使得 q(i, j, a) 的取值 “盡量” 能夠真實反映智慧體在當前動作 \pi(i, j) 下的未來期望值(上個章節是精確調整 4 到等於未來期望值)。

    • (策略改進)根據當前 q(i, j, a) 的值,選擇未來期望值較大的動作作為 \pi(i, j) 的取值。

  • 直到所有坐標的 q 值都不再變化,或總試驗次數大於 K

為了理解這個演算法,我們不妨考慮一種極端情況:假設每輪疊代的試驗次數 k 的值足夠大,則策略評估步驟中可以將 q(i, j, a) 精確調整為完全等於智慧體在當前動作 \pi(i, j) 下的未來期望值,事實上就變成了上節演算法的 “粗糙版”(上節的演算法每次只更新一層的 q(i, j, a) 值為精確的未來期望值,這裡每次都更新了所有的 q(i, j, a) 值。在結果上沒有差別,只是多了一些冗餘計算)。

上面的演算法只是一個大致的框架介紹。為了具體實現演算法,我們接下來需要討論兩個問題:一是如何根據 k 次試驗的結果更新智慧體的未來期望值 q(i, j, a) ,二是如何在試驗時加入隨機的試驗機制。

q值的漸進性更新

當每輪疊代的試驗次數 k 足夠大、覆蓋的情形足夠廣,以至於每個坐標 (i, j) 和動作 a 的組合都有足夠多的資料的時候,q 值的更新很簡單:根據試驗結果為每個 (i, j, a) 重新計算一個新的 \bar{q}(i, j, a) ,並替換原有數值即可。

可是現在,我們一共只有較少的 k 次試驗結果(例如 5 次或 10 次)。盡管這 k 次試驗是基於當前最新的動作方案 \pi(i, j) 來實施的,可是次數太少統計效應不明顯,二是原來的 q 值也不見得那麼不靠譜(畢竟每次疊代並不見得會把 \pi(i, j) 更改太多)。於是,相比於根據試驗結果直接計算一個新的 q 值 \bar{q}(i, j, a) = \frac{q_1 + \cdots + q_n}{n} 並覆蓋原有值(我們在前面的直接演算法裡一直都是這樣做的 5 ):

(5)q_{\text{new}}(i, j, a) \leftarrow \underbrace{\bar{q}(i, j, a)}_{\text{target}}

一個更聰明的方法是 “漸進” 的更新 q 值。也就是說,我們把舊的 q 值向當前試驗的結果 \bar{q}(i, j, a) 稍微 “牽引” 一點,作為新的 q 值,進而讓新的 q 值更貼近當前試驗的結果 \bar{q}(i, j, a) ,即

(6)q_{\text{new}}(i, j, a) \leftarrow q_{\text{old}}(i, j, a) + \alpha(\underbrace{\bar{q}(i, j, a)}_{\text{target}} - q_{\text{old}}(i, j, a))

控制牽引的 “力度”(牽引力度為 1 時,就退化為了使用試驗結果直接覆蓋 q 值的 (5) 式,不過我們一般會設一個小一點的數字,比如 0.1 或 0.01)。通過這種方式,我們既加入了新的試驗所帶來的信息,又保留了部分舊的知識。其實很多疊代演算法都有類似的特點。

不過, \bar{q}(i, j, a) 的值只有當一次試驗完全做完的時候才能獲得。也就是說,只有走到了數字三角形的最底層,才能知道路徑途中的每個坐標到路徑最底端的數字之和(從而更新路徑途中的所有坐標的 q 值)。這在有些場景會造成效率的低下,所以我們在實際更新時往往使用另一種方法,使得我們每走一步都可以更新一次 q 值。具體的說,假設某一次試驗中我們在數字三角形的坐標 (i, j) 處,通過執行動作 a = \pi(i, j) + \epsilon+ \epsilon 代表加上一些試驗擾動)而跳到了坐標(i’,j’)而跳到了坐標 (i’,j’)(即 “走一步”,可能是 (i+1, j),也可能是 (i+1, j+1)),然後又在坐標 (i’,j’) 執行了動作 a' = \pi(i', j') + \epsilon 。這時我們可以用 r(i', j') + q(i', j', a') 來近似替代之前的 \bar{q}(i, j, a) ,如下式所示:

(7)q_{\text{new}}(i, j, a) \leftarrow q_{\text{old}}(i, j, a) + \alpha\big(\underbrace{r(i', j') + q(i', j', a')}_{\text{target}} - q_{\text{old}}(i, j, a)\big)

我們甚至可以不需要試驗結果中的 a' ,而使用在坐標 (i’, j’) 時兩個動作對應的 q 值的較大者 \max[q(i', j', \downarrow), q(i', j', \searrow)] 來代替 q(i', j', a') ,如下式:

(8)q_{\text{new}}(i, j, a) \leftarrow q_{\text{old}}(i, j, a) + \alpha\big(\underbrace{r(i', j') + \max[q(i', j', \downarrow), q(i', j', \searrow)]}_{\text{target}} - q_{\text{old}}(i, j, a)\big)

探索策略

對於我們前面介紹的,基於試驗的演算法而言,由於環境裡的機率參數是未知的(類似於將環境看做黑盒),所以我們在試驗時一般都需要加入一些隨機的 “探索策略”,以保證試驗的結果能覆蓋到比較多的情況。否則的話,由於智慧體在每個坐標都具有固定的動作 \pi(i, j) ,所以試驗的結果會受到極大的限制,導致陷入局部最優的情況。考慮最極端的情況,假若我們回到本節之初的原版數字三角形問題(環境確定、已知且不受機率影響),當動作 \pi(i, j) 也固定時,無論進行多少次試驗,結果都是完全固定且唯一的,使得我們沒有任何改進和優化的空間。

探索的策略有很多種,在此我們介紹一種較為簡單的方法:設定一個機率比例 \epsilon ,以 \epsilon 的機率隨機生成動作( \downarrow\searrow ),以 1 - \epsilon 的機率選擇動作 \pi(i, j) 。我們可以看到,當 \epsilon = 1 時,相當於完全隨機的選取動作。當 \epsilon = 0 時,則相當於沒有加入任何隨機擾動,直接選擇動作 \pi(i, j) 。一般而言,在疊代初始的時候 的取值較大,以擴大探索的範圍。隨著疊代次數的增加, \pi(i, j) 的值逐漸變優, \epsilon 的取值會逐漸減小。

大規模問題的求解

演算法設計有兩個永恒的指標:時間和空間。通過將直接演算法改造為疊代演算法,我們初步解決了演算法在時間消耗上的問題。於是我們的下一個挑戰就是空間消耗,這主要體現在 q 值的儲存上。在前面的描述中,我們不斷疊代更新 q(i, j, a) 的值。這默認了我們在內存中建立了一個 N \times N \times 2 的三維數組,可以記錄並不斷更新 q 值。然而,假若 N 很大,而電腦的內存空間又很有限,那我們該怎麼辦呢?

我們來思考一下,當我們具體實現 q(i, j, a) 時,我們需要其能夠實現的功能有二:

  • q 值映射:給定坐標 (i, j) 和動作 a( \downarrow\searrow ),可以輸出一個 q(i, j, a) 值。

  • q 值更新:給定坐標 (i, j)、動作 a 和目標值 target,可以更新 q 值映射,使得更新後輸出的 q(i, j, a) 距離目標值 target 更近。

事實上,我們有不少近似方法,可以讓我們在不使用太多內存的情況下實現一個滿足以上兩個功能的 q(i, j, a) 。這裡介紹一種最流行的方法,即使用深度神經網路近似實現 q(i, j, a)

  • q 值映射:將坐標 (i, j) 輸入深度神經網路,網路輸出在坐標 (i, j) 下的所有動作的 q 值(即 q(i, j, \downarrow)q(i, j, \searrow) )。

  • q 值更新:給定坐標 (i, j)、動作 a 和目標值 target,將坐標 (i, j) 輸入深度神經網路,網路輸出在坐標 (i, j) 下的所有動作的 q 值,取其中動作為 a 的 q 值為 q(i, j, a) ,並定義損失函數 \text{loss} = (\text{target} - q(i, j, a))^2 ,使用優化器(例如梯度下降)對該損失函數進行一步優化。此處優化器的步長和上文中的 “牽引參數” \alpha 作用類似。

../../_images/q_network_ch.png

對於數字三角形問題,左圖為使用三維數組實現 q(i, j, a) ,右圖為使用深度神經網路近似實現 q(i, j, a)

總結

儘管我們在前文中並未提及 “強化學習” 一詞,但其實我們在對數字三角形問題各種範例的討論中,已經涉及了很多強化學習的基本概念及演算法,在此列舉:

  • 在第二節中,我們討論了基於模型的強化學習(Model-based Reinforcement Learning),包括值疊代(Value Iteration)和策略疊代(Policy Iteration)兩種方法。

  • 在第三節中,我們討論了無模型的強化學習(Model-free Reinforcement Learning)。

  • 在第四節中,我們討論了蒙特卡羅方法(Monte-Carlo Method)和時間差分法(Temporial-Difference Method),以及 SARSA 和 Q-learning 兩種學習方法。

  • 在第五節中,我們討論了使用 Q 網路(Q-Network)近似實現 Q 函數來進行深度強化學習(Deep Reinforcement Learning)。

其中部分術語對應關係如下:

  • 數字三角形的坐標 (i, j) 被稱為狀態(State),用 s 表示。狀態的集合用 S 表示。

  • 智慧體的兩種動作 \downarrow\searrow 被稱爲動作(Action),用 a 表示。動作的集合用 A 表示。

  • 數字三角形在每個坐標的數字 r(i, j) 被稱爲獎勵(Reward),用 r(s) (只與狀態有關)或 r(s, a) (與狀態和動作均有關)表示。獎勵的集合用 R 表示。

  • 數字三角形環境中的機率參數 p_1p_2 被稱為狀態轉移機率(State Transition Probabilities),用三個參數的函數 p(s, a, s') 表示,代表在狀態 s 進行動作 a 到達狀態 s’的機率。

  • 狀態、動作、獎勵、狀態轉移機率,外加一個時間折扣係數 \gamma \in [0, 1] 的五元組構成一個馬爾可夫決策過程(Markov Decision Process,簡稱 MDP)。數字三角形問題中 \gamma = 1

  • 第二節中 MDP 已知的強化學習稱為基於模型的強化學習,第三節 MDP 的狀態轉移機率未知的強化學習稱為無模型的強化學習。

  • 智慧體在每個坐標 (i, j) 處會選擇的動作 \pi(i, j) 被稱為策略(Policy),用 \pi(s) 表示。智慧體的最優策略用 \pi^*(s) 表示。

  • 第二節中,當策略 \pi(i, j) 一定時,智慧體在坐標 (i, j) 處 “現在及未來將會獲得的數字之和的期望值” f(i, j) 被稱為狀態 - 價值函數(State-Value Function),用 V^\pi(s) 表示。智慧體在坐標 (i, j) 處 “未來將會獲得的數字之和的期望值的最大值 g(i, j) 被稱為最優策略下的狀態 - 價值函數,用 V^*(s) 表示。

  • 第三節中,當策略 \pi(i, j) 一定時,智慧體在坐標 (i, j) 處選擇動作 a 時 “現在及未來將會獲得的數字之和的期望值” q(i, j, a) 被稱為動作 - 價值函數(Action-Value Function),用 Q^\pi(s, a) 表示。最優策略下的狀態 - 價值函數用 Q^*(s, a) 表示。

  • 在第三節和第四節中,使用試驗結果直接取均值估計 \bar{q}(i, j, a) 的方法,稱為蒙特卡羅方法。 (7) 中用 r(i', j') + q(i', j', a') 來近似替代的 \bar{q}(i, j, a) 的方法稱為時間差分法, (7) 的 q 值更新方法本身稱為 SARSA 方法。 (8) 稱爲Q-learning方法。

推薦閱讀

如果讀者希望進一步理解強化學習相關知識,可以參考

1

所以有時又被稱為 “記憶化搜索”,或者說記憶化搜索是動態規劃的一種具體實現形式。

2

期望值是試驗中每次可能結果的機率乘以其結果的總和,反映了隨機變數平均取值的大小。例如,你在一次投資中有 \frac{1}{4} 的機率賺 100 元,有 \frac{3}{4} 的機率賺 200 元,則你本次投資賺取金額的期望值為 \frac{1}{4} \times 100 + \frac{3}{4} \times 200 = 175 元。也就是說,如果你重複這項投資多次,則所獲收益的平均值趨近於 175 元。

3

作為參考,在前面章節中, q(i, j, a) = \begin{cases}\frac{3}{4} f(i+1, j) + \frac{1}{4} f(i+1, j+1), a = \downarrow \\ \frac{1}{4} f(i+1, j) + \frac{3}{4} f(i+1, j+1), a = \searrow\end{cases}

4

這裡和下文中的 “精確” 都是相對於疊代演算法的有限次試驗而言的。只要是基於試驗的方法,所獲得的期望值都是估計值。

5

不過在這裡,如果我們在疊代第一步的試驗時加入了隨機擾動的 “探索策略” 的話,這樣計算是不太對的。因為 k 次試驗結果受到了探索策略的影響,導致我們所評估的其實是隨機擾動後的動作 \pi(i, j) 使得我們根據試驗結果統計出的:math:bar{q}(i, j, a) 存在偏差。為了解決這個問題,我們有兩種方法。第一種方法是把隨機擾動的 “探索策略” 加到第三步策略改進選擇最大期望值的過程裡,第二種則需要採用一種叫做 “重要採樣”(Importance Sampling)的方法。由於我們真實採用的 q 值更新方法多是後面介紹的時間差分方法,所以這裡省略關於重要採樣的介紹,有需要的讀者可參考文末列出的強化學習相關文獻進行了解。