マルコフ決定過程

マルコフ決定過程(マルコフけっていかてい、: Markov decision process; MDP)は、状態遷移が確率的に生じる動的システム(確率システム)の確率モデルであり、状態遷移がマルコフ性を満たすものをいう。 MDP は不確実性を伴う意思決定のモデリングにおける数学的枠組みとして、強化学習など動的計画法が適用される幅広い最適化問題の研究に活用されている。 MDP は少なくとも1950年代には知られていた[1]が、研究の中核は1960年に出版された Ronald A. Howard の "Dynamic Programming and Markov Processes" に起因する[2]。 MDP はロボット工学や自動制御、経済学製造業を含む幅広い分野で用いられている。

概要

3つの状態と2つの行動をもつ簡単な MDP の例

マルコフ決定過程は離散時間における確率制御過程 (stochastic control process) である。 各時刻において過程 (process) はある状態 (state) を取り、意思決定者 (decision maker) はその状態において利用可能な行動 (action) を任意に選択する。 その後過程はランダムに新しい状態へと遷移し、その際に意思決定者は状態遷移に対応した報酬 (reward) を受けとる。

遷移後の状態 s {\displaystyle s'} 、および得られる報酬の値 r {\displaystyle r} は現在の状態 s {\displaystyle s} と行動 a {\displaystyle a} のみに依存し、 s {\displaystyle s} a {\displaystyle a} が与えられたもとでそれより過去の状態および行動と条件付き独立となる。 言い換えると、マルコフ決定過程の状態遷移はマルコフ性を満たす。

マルコフ決定過程はマルコフ連鎖に(選択可能な)行動、および(行動を計画する動機を与える)報酬を追加し拡張したものであると解釈できる。 逆に言えば、各ステップにとる行動がそのステップにおける状態のみ依存するとき、マルコフ決定過程は等価なマルコフ連鎖に置き換えることが出来る。

定義

有限マルコフ決定過程 (finite Markov decision process; finite MDP) は4つの要素の組  S , A , T , R {\textstyle {\big \langle }S,A,T,R{\big \rangle }} で表される。ここで各要素はそれぞれ次を意味する。

  • S = { s 1 , s 2 , , s N } {\displaystyle S=\{s^{1},s^{2},\ldots ,s^{N}\}}  : 状態の有限集合
  • A = { a 1 , a 2 , , a K } {\displaystyle A=\{a^{1},a^{2},\ldots ,a^{K}\}}  : 行動の有限集合
  • T : S × A × S [ 0 , 1 ] {\displaystyle T:S\times A\times S\to [0,1]}  : 遷移関数 (transition function)
  • R : S × A × S R {\displaystyle R:S\times A\times S\to \mathbb {R} }  : 報酬関数 (reward function)

遷移関数 T ( s , a , s ) {\displaystyle T(s,a,s')} は状態 s {\displaystyle s} にあり行動 a {\displaystyle a} を取ったときの状態 s {\displaystyle s'} への状態遷移確率 T ( s , a , s ) = Pr ( s t + 1 = s | s t = s , a t = a ) {\displaystyle T(s,a,s')=\Pr(s_{t+1}=s'|s_{t}=s,a_{t}=a)} である。 また報酬関数 R ( s , a , s ) {\displaystyle R(s,a,s')} は状態 s {\displaystyle s} から s {\displaystyle s'} に行動 a {\displaystyle a} を伴い遷移する際に得られる即時報酬 (immediate reward) 、またはその期待値 E [ r t + 1 | s , a , s ] {\displaystyle \mathbb {E} [r_{t+1}|s,a,s']} を表す。

問題設定

MDP における基本的な問題設定は、現在の状態が s {\displaystyle s} が与えられたときに意思決定者の取る行動 a A {\displaystyle a\in A} を既定する方策 (policy) を求めることである。 方策は通常 s , a {\displaystyle s,a} の条件付き分布 P ( a | s ) {\displaystyle P(a|s)} として規定され、状態 s {\displaystyle s} に 行動 a {\displaystyle a} を取る確率を π ( s , a ) {\displaystyle \pi (s,a)} と表記する。

方策を求める際に用いられるゴール(目的関数)は、典型的には現在時刻から無限区間先の未来までにおける「割引された」報酬の累積値が用いられる:

t = 0 γ t r t + 1 where   a t = π ( s t ) {\displaystyle \sum _{t=0}^{\infty }\gamma ^{t}r_{t+1}\quad {\text{where}}\ a_{t}=\pi (s_{t})}

ここで γ [ 0 , 1 ] {\displaystyle \gamma \in [0,1]}  は割引率 (discount rate) と呼ばれる値であり、現在の報酬と未来の報酬との間における重要度 (importance) の差異を表している。 状態が確率的に遷移することから上の値は確率変数となるため、通常はその期待値が用いられる。

アルゴリズム

MDP は線形計画法または動的計画法で解くことができる。ここでは後者によるアプローチを示す.

いま,ある(定常な)方策 π {\displaystyle \pi } を採用した場合における割引報酬和 V π ( s ) = E π [ t = 0 γ t r t + 1   | s 0 = s ] {\textstyle V^{\pi }(s)=\mathbb {E} _{\pi }[\sum _{t=0}^{\infty }\gamma ^{t}r_{t+1}\ |s_{0}=s]} は現在の状態 s {\displaystyle s} のみに依存し、これを 状態価値関数 (state-value function) と呼ぶ( E π [ ] {\displaystyle \mathbb {E} _{\pi }[\cdot ]} は方策 π {\displaystyle \pi } の下での条件付き期待値)。 この状態価値関数 V π ( s ) {\displaystyle V^{\pi }(s)} は次式を満たす。

V π ( s ) = a A π ( s , a ) s S T ( s , a , s ) ( R ( s , a , s ) + γ V π ( s ) ) = R π ( s ) + γ a A s S π ( s , a ) T ( s , a , s ) V π ( s ) {\displaystyle {\begin{aligned}V^{\pi }(s)&=\sum _{a\in A}\pi (s,a)\sum _{s'\in S}T(s,a,s'){\Big (}R(s,a,s')+\gamma V^{\pi }(s'){\Big )}\\&=R^{\pi }(s)+\gamma \sum _{a\in A}\sum _{s'\in S}\pi (s,a)T(s,a,s')V^{\pi }(s')\end{aligned}}}
ただし R π ( s ) = a A s S π ( s , a ) T ( s , a , s ) R ( s , a , s ) {\textstyle R^{\pi }(s)=\sum _{a\in A}\sum _{s'\in S}\pi (s,a)T(s,a,s')R(s,a,s')} は状態 s {\displaystyle s} において方策 π {\displaystyle \pi } を採用した場合における即時報酬の期待値である。

任意の π {\displaystyle \pi '} および s S {\displaystyle s\in S} に対し V π ( s ) V π ( s ) {\displaystyle V^{\pi ^{*}}(s)\geq V^{\pi '}(s)} を満たす方策 π {\displaystyle \pi ^{*}} 最適方策 (optimal policy) と呼ぶ。 π {\displaystyle \pi ^{*}} を採用したときの状態価値関数の最大値 V ( s ) = max π V π ( s ) {\displaystyle V^{*}(s)=\max _{\pi }V^{\pi }(s)} は次のベルマン方程式を満たす[3]

V ( s ) = max a A s S T ( s , a , s ) ( R ( s , a , s ) + γ V ( s ) ) {\displaystyle V^{*}(s)=\max _{a\in A}\sum _{s'\in S}T(s,a,s'){\Big (}R(s,a,s')+\gamma V^{*}(s'){\Big )}}

価値反復法

価値反復法 (value iteration)[1]は後ろ向き帰納法 (backward induction) とも呼ばれ、ベルマン方程式を満たす価値関数を繰り返し計算により求める。 ロイド・シャープレー が1953年に発表した確率ゲーム(英語版)に関する論文[4]には価値反復法の特殊な場合が含まれるが、このことが認知されたのは後になってからである[5]

ステップ i {\displaystyle i} における価値関数の計算結果を V i ( s ) {\displaystyle V_{i}(s)} と表記すると、価値反復法における更新式はつぎのように記述される:

V i + 1 ( s ) max a A s s S T ( s , a , s ) ( R ( s , a , s ) + γ V i ( s ) ) s S {\displaystyle V_{i+1}(s)\leftarrow \max _{a\in A_{s}}\sum _{s'\in S}T(s,a,s'){\Big (}R(s,a,s')+\gamma V_{i}(s'){\Big )}\quad \forall s\in S}

上式をすべての状態において値が収束するまで繰り返したときの値を V ( s ) {\displaystyle V^{\infty }(s)} とし、最適方策 π {\displaystyle \pi ^{*}} を次式で求める。

π ( s ) arg max a A s s S T ( s , a , s ) ( R ( s , a , s ) + γ V ( s ) ) s S {\displaystyle \pi ^{*}(s)\leftarrow \arg \max _{a\in A_{s}}\sum _{s'\in S}T(s,a,s'){\Big (}R(s,a,s')+\gamma V^{\infty }(s'){\Big )}\quad \forall s\in S}


方策反復法

方策反復法 (policy iteration)[2]では、方策固定の下で行われる価値関数の更新 (policy evaluation) と、価値関数固定のもとで行われる方策の更新 (policy improvement) を交互に行うことで最適方策を求める。

  1. 次の線形方程式を解き、価値関数を更新する
    V π ( s ) = R π ( s ) + γ a A s S π ( s , a ) T ( s , a , s ) V π ( s ) {\displaystyle V^{\pi }(s)=R^{\pi }(s)+\gamma \sum _{a\in A}\sum _{s'\in S}\pi (s,a)T(s,a,s')V^{\pi }(s')}
  2. 方策を次式で更新する
    π ( s ) arg max a A s s S T ( s , a , s ) ( R ( s , a , s ) + γ V π ( s ) ) s S {\displaystyle \pi (s)\leftarrow \arg \max _{a\in A_{s}}\sum _{s'\in S}T(s,a,s'){\Big (}R(s,a,s')+\gamma V^{\pi }(s'){\Big )}\quad \forall s\in S}

これらの操作を π {\displaystyle \pi } がすべての状態に対し変化しなくなるまで繰り返すことで、最適方策を得る。 方策反復法は離散値を取る方策の値が変化しなくなるという明確な終了条件を持つため有限時間でアルゴリズムが終了するという利点を持つ。

拡張と一般化

部分観測マルコフ決定過程

MDP では方策 π ( s ) {\displaystyle \pi (s)} を計算する際に現在の状態 s {\displaystyle s} が既知であることを仮定している。 実際には状態観測に不確実性が伴う場合などこの仮定が成り立たない場合が多く、このような場合の一般化として部分観測マルコフ決定過程 (Partially Observable Markov Decision Process; POMDP) が用いられる。

強化学習

強化学習」および「Q学習」も参照

状態遷移確率 T ( s , a , s ) {\displaystyle T(s,a,s')} や報酬関数 R ( s , a , s ) {\displaystyle R(s,a,s')} が未知の場合,環境との相互作用を通じてこれらの情報を得ながら行動を決定する必要がしばしば生じる.このような問題は強化学習の枠組みで議論される[6]

強化学習における代表的な学習アルゴリズムはQ学習と呼ばれるものである。 Q学習では、行動価値関数 (action-value function) と呼ばれる関数 Q π ( s , a ) {\displaystyle Q^{\pi }(s,a)} に着目する。ここで Q π ( s , a ) {\displaystyle Q^{\pi }(s,a)} は次のように定義される:

Q π ( s , a ) = E π [ t = 0 γ t r t + 1 | s 0 = s , a 0 = a ] {\displaystyle Q^{\pi }(s,a)=\mathbb {E} _{\pi }[\sum _{t=0}^{\infty }\gamma ^{t}r_{t+1}|s_{0}=s,a_{0}=a]}

いま,最適方策のもとでの行動価値関数 Q ( s , a ) = max π Q π ( s , a ) {\displaystyle Q^{*}(s,a)=\max _{\pi }Q^{\pi }(s,a)} V ( s ) = max a Q ( s , a ) {\displaystyle V^{*}(s)=\max _{a}Q^{*}(s,a)} を満たす。 すなわち、 Q {\displaystyle Q^{*}} を学習することができれば(モデルのパラメータを直接求めることなく)最適方策を獲得することができる。 Q学習では、各試行における遷移前後の状態と入力、および試行で得られる即時報酬の実現値をもとに Q ( s , a ) {\displaystyle Q(s,a)} の値を逐次更新する。 実際の学習プロセスでは、すべての状態を十分サンプリングするため確率的なゆらぎを含むよう学習時の行動が選択される。

強化学習では最適化に必要なパラメータの学習を状態遷移確率・報酬関数を介することなくおこなうことが出来る(価値反復法や方策反復法ではそれらの明示的な仕様(各状態間の遷移可能性,報酬関数の関数形など)を与える必要がある)。 状態数(および行動の選択肢)が膨大な場合、強化学習はしばしばニューラルネットワークなどの関数近似と組み合わせられる。

学習オートマトン

機械学習理論における MDP のもう一つの応用は学習オートマトン (Learning Automata) と呼ばれる。 これは環境が確率的な挙動を示す場合における強化学習の一つでもある。 学習オートマトンに関する最初の詳細な論文は 1974 年に Narendra と Thathachar によりまとめられた[7](そこでは有限状態オートマトンと明示的に記載されている)。 強化学習と同様,学習オートマトンのアルゴリズムも確率や報酬が未知の場合の問題を解くことができる。 Q学習の違いは,価値関数ではく学習の結果を探すために行動の確率を直接求めることである。 学習オートマトンは収束性が解析学の要領で厳密に証明されている[8]

制約付きマルコフ決定過程

制約付きマルコフ決定過程 (Constrained Markov Decision Process; CMDP) はマルコフ決定過程の拡張である。 MDP と CMDP には3つの基本的な違いがある[9]:

  • ある行動をほかのものの代わりに適用した後で(複数の)コストが発生する
  • CMDP は線形計画法のみで解くことが出来る(動的計画法を用いることはできない)
  • 終端時刻における方策が初期状態に依存する

CMDP の応用例は数多く存在し、最近ではロボット工学におけるモーションプランニングに用いられている[10]

参考文献

  • Bellman, R. (1957). “A Markovian Decision Process”. Journal of Mathematics and Mechanics 6. http://www.iumj.indiana.edu/IUMJ/FULLTEXT/1957/6/56038. 
  • Howard, Ronald. A. (1960). Dynamic Programming and Markov Processes. The M.I.T. Press 
  • Shapley, Lloyd. (1953). “Stochastic Games”. Proceedings of National Academy of Science 39: 1095–1100. 
  • Kallenberg, Lodewijk. (2002). “Finite state and action MDPs”. Handbook of Markov decision processes: methods and applications. Springer. ISBN 0-7923-7459-2 
  • Sutton, R. S.; Barto, A. G. (1998). Reinforcement Learning: An Introduction. Cambridge, MA: The MIT Press. http://webdocs.cs.ualberta.ca/~sutton/book/the-book.html 
  • Narendra, K. S.; Thathachar, M. A. L. (1974). “Learning Automata - A Survey”. IEEE Transactions on Systems, Man, and Cybernetics SMC-4 (4): 323–334. doi:10.1109/TSMC.1974.5408453. ISSN 0018-9472. http://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=5408453. 
  • Narendra, Kumpati S.; Thathachar, Mandayam A. L. (1989). Learning automata: An introduction. Prentice Hall. ISBN 9780134855585. https://books.google.com/books?id=hHVQAAAAMAAJ 
  • Altman, Eitan (1999). Constrained Markov decision processes. 7. CRC Press 
  • Feyzabadi, S.; Carpin, S. (2014). "Risk-aware path planning using hierarchical constrained Markov Decision Processes". Automation Science and Engineering (CASE). IEEE International Conference. pp. 297, 303. doi:10.1109/CoASE.2014.6899341。
  • 木村, 元 (2013). “《第1回》強化学習の基礎”. 計測と制御 (計測自動制御学会) 52 (1): 72-77. NAID 10031140795. https://doi.org/10.11499/sicejl.52.72. 

外部リンク

  • Reinforcement Learning An Introduction by Richard S. Sutton and Andrew G. Barto
  • Learning to Solve Markovian Decision Processes by Satinder P. Singh
  • Optimal Adaptive Policies for Markov Decision Processes by Burnetas and Katehakis (1997)
  • ソフトウェアパッケージ
    • MDP Toolbox for MATLAB, GNU Octave, Scilab and R The Markov Decision Processes (MDP) Toolbox.
    • MDP Toolbox for Matlab - An excellent tutorial and Matlab toolbox for working with MDPs.
    • MDP Toolbox for Python A package for solving MDPs
    • SPUDD A structured MDP solver for download by Jesse Hoey

関連項目

確率の歴史
確率の定義
客観確率
  • 統計的確率
  • 古典的確率
  • 公理的確率
主観確率
確率の拡張
基礎概念
モデル
確率変数
確率分布
関数
用語
確率の解釈
問題
法則・定理
測度論
確率微分方程式
確率過程
情報量
応用
数理ファイナンス
系統学
カテゴリ カテゴリ
  • 表示
  • 編集