背景:Never Give Up(NGU)
NGU上に構築する2つのアイディア
NGUの報酬
- NGUは、探索を促進するために固有の報酬を計算する。
- この報酬は、エピソードごとと長期にわたる新規性を組み合わせることによって定義される。
- エピソードごとの新規性、
は、エピソードの過程で急速に消失し、観測をエピソードメモリの内容と比較することによって計算される。
- 長期にわたる新規性
は、訓練全体を通じてゆっくりと消失し、パラメトリックモデルを使用して計算される(NGUおよびこの研究では、この目的のためにRandom Network Distillationが使用される)。
- これにより、固有の報酬
は次のように定義される。
- ここで、L = 5は、選択された最大報酬スケーリングである。
- これにより、
によって提供される長期的な新規性を活用するが、
は、エージェントがエピソード内を探索することを奨励し続ける。
および
の計算の詳細については、(Puigdomènech Badia et al., 2020)を参照。
- 時間tで、NGUは、環境によって提供された外部報酬
に、同じ固有報酬
(
,
のN個の異なるスケールを追加して、N個の潜在的な合計報酬
を形成する。
- その結果、NGUは、各報酬関数
に関連付けられたN個の異なる関連する最適な状態行動価値関数
を学習することを目的としている。
- 探索率
は、探索度を制御するパラメータである。
- 高い値は探索的方策を奨励し、小さい値は活用的方策を奨励する。
- さらに、長期の信用割り当てを学習する目的で、それぞれに独自の割引係数
がある(背景とマルコフ決定プロセス(MDP)の表記については、付録Aを参照)。
- 固有の報酬は通常、外部の報酬よりもはるかに密なので、
は、活用的方策(
の値が小さい)には長期的視野(
の値が高い)を、探索的方策(
の値が高い)には短期的視野(
の値が低い)を可能にするように選択される。
状態行動価値関数の学習
- 状態行動価値関数
を学習するために、NGUはリカレントニューラルネットワーク
を訓練する。
- ここで、
は、Nの暗黙のMDP(特に
)の1つにインデックスを付けるonehotベクトルである。
は 現在の観測、
はアクション、
はネットワークのパラメータ(再帰状態を含む)である。
- 実際には、NGUは不安定で、単純な環境であっても、ファミリ内のすべての状態行動価値関数の
の適切な近似を学習できない場合がある。
- これは特に、
と
のスケールとスパース性が両方とも異なる場合、または1つの報酬が他の報酬よりもノイジーな場合に当てはまる。
- 報酬の性質が非常に異なる場合、報酬の組み合わせに対する一般的な状態と行動の価値関数を学習することは難しいと推測する。
- したがって、3.1節では、この問題に取り組むためのアーキテクチャの変更を提案する。
深層分散RLエージェント
- 私たちのエージェントは、R2D2とNGUの系譜にある、深層分散RLエージェントである。
- したがって、多くのアクターが中央の優先順位付けされたリプレイバッファにデータを供給することで、データ収集と学習プロセスを分離する。
- 図2に示すように、ラーナーはこのバッファーから訓練データをサンプリングできる(実装の詳細とハイパーパラメータについては、付録Eを参照)。
- より正確には、リプレイバッファには、FIFO方式で定期的に削除される遷移のシーケンスが含まれている。
- これらのシーケンスは、環境の独立したコピーと相互作用するアクタープロセスから取得され、TD誤差に基づいて優先順位が付けられる。
- 優先度はアクターによって初期化され、ラーナーによって更新された状態行動価値関数
で更新される。
- これらの優先順位に従って、ラーナーはリプレイバッファから遷移のシーケンスをサンプリングして、RL損失を構築する。
- 次に、RL損失を最小化して最適な状態行動価値関数を近似することにより、ニューラルネットワーク
のパラメータを更新する。
- 最後に、各アクターはラーナーと同じネットワークアーキテクチャを共有するが、重みは異なる。
番目のアクターのパラメータを
とする。
- ラーナーの重み
をアクターに頻繁に送信することで、アクターは自身の重み
を更新できる。
- 各アクターは異なる値
を使用する。これは、状態行動価値関数
の現在の推定に基づいて、
-greedy方策に従うために使用される。
- 特に、各エピソードの最初と各アクターでは、NGUはペア
を一律に選択する。
- このプロセスは最適ではないと仮定し、データ収集プロセスを適応させる各アクターにメタコントローラを導入することにより、3.2節でこれを改善することを提案する。
図2.分散深層RLエージェントの略図