日本語
 
Help Privacy Policy ポリシー/免責事項
  詳細検索ブラウズ

アイテム詳細

  Reward-Weighted Regression with Sample Reuse for Direct Policy Search in Reinforcement Learning

Hachiya, H., Peters, J., & Sugiyama, M. (2011). Reward-Weighted Regression with Sample Reuse for Direct Policy Search in Reinforcement Learning. Neural Computation, 23(11), 2798-2832. doi:10.1162/NECO_a_00199.

Item is

基本情報

表示: 非表示:
資料種別: 学術論文

ファイル

表示: ファイル

関連URL

表示:

作成者

表示:
非表示:
 作成者:
Hachiya, H1, 著者           
Peters, J1, 2, 著者           
Sugiyama, M, 著者
所属:
1Department Empirical Inference, Max Planck Institute for Biological Cybernetics, Max Planck Society, ou_1497795              
2Dept. Empirical Inference, Max Planck Institute for Intelligent Systems, Max Planck Society, ou_1497647              

内容説明

表示:
非表示:
キーワード: -
 要旨: Direct policy search is a promising reinforcement learning framework, in particular for controlling continuous, high-dimensional systems. Policy search often requires a large number of samples for obtaining a stable policy update estimator, and this is prohibitive when the sampling cost is expensive. In this letter, we extend an expectation-maximization-based policy search method so that previously collected samples can be efficiently reused. The usefulness of the proposed method, reward-weighted regression with sample reuse (R), is demonstrated through robot learning experiments.

資料詳細

表示:
非表示:
言語:
 日付: 2011-11
 出版の状態: 出版
 ページ: -
 出版情報: -
 目次: -
 査読: -
 識別子(DOI, ISBNなど): URI: http://www.mitpressjournals.org/doi/pdf/10.1162/NECO_a_00199
DOI: 10.1162/NECO_a_00199
BibTex参照ID: HachiyaPS2011
 学位: -

関連イベント

表示:

訴訟

表示:

Project information

表示:

出版物 1

表示:
非表示:
出版物名: Neural Computation
種別: 学術雑誌
 著者・編者:
所属:
出版社, 出版地: -
ページ: - 巻号: 23 (11) 通巻号: - 開始・終了ページ: 2798 - 2832 識別子(ISBN, ISSN, DOIなど): -