Ceek.jp Altmetrics (α ver.)
文献ランキング
合計
1ヶ月間
1週間
1日間
文献カレンダー
新着文献
すべて
2 Users
5 Users
10 Users
新着投稿
Yahoo!知恵袋
レファレンス協同データベース
教えて!goo
はてなブックマーク
OKWave
Twitter
Wikipedia
検索
ウェブ検索
ニュース検索
ホーム
文献詳細
2
0
0
0
OA
逆強化学習による複数均衡下での均衡収束の実現
著者
荒井 幸代
鈴木 香名子
大喜多 周
出版者
人工知能学会
雑誌
人工知能学会全国大会論文集
(
ISSN:13479881
)
巻号頁・発行日
vol.26, 2012
ナッシュ均衡が複数存在するゲームでは,エージェントが最適な唯一の解に収束するためのインセンティブが必要となる。本稿では,スタグハントゲームを用いてエージェントが協力してスタグ(鹿)を狙うように導く報酬関数を逆強化学習によって推定する方法を提案する.また,本手法に対して,通常のQ学習において「スタグを狙う行動を獲得させる」報酬を試行錯誤的に設計する方法とを比較し,提案手法の有用性を示す
言及状況
変動(ピーク前後)
変動(月別)
分布
はてなブックマーク
(1 users, 1 posts)
[mas][reinforcement learning]
Twitter
(1 users, 1 posts, 0 favorites)
複数のナッシュ均衡がある中で、適切に誘導するための提案らしい。島GAみたいなアプローチは取れないんだろうか? QT jsai2012:逆強化学習による複数均衡下での均衡収束の実現 http://t.co/LuX2puZZ
収集済み URL リスト
https://kaigi.org/jsai/webprogram/2012/paper-584.html
(1)
https://kaigi.org/jsai/webprogram/2012/pdf/584.pdf
(1)