著者
大崎 泰寛 築地 毅 但馬 康宏 小谷 善行
出版者
情報処理学会
雑誌
研究報告ゲーム情報学(GI) (ISSN:09196072)
巻号頁・発行日
vol.2009, no.5, pp.1-8, 2009-06-19

シミュレーションによって獲得された勝率に基づいて着手を選択する研究が近年盛んに行われている.ところが対局のオンライン時に精度の高い勝率をシミュレーションによって獲得するためには時間がかかるという問題点がある.そこで本論文では機械学習を用いて評価関数を,あらかじめ対局のオフライン時に獲得した勝率に近似する手法を提案した.そしてブロックスデュオを実験環境として,得られた勝率近似関数の学習成果について考察し,オンライン時にモンテカルロシミュレーションから着手を選択するプログラムと対局することで本手法の方が優れた対局結果を示すことを確認した.In these years, the researches of selecting moves using the winning probability obtained through simulations are treated as hot topics. However, there is a problem that obtaining the accurate winning probability through simulations needs too much time at on-line during games. In this paper, we suggested a method as to evaluation function is approximated previously by the probability of winning at off-line during games. Using BlokusDuo as a testing environment, we evaluate the learning result of approximating winning probability function and confirm that our learned player, in comparison to on-line Monte-Carlo simulation player, has been seen to yield better results of games.