著者
高橋 竜太郎 池田 心
雑誌
研究報告ゲーム情報学(GI) (ISSN:21888736)
巻号頁・発行日
vol.2018-GI-39, no.10, pp.1-7, 2018-02-23

将棋や囲碁,麻雀など多くのゲームでコンピュータプログラムが十分強くなり,より複雑なゲームやより高次な目的に関心が移りつつある.「ぷよぷよ」 は二十年以上遊ばれる人気の落ちものパズルゲームであるが,これも近年十分強いコンピュータプログラムの作成が達成された.本研究では,“連鎖構成” というこのゲームの中心的課題の一つに着目し,連鎖構成を身につけられれば楽しめる一方でこれができずに上達を諦めてしまう人が多い現状を解決したいと考える.そのためには,連鎖構成に特化した問題群,いわゆる 「なぞぷよ」 「詰めぷよ」 を沢山与えることが有効であると考える.人手により多くの良い問題が作成公開されているが,プレイヤごとの技術レベルや嗜好に合わせた問題が自動で無数に作成できれば,ぷよぷよを続ける人が増えることが期待できる.我々は,ランダム生成検査方式と,逆向き生成方式の二つのなぞぷよ作成法を試みる.さらに,作成された問題の 「難しさ」 「面白さ」 「役立ち度」 などを推測する関数を機械学習によって構成することを試みる.これらにより,プレイヤのレべルや好みにあった問題だけを提示するシステムを提案する.
著者
川上 直人 橋本 剛
雑誌
研究報告ゲーム情報学(GI) (ISSN:21888736)
巻号頁・発行日
vol.2018-GI-39, no.6, pp.1-6, 2018-02-23

近年,囲碁や将棋の AI が人間のトッププレイヤーに勝利するなど完全情報ゲームの研究は大きな成果を上げており,次のターゲットとして不完全情報ゲームが注目されている.バックギャモン,ポーカー,麻雀においてはトッププレイヤー相当の実力を持つ AI が研究されているが,ガイスター ・ 軍人将棋など,チェスや将棋とルールが似ている不完全情報ボードゲームでは強い AI の研究があまり行われていない.本稿では不完全情報ボードゲームの一つである 「ガイスター」 AI を題材とし,GPW 杯ガイスター AI トーナメント 2017 で優勝した AI のアルゴリズムを紹介する.
著者
和田 尭之 佐藤 直之 池田 心
出版者
情報処理学会
雑誌
研究報告ゲーム情報学(GI) (ISSN:09196072)
巻号頁・発行日
vol.2015, no.5, pp.1-8, 2015-02-26

市販のコンピュータゲーム特に RPG と呼ばれるジャンルでは,ゲーム AI が操作するキャラクタとチームを組んで遊べるものも多いが,しばしば仲間 AI プレイヤは期待に反する行動を取り,プレイヤの不満に繋がる.これはこの種のゲームに "勝つ" 以外の副目的が複数あり,AI プレイヤは人間プレイヤの "どの目的をどの程度重視しているか" といった価値観を理解せずに行動していることが原因の一つである.本研究では,人間プレイヤが選択した行動から人間プレイヤの重視する目的を推定し,それを AI プレイヤの行動選択に活用することでその人間プレイヤにとって満足度が高い AI プレイヤを生成することを目指す.評価実験では,様々な価値観を持つ仮想人間プレイヤを人工的に構成し,提案手法を適用して価値観を推定した.全く同じ価値観に基づいて行動を選択した場合の行動一致率 (例えば 70.6%) に対し,推定した価値観に基づいて行動を選択した場合の行動一致率 (例えば 67.1%) は,最悪の場合でも 3.5% しか劣っていない結果を得ることができた.Some genres of commercial video games, especially RPG games, allow players to play the game with the AI players as the teammates. But the AI players as the teammates often take actions that the human player does not expect them to do. Such mismatches between the expectations of the human players and the actions taken by the AI players often cause dissatisfaction of the players. One of the reasons for such mismatches is that there are several types of sub-goals in these games and the AI players act without understanding which types of sub-goals are important for each human player. The purpose of this study is to propose a method to develop teammate AI players that estimate the sub-goal preference of the human players and act with causing less dissatisfaction of the players. In an evaluation experiment, we prepared some artificial players with various preferences for the sub-goals and tried to estimate their sub-goals by the proposed method. The selected actions based on the estimated sub-goal preferences were the same as the selected actions by the original artificial players at the rate of 67.1% in one setting. The upper bound of the rate is about 70.6% (in this setting), which is the rate at which the same actions are selected when the preference of sub-goals is the same. Thus the proposed method is only 3.5% inferior in performance in the worst case compared to an ideal estimation.
著者
我妻 敦 原田 将旗 森田 一 古宮 嘉那子 小谷 善行
雑誌
研究報告ゲーム情報学(GI)
巻号頁・発行日
vol.2014-GI-31, no.12, pp.1-3, 2014-03-10

麻雀において,捨てると相手に上がられてしまう牌を正しく推定し,捨てないことにより損しないことは重要である.本論文では現在局面での牌の情報の特徴により SVR を用いて,捨てないことを決めるための牌の危険度を求めるという手法を提案する.評価方法として,人間が選択した牌とシステムが推定した牌の一致率を調査した.結果は危険度が最大の牌についての一致率は平均で 13.4%,危険度が最小の牌についての一致率は平均で 43.3%となった.
著者
大森 翔太朗 金子 知適
雑誌
研究報告ゲーム情報学(GI) (ISSN:21888736)
巻号頁・発行日
vol.2015-GI-34, no.6, pp.1-7, 2015-06-27

近年プレイヤの個性に関する研究が人工知能の分野で取り組まれ始めている.本研究では,将棋の指し手の選択に注目し,コンピュータプログラムで棋風を実現する方法について提案する.棋風としては,プレイヤが攻めや受けなど特徴を持つ指し手を選ぶ傾向についてに着目する.棋風を統計的に分析した過去の研究を参考に攻めの特徴と受けの特徴を決め,攻めと受けの棋風について,それぞれの特徴の現れているプレイヤの棋譜を選別する.そしてそれらの棋譜を教師に評価関数の機械学習を行う.提案手法で学習したプログラムと,一般の棋譜で学習したプログラムの差を,攻めと受けに関する次の一手問題を題材に評価する予定である.
著者
柳澤 佑介 松崎 公紀
雑誌
研究報告ゲーム情報学(GI)
巻号頁・発行日
vol.2015-GI-33, no.9, pp.1-6, 2015-02-26

近年,コンピュータ大貧民においてモンテカルロ法プレイヤが広く用いられ,その改良についてさまざまな研究が行われている.大貧民のモンテカルロ法プレイヤでは,各プレイアウト (シミュレーション) のはじめに,相手手札を仮想的に生成・推定する処理を行う.本研究では,この相手手札の生成・推定を行う方法を4つ提案し,対戦実験を通してその効果を評価する.特に相手手札の推定は,既存のプレイヤから得た札譜に加えて,相手プレイヤの提出手役履歴をもとに行う.実験の結果,手札生成および手札推定の手法によりモンテカルロ法プレイヤが強化されることを確認した.しかし,本研究で提案した手札推定では負の効果を持つこともあるという問題点も見られた.
著者
伊藤 毅志
雑誌
研究報告ゲーム情報学(GI)
巻号頁・発行日
vol.2011, no.4, pp.1-4, 2011-06-24
被引用文献数
1

三人寄れば文殊の知恵は本当か?~人間の合議実験からの考察~It is pointed out that computer Shogi programs improve by using consultation. If human players play by using same consultation, what will happen? This report discusses the thought process of human's group from a cognitive experiment which examines a thinking process in playing shogi by using consultation.
著者
野口 拓央 古宮 嘉那子 並木 美太郎 小谷 善行
出版者
一般社団法人情報処理学会
雑誌
研究報告ゲーム情報学(GI) (ISSN:09196072)
巻号頁・発行日
vol.2014, no.9, pp.1-8, 2014-03-10

本稿では機械学習手法の 1 種である Support Vector Regression (SVR) を用いたコンピュータ将棋の Move Ordering (MO) を提案する.MO はコンピュータ将棋の探索を効率化のため可能手をなるべく良い手から順番に先頭から並べかえる手法である.MO では可能手を 1 手ごとに探索して評価関数を適用すると処理に時間が必要であるため効率化の余地が大きい.そこで本稿では可能手から特徴を抽出して SVR で手の優先度を求めて評価関数を用いずに実行できる MO を考案し、MO を高速化して探索を効率化する手法を提案した.本手法の MO をした後にプロが指した手の MO による平均順位を測定したところ既存手法に 2 手ほど及ばなかったが既存手法と近い結果を出した.また速度が速かったため SVR に評価関数を用いた探索の代替手段となりうる可能性が示唆された.しかし,本手法の性能を確認するために 200 回対局を行ったところ,86-111-3 という結果を得て有意に負け越してしまった.This paper proposes Move Ordering (MO) of the computer Shogi using Support Vector Regression (SVR), which is one sort of the watching learning technique. MO is the technique of arranging moves in the order of value of them to increase efficiency of search of computer Shogi. There is room for further improvement in efficiency of MO because it is time - consuming; the move search is performed and the evaluation function is applied one by one. So this paper proposes MO using SVR to speed up MO and enhances efficiency on search. It extracts features of possible moves and gets the priority of moves using SVR. The average rounds of the professional player's moves were checked to evaluate the method. It showed the MO using SVR can alternate move search and evaluation function in the future because the average \difference of ranks was only two and it is faster. However, the move search and evaluation function an outperformed MO using SVR significantly when 200 games were performed. The result was 86-111-3.
著者
但馬 康宏
雑誌
研究報告ゲーム情報学(GI)
巻号頁・発行日
vol.2010-GI-24, no.8, pp.1-7, 2010-06-18

ゲームの評価関数を強化学習を用いて獲得する場合,一般的には終了局面における勝敗を報酬とし,途中局面の報酬を 0 とする手法が知られている.本研究では途中局面に対する報酬をその局面におけるランダムシミュレーションの勝率とし,終了局面における勝敗の報酬の大きさを変化させた場合の違いを検証する.さらにオセロゲーム Zebra において利用されている盤面パターンの評価重みを本手法により学習し,実験的評価とする.
著者
西谷 崇志 原 慎平 井上 真郷
雑誌
研究報告ゲーム情報学(GI)
巻号頁・発行日
vol.2009, no.27(2009-GI-21), pp.101-108, 2009-03-02

本研究ではダーツ01(301)ゲームを対象に研究を行った。ダーツゲームは状態遷移確率がプレイヤーのスキルに依存する不確定ゲームであるため、未だその戦略的側面についてはあまり詳しく研究されていない。本研究ではプレイヤーが狙った点からダーツが二次元正規分布に従って当たるとするモデルで解析を行った。また、01ゲームの状態遷移には様々な経路が存在する点に着目し、動的計画法を用いることでプレイヤーのスキルに応じて平均的に最も少ないラウンド数で終了条件を満たす戦略を得ることに成功した。また、対戦相手が前述の戦略をとるものと仮定した上での、勝率を最大化する戦略も求め、結果を得た。本手法はより一般的な501ゲームにも容易に適用可能である。
著者
萩原 涼太 山田 渉央 佐藤 直之 池田 心
雑誌
研究報告ゲーム情報学(GI) (ISSN:21888736)
巻号頁・発行日
vol.2016-GI-35, no.11, pp.1-8, 2016-03-01

本研究では,麻雀における 「相手の和了点数予測」 という部分問題を対象にその推定精度の向上を試みた.実験では,既存研究と同様にオンライン麻雀サイト 「天鳳」 の牌譜を学習用に用い,機械学習することで相手の和了点数を予測する.既存研究では比較的単純な重み付き線形和のモデルを使っていたのに対し,我々は特徴量のグルーピングおよび組み合わせによって複雑化されたモデルを推定に使用した.そのグルーピングと組み合わせの制御は局所探索法で自動的に行っている.これらのアプローチで性能が向上する事を確認した.さらに,我々は同じ問題に対して多層ニューラルネットワークによる学習も試みた.その結果,線形和モデルの場合よりも汎化性能が向上する事を確認した.
著者
西野 順二
出版者
一般社団法人情報処理学会
雑誌
研究報告ゲーム情報学(GI) (ISSN:09196072)
巻号頁・発行日
vol.2015, no.18, pp.1-5, 2015-02-26
被引用文献数
2

多人数不完全情報ゲームの人狼においてその自然な勝率を算出した.人狼は,代表的な会話にもとづくゲームである.このため,推論機能を持つ人工知能エージェントによる,会話と信頼創出のテストベッドとして研究されている.村人の人数に対して人狼側が有利であり,ゲームが拮抗する人数は全体の平方根に従うことが明らかになっている.本研究はこれに対し,人狼がより自然な戦略を取った場合に人狼側の有利さがさらに高いことを示した.勝率を算出し示すことで,人工エージェントの能力が有意に高いことを測る具体的な基準値を示した.
著者
生井 智司 伊藤 毅志
雑誌
研究報告ゲーム情報学(GI)
巻号頁・発行日
vol.2010-GI-24, no.3, pp.1-7, 2010-06-18

本稿では,将棋における棋風を人間がどのように感じるのかをインタビューを通して明らかにすることを試みた.そして,その知見をもとにして,プレイヤが棋風を感じられるような棋風模倣システムを試作して,その効果を評価した.
著者
三塩 武徳 藤田 桂英
出版者
一般社団法人情報処理学会
雑誌
研究報告ゲーム情報学(GI) (ISSN:09196072)
巻号頁・発行日
vol.2015, no.7, pp.1-6, 2015-02-26

本論文では二人不完全情報ゲームである 「ガイスター (geister)」 に独自の交渉ルールを追加した 「NEGOgeister」 を対象とする.本ゲームでの交渉を有利に進めるためには相手と自分の駒の価値を相対的に正しく評価し自分の得になる選択をする必要がある.一方,教師データとなるガイスターの棋譜は極めて少ないため駒の価値を評価する関数を作成することが難しい.そこで本手法では UPP 的な概念を用いて,シミュレーション結果の差異によって相手の駒の価値を推定する.これは正体のわからない相手の駒がゲーム中どれだけの価値があるのかを評価する特徴の一つとなる.さらに,評価実験によりこの特徴が相手の駒の価値を正確に反映しているかを確認した.In this paper, we study the "NEGOgeister" including our own negotiation rules to the "geister" which is a bilateral incomplete information game. A player needs to evaluate the values of our and opponent's pieces relatively, and select the effective strategies. However, it is difficult to decide functions of evaluating the values of the pieces because the records of "geister" which is used for learning data are little. Therefore, our proposed method estimates the values of the opponent's pieces with differences of simulation results using the UPP concept. It is the one of important features to evaluate the values of unknown opponent's pieces. We evaluate and discuss them with the objective of evaluating the values of opponent's pieces, accurately.
著者
田頭 幸三 但馬 康宏 菊井 玄一郎
雑誌
研究報告ゲーム情報学(GI) (ISSN:21888736)
巻号頁・発行日
vol.2015-GI-34, no.9, pp.1-6, 2015-06-27

コンピュータによるゲームの思考アルゴリズムの研究は囲碁,将棋などのボードゲームに限らず,トランプゲームに対しても行われている.特に大貧民については,毎年,電気通信大学が UEC コンピュータ大貧民大会を開催している.この大会は,大貧民をプレイするクライアントプログラム同士を対戦させ,最も強いクライアントを決める大会であり,機械学習を用いた無差別級とヒューリスティックな戦略を用いたライト級の 2 つの部門がある.本研究では,コンピュータ大貧民大会ライト級のヒューリスティック部門に向けて製作し,優勝したプログラムから,戦略の一部分を変更した場合の強さの変化を比較することで,勝利するのに有効な戦略について分析を行った.その結果,勝利するには,しばりを発生させる場合は強いカードを持っている場合に優先する戦略,同じ枚数の組が多いカードを提出し,次の自分の番にカードを減らしやすくする戦略,勝てる可能性が高ければ強いカードから出す戦略の有効性が高いと判断できた.
著者
鎌田 徹朗 橋本 剛 高野 誠也
出版者
一般社団法人情報処理学会
雑誌
研究報告ゲーム情報学(GI) (ISSN:09196072)
巻号頁・発行日
vol.2015, no.10, pp.1-6, 2015-02-26

StarCraft はリアルタイムストラテジー (RTS) ゲームの中でも特に人気のシリーズであり,多数のプロプレイヤーがいる.AI 同士で対戦を行う大会が開催され, StarCraft AI の開発は徐々に盛んになってきているが,まだプロに勝てるほど強くない.2012 年と 2014 年に開催された大会で上位入賞 AI 対プロの対戦が行われたが,結果は AI 側の 12 戦全敗であった.この対戦を分析すると,ユニットの移動時の配置に大きな問題があることがわかった.本研究では StarCraft AI に隊列の概念導入を提案し,実装を行い実験により有効性を調べる.StarCraft is a popular series of Real Time Strategy (RTS) games with which many professional players play. Tournaments for AI are often held and development of StarCraft AI gradually becomes popular, however it can not defeat professional players yet. Higher-ranking prize StarCraft AI programs on 2012 and 2014 tournaments played with a professional player and the result is zero win twelve loses among twelve games from AI. Analysis of these games makes aware that disposition of units while moving has great difficulty. This research introduces a concept of ranks of troops to StarCraft AI, implements it and examines its effectiveness by experiments.
著者
鎌田 徹朗 橋本 剛 高野 誠也
雑誌
研究報告ゲーム情報学(GI)
巻号頁・発行日
vol.2015-GI-33, no.10, pp.1-6, 2015-02-26

StarCraft はリアルタイムストラテジー (RTS) ゲームの中でも特に人気のシリーズであり,多数のプロプレイヤーがいる.AI 同士で対戦を行う大会が開催され, StarCraft AI の開発は徐々に盛んになってきているが,まだプロに勝てるほど強くない.2012 年と 2014 年に開催された大会で上位入賞 AI 対プロの対戦が行われたが,結果は AI 側の 12 戦全敗であった.この対戦を分析すると,ユニットの移動時の配置に大きな問題があることがわかった.本研究では StarCraft AI に隊列の概念導入を提案し,実装を行い実験により有効性を調べる.
著者
森田茂彦 松崎公紀
雑誌
研究報告ゲーム情報学(GI)
巻号頁・発行日
vol.2014-GI-31, no.14, pp.1-5, 2014-03-10

チェスや将棋などにおいて,プレイヤの強さを数値として表すレーティングシステムが広く用いられている.レーティングアルゴリズムとして良く知られるイロレーティングでは,プレイヤ間のレート差と勝敗によってレートの増減が計算される.特に,弱いプレイヤが強いプレイヤに勝つと,レートの増分が大きくなる.本研究では,大貧民を対象としたレーティングアルゴリズムを提案する.大貧民では,プレイヤの強さに加えて,初期手札の良さが勝敗に大きく影響する.そのため,初期手札の良し悪しに差がある場合,従来のレーティングアルゴリズムを用いるとレートの増減が過剰であったり不足することが起こりうる.この問題を解決するため,初期手札の不均等性を考慮に入れたレーティングアルゴリズムを提案し,そのアルゴリズムについて評価を行う.
著者
小沼 啓 西野 哲朗
出版者
情報処理学会
雑誌
研究報告ゲーム情報学(GI) (ISSN:21862583)
巻号頁・発行日
vol.2011, no.3, pp.1-4, 2011-02-26

モンテカルロ法による最善手の推定にε-GREEDY 法を用いた,コンピュータ大貧民のプレイヤープログラムを開発した.さらに,最善手を得る確率を高めるために推定回数を増やす手法を採用し拡張した.この手法は, 従来のプレイヤープログラムより強いことが示された.In this paper, we propose ε-GREEDY method for finding the best legal move in computer Daihinmin while applying the Monte Carlo method. Furthermore, we increase the number of estimation of our ε-GREEDY method. Our result suggests that our method is the strongest among computer Daihinmin methods.
著者
西野順二 西野哲朗
雑誌
研究報告ゲーム情報学(GI)
巻号頁・発行日
vol.2013, no.5, pp.1-8, 2013-02-25

大貧民プレイヤプログラムなど不完全情報ゲームでは他プレイヤの手の情報を推定することが重要と考えられるが,局面によっては推定の必用が無い場合もある.本稿では不完全情報ゲームの性質を計る指標として偶然手番感度を提案し,これを用いて多人数不完全情報ゲームの大貧民の特性を調べることを目的とする.偶然手番感度は,相手手札の可能性を決める偶然手番がある場面での着手の利得に与える影響度であり,情報集合に含まれる局面可能性による利得の振れ幅を数値化したものである.大貧民を縮小した単貧民について,2人から5人に2から5枚を配布し合計12枚の全ての配布パターンについてその完全探索結果から,相手手札の可能性に対して最適着手は変わらず,偶然手番感度が低いことを示した.53枚5人プレイヤにおいても,モンテカルロシミュレーションによる推定利得から偶然手番感度を求める実験によってやはり偶然手番感度が低いことを示した.