著者
Rémi Coulom
雑誌
ゲームプログラミングワークショップ2023論文集
巻号頁・発行日
vol.2023, pp.66-69, 2023-11-10

While training deep-learning neural networks often requires considerable amounts of computing power, inference is efficient, and can be run on small devices. Cell phones are a typical example, but they are still rather powerful. The research presented in this paper takes the challenge to the extreme by running a Go-playing convolutional neural network on the 6809 CPU, an 8-bit microprocessor launched by Motorola in 1978. The software was implemented on a Thomson MO5 microcomputer, and reached a playing strength on par with GNU Go.
著者
シュエ ジュウシュエン 池田 心
雑誌
ゲームプログラミングワークショップ2023論文集
巻号頁・発行日
vol.2023, pp.131-138, 2023-11-10

囲碁の問題集はプレイヤが上達するための勉強によく使われている.市販の問題集はたくさん存在するが,問題数が限られているし,個人ごとの弱点や好みに合わせて提供することも殆ど不可能である.そこで本研究はプレイヤの要望に応じた囲碁問題の自動生成を目指す.まずは囲碁問題の自動生成に向ける第一歩として,本稿では問題の局面と正解手が与えられると仮定するうえで,不正解手の自動生成を行う.本稿での調査対象を布石問題とする.具体的には市販の布石問題集を,ヒューリスティック特徴量と強い囲碁プログラムによる特徴量で分析し,不正解手が選ばれる条件を明らかにする.また,調査の結果に基づき,ルールベースの方法で不正解手の自動生成も行う.
著者
土居 海里 竹内 聖悟
雑誌
ゲームプログラミングワークショップ2023論文集
巻号頁・発行日
vol.2023, pp.42-47, 2023-11-10

近年 AI 技術の発展に伴い対戦ゲーム AI の分野においても強さ以外の価値を与えるため、動的な強さの調整などの研究が様々なゲームで行われていた。著者らは以前に対戦テトリスの動的難易度調整を行ったが、その後行った人間との対戦では、AI の操作精度や操作速度の高さ等の影響により不自然かつうまく調整できないという問題があった。本研究では対戦テトリスにおける対戦 AI の人間らしさの影響について、生物学的制約などの人間らしさを導入した AI と従来の動的難易度調整を行う AI の 2 種類の AI と人間プレイヤーとの対戦実験により評価を行った。人間らしさや楽しさの評価については 5 段階評価のアンケートと自由記述の回答などを基に考察を行った。また人間らしさが AI の動作に本当に表れているか確認するために 2 種の AI の動作を人間プレイヤーに確認してもらい評価を行った。本稿では対戦テトリスにおける人間らしさの影響について対戦者自身には影響が少なく、類似ゲームにおける動的難易度調整において自然さを考慮しない AI でも十分な楽しさを与えられる可能性を示した。
著者
出村 洋介 金子 知適
雑誌
ゲームプログラミングワークショップ2023論文集
巻号頁・発行日
vol.2023, pp.111-118, 2023-11-10

経験の多様性と不偏性は強化学習エージェントの性能や頑健性を向上させるが,大きな計算コストなしにそれを実現するのは困難な場合がある.多くのチェスライクゲームやオセロなどでは,初期状態(初期局面の駒配置等)が固定されていて 1 通りしかないため,AlphaZero スタイルの強化学習を行う場合,エージェントは似たようなエピソードや棋譜を経験しがちである.本論文では,この課題に対応するため,将棋の初期局面を拡張した「将棋 81 万」を提案し,将棋における有効性を実験的に評価する.「将棋 81 万」は,チェス 960 [1] と同様に駒の初期配置を一定の制約のもとでランダムにシャッフルして作成された将棋の初期局面集である.我々は,Gumbel AlphaZero の手法で 1000 万局の自己対局を行って様々なエージェントを訓練する実験を行い,最初に将棋 81 万で事前学習を行った後に通常の将棋に適応学習させたエージェントは,通常の将棋のみで訓練したエージェントよりも人間の対局で見られる様々な戦型において平均的パフォーマンスや頑健性が向上することを示した.