Katsuki Ohto @ AIコンペティショ (@kohto_ai)

投稿一覧(最新100件)

ゲーム情報学研究会若手奨励賞受賞の、山名さん(@takuto_yamana)のオセロ深層学習論文を読む。 オセロニアAIの参考にしたい。 https://t.co/c9jBPWSRRu
ゲームプログラミングワークショップ2021 東大の中本さん、鶴岡先生の 「外部記憶を用いた部分観測環境における教師なし強化学習」 エージェントの「記憶」は行動決定時に必要な記憶だけではなく、学習時に(通常)非公開の情報との照合に使えるとして外部記憶を導入します。 https://t.co/yEUmYQpnk6
ゲームプログラミングワークショップ2021 電通大の塩田さん、伊藤先生の「京都将棋の弱解決」 NNUE評価関数と強化学習の力により、探索木がルートのサイズに落ちて先手勝ちを証明できたそうです。 こういう証明方法は増えていきそうです。 https://t.co/wa4AHfRdtD
土日に参加したゲームプログラミングワークショップ2021で面白かった発表を紹介します。 まずは田中哲朗先生の「R-Rivals のナッシュ均衡戦略」 R-Rivalは有名なゲームではないですが、 同時ゲームのナッシュ均衡を線形計画法で解く実践例として、とても参考になりました。 https://t.co/AqtRhrxu0J
大富豪理論研究の方では、「大渡の定理」がまた一つ増えました。 #30代から数学者 https://t.co/prlYTMd49v
先日博士号を取得された木谷さんとの大富豪理論研究がジャーナルに掲載されました。 https://t.co/lcQXQTeebU
@inani_waon 数年前の研究では1手読みで平均数十万点でしたが(自分も真似してそこまではすぐ行けました) 今はもっと行けるかもしれませんね! https://t.co/ccEILlqFKB
GPW2020の発表スライドを公開しました。② (①の続きの研究です) [予稿(誰でもアクセス可)] https://t.co/gjDai32kDF [スライド] https://t.co/AW6JaNs2nX
GPW2020の発表スライドを公開しました。① [予稿(誰でもアクセス可)] https://t.co/d0OApJrSlj [スライド] https://t.co/Lm6V0eJAg4
@CeoImed 2次元空間ですと一般化三目並べ(Generalized Tic Tac Toe)と呼ばれます。 https://t.co/jwdAvtkr5u (pdf) 多次元は自分は見たことがないのですが、やっている人はいるのではないかと思います!
今年のUEC杯5五将棋大会で全勝優勝したプログラムは やねうら王+NNUE ベースとのこと。 自己対戦は先手9勝291敗、5五将棋は後手勝ちの可能性が高くなってきた。 任天堂のアソビ大全に入っているらしく、一気に知名度が上がりそう。 https://t.co/h5fPE9wEVW
大林組の振動制御の発表面白かった! https://t.co/s588YTmNa7
RT @tokumini_ss: 登録ミスとかで今日とても慌てていろいろやってたんですけど、多分発表できることになりそうです 2020年度 人工知能学会全国大会(第34回)/不完全情報ゲームにおける環境モデルの潜在的学習によるゲーム木探索 https://t.co/lnOnCL…
不完全情報単貧民の研究はゲームプログラミングワークショップ優秀論文賞を頂いたようです
不完全情報単貧民の予稿公開されました!オープンアクセスです。 他のGPW2019投稿も見られるようになっています。 https://t.co/8TWGIqocO9
先日のゲーム情報学研究会で大富豪のルールの違いによるゲーム性の 違いに言及する研究発表https://t.co/QsaTnugSW7がありました。当方のプログラムはUECdaルールありきの実装であり、ルールへの過度な特化は大富豪の本質からは遠い感じがするので可変ルールに書き換えたいですね。
鬼才、木谷さんのゲーム研究の新作です! 手札公開ババ抜きの勝利条件のお話です。ババを引くのが最善の展開もあるとか! https://t.co/QRSbRZUtP0
ニコ生でCPUが単純合議で将棋を指していますが、GPSの竹内さんがよりレベルの高い(相対的に弱いプログラムを有効活用できる)合議システムを提案しています。 https://t.co/Ld669WV0MQ

お気に入り一覧(最新100件)

本日よりまた出張です!今年から開始する挑戦的研究(萌芽)に関する共同研究を進めてきます
なお今回の図ですが、大阪工業大学の平嶋先生の論文から引用させて頂きました。 「コンテナ物流業務における組合せ最適化問題と強化学習を用いた解法」という非常に面白いテーマです。(7/7) https://t.co/uV0jwdOqEX https://t.co/AZfFXhnDqo
@Qhapaq_49 @toku51n 図巧1番はそこまでしなくても解けると思いますが、千日手は手順を局面表に記録させる必要があるようです(リンク先だと読めない?) https://t.co/vhMF1TbWiy..
大槻研今田さん。人狼ゲーム!(今年はOSに入らなかった発表も)説得機能を持つエージェントは勝利面で有利かの検証 /2020年度 人工知能学会全国大会(第34回)/人狼知能エージェントにおける説得・被説得機能の評価 https://t.co/6q9vTlp7TU #jsai2020
交渉課題に深層強化学習を用いる/2020年度 人工知能学会全国大会(第34回)/自動交渉エージェントのための効用推定に基づく深層強化学習 https://t.co/8O0ilpLwgJ
登録ミスとかで今日とても慌てていろいろやってたんですけど、多分発表できることになりそうです 2020年度 人工知能学会全国大会(第34回)/不完全情報ゲームにおける環境モデルの潜在的学習によるゲーム木探索 https://t.co/lnOnCLbW8I
初手の階段含めたパターン出現確率一覧みたいなのが落ちてないかググったらコンピュータ大貧民なる面白そうな話が引っかかった(探し物自体はなかった https://t.co/GnbikR3oT0
ちょっと長いんで後から読む用メモ SVMによる将棋の詰みの予測とその応用 http://t.co/cchjFaeMtG

フォロー(324ユーザ)の投稿一覧(直近7日間)

フォロワー(1254ユーザ)の投稿一覧(直近7日間)