著者
新出 尚之 高田 司郎 藤田 恵
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会論文誌 (ISSN:13460714)
巻号頁・発行日
vol.26, no.1, pp.13-24, 2011 (Released:2011-01-06)
参考文献数
16
被引用文献数
2 3

In multi-agent environments, to model cooperations among autonomous agents, many notions such as mutual beliefs and joint intentions, recognition of possibilities to achieve a goal with cooperation, and team formations, should be formally represented. In the traditional BDI logics, it is hard to treat them uniformly. We show the way to treat them uniformly using the fixed-point operator of the extended BDI logic \ omatoes. We also give some examples to apply it to the proof of some behaviors of multi-agent systems.
著者
笹山 琴由 野口 真理子 藤本 尚子 鴨 浩靖 新出 尚之
雑誌
第47回プログラミング・シンポジウム予稿集
巻号頁・発行日
vol.2006, pp.161-166, 2006-01-10

makeは、依存関係の定義をもとに、ターゲットの更新に必要となる動作を行うツールで、ソフトウェア開発に広く用いられている。makeの動作は、依存関係のルールを記述したファイルに基づき、ターゲットを構築するためのルールを見つけ出し、必要なアクションを再帰的に起こすというものである。これは、論理プログラミング言語であるPrologの動作と類似している。そこで我々は、makeのPrologによる再実装を行うプロジェクトを進行している。動作の検証を行う対象としてはNetBSDのシステム全体のmakeを選び、ある程度大規模なソフトウェア開発に対してもこのプロジェクトが有効であることを示す。本発表では、我々のプロジェクトの紹介と、現在の進行状況について述べる。
著者
高田 司郎 新出 尚之
出版者
一般社団法人情報処理学会
雑誌
研究報告数理モデル化と問題解決(MPS) (ISSN:09196072)
巻号頁・発行日
vol.2009, no.19, pp.57-60, 2009-02-26

従来のBDI logicは,Bratmanの「意図の理論」を基にした既存BDIモデルの範囲で,信念・願望・意図などの心的状態とそれら心的状態を保持・更新して目的を達成する振る舞いに関して,形式的な議論や証明を行うことができた.しかし動的な環境下の合理的エージェントの実現には,強化学習との統合などが要請される.そこで,確率的遷移と不動点オペレータの概念を導入してBDI logicを拡張したtomatoを用いて,強化学習で用いられる方策や有限MDPをtomatoの論理式として記述し,BDIと同じ論理体系で扱うことを可能にすることで,BDIと強化学習の統合方式を提案する.具体的には,強化学習の事例として「カヌーレーシング」をtomatoを用いて形式的に記述することで,厳密な議論や証明ができることを例示し,上記のように拡張された合理的エージェントの実現に,tomatoが有効であることを示す.Using traditional BDI logics, within the existing BDI model which based on the theory of intention by Bratman, we can formally argue or prove various properties of agents' mental states such as beliefs, desires and intentions, or behaviors of agents to achieve their aims while holding and updating their mental states. However, to construct rational agents under dynamic environments, additional capabilities such as integration with reinforcement learning are required. In this paper, we describe the notions used in reinforcement learning, such as policies and finite MDPs, as a formula of tomato, an extended BDI logic with probabilistic transitions and fixpoint operators. In this way, we propose a way to integrate BDI and reinforcement learning by enabling us to handle those two within a uniform logic. Specifically, using tomato, we provide a formal description of canoe racing as a case of reinforcement learning, and give some examples of strict arguments and proofs. It shows the effectiveness of tomato on realizing rational agents extended in the way described above.