著者
浅野 孝平 全 眞嬉 徳山 豪
出版者
人工知能学会
雑誌
2019年度 人工知能学会全国大会(第33回)
巻号頁・発行日
2019-04-08

近年,深層学習をはじめとする高い識別性能をもつ機械学習モデルが様々な分野に応用されている.それらのモデルの多くはブラックボックスであり,ユーザがモデルの挙動や予測の原因について知ることが困難になっており,モデルや予測結果に解釈性に関する研究が活発に行われている.予測の原因となる特徴を特定する手法としてLocal Interpretable Model-agnostic Explanations (LIME) がある.しかしながらLIMEでは,個々の特徴の重要性を測ることはできるが,重要な特徴の組み合わせを特定することはできない.そこで,本研究では予測に影響を与えた特徴の組み合わせに着目した,新たなモデル依存性のない説明手法を提案する.提案手法では,特徴の組み合わせの中から,対象となる予測結果を得るために必要な特徴の組み合わせを探索アルゴリズムによって発見する.計算機実験によって従来のLIMEよりも高い予測能力を持つことが示された.また,画像分類への応用を行い,提案手法の有用性を検証した.