- 著者
-
恵木 正史
- 出版者
- 日本セキュリティ・マネジメント学会
- 雑誌
- 日本セキュリティ・マネジメント学会誌 (ISSN:13436619)
- 巻号頁・発行日
- vol.34, no.1, pp.20-27, 2020 (Released:2020-08-16)
- 参考文献数
- 30
- 被引用文献数
-
2
深層学習モデルを代表とした機械学習技術の進展に伴い,その活用範囲が急速に広がり,人命や財産に関わる重要な意思決定に使うニーズが増大している.しかし,深層学習モデルなどの機械学習モデルは高度に複雑な構造物であり,人がその動作の全容を把握するのは困難であるため,実質的なブラックボックスとなっている.そのため,機械学習モデルの予測結果を安心して業務に使えないという問題が生じている.そこで,近年機械学習モデルの予測根拠を説明するXAI(eXplainable AI)技術の研究が急速に進み,多種多様な技術へと発展している.XAI技術は大きく,既存の機械学習モデルを説明する技術であるブラックボックス型と,学習過程や構造が人にとって解釈可能な新型の機械学習モデルであるトランスペアレント型とに大別される.本稿では,研究の進展が著しく,汎用性の高いブラックボックス型にフォーカスする.
ブラックボックス型も説明の種別や,対象とする機械学習モデルの種別に応じて多種多様な技術が提案されている.本稿ではそれらを体系的に整理して俯瞰すると共に,近年のXAI技術を理解する上で欠かせない2つの代表的な技術,すなわち,Shapley値とInfluence Functionについて解説する.さらに,これらのXAI技術を悪用すれば,新たな攻撃のリスクとなりうる点について述べる.