著者
吉田 康太 藤野 毅
出版者
一般社団法人 電子情報通信学会
雑誌
電子情報通信学会 基礎・境界ソサイエティ Fundamentals Review (ISSN:18820875)
巻号頁・発行日
vol.15, no.2, pp.88-100, 2021-10-01 (Released:2021-10-01)
参考文献数
68

深層ニューラルネットワーク(DNNs)などの機械学習技術(以降AI技術と呼ぶ)は,画像認識をはじめとする様々なタスクにおいて非常に高い性能を発揮しており,本技術の社会実装が今後更に加速することが予想される.自動運転車や監視カメラなど,安全やセキュリティに関わる分野にAI技術を導入するためには,誤動作の誘発・プライバシー情報の窃取などを目的としたAIに対する攻撃手法に対するセキュリティ対策が重要になる.また,学習済みAIモデルは重要な知的財産であるため,これを保護する手法も実装しなければならない.一方で,監視カメラや自動運転システムのようなプライバシー保護・リアルタイム性が要求されるアプリケーションでは,推論処理を組み込み機器(以降エッジAIと呼ぶ)で実行する必要がある.このようなケースでは攻撃者がエッジAIへ物理的にアクセスできるシナリオも考慮したセキュリティの確保が求められ,エッジAIのハードウェアセキュリティという研究分野が2017年頃から注目されている.本稿では,AI特有のセキュリティ課題及びエッジAIのハードウェアセキュリティについて,脅威を整理し,更に近年の研究動向や対策技術を紹介する.
著者
吉田 康太 藤野 毅
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会全国大会論文集 第34回 (2020)
巻号頁・発行日
pp.4J3GS204, 2020 (Released:2020-06-19)

深層学習(DNN)システムにおけるセキュリティ課題として,バックドア攻撃が知られている.画像認識におけるバックドア攻撃では,攻撃者はDNNモデルの学習データセットに,特定位置へのドット付与などの目立たない加工を施し,加工前とは異なるターゲットラベルを設定した少量の異常データ(ポイズンデータ)を混入させる.このデータセットを用いて学習したDNNモデル(バックドアモデル)は,正常な入力に対しては正常に推論を行うが,ポイズンデータと同様の加工が施された入力に対しては,推論結果がターゲットラベルに誘導されてしまう.本稿では,DNNモデルユーザ(防御者)がラベルのないクリーンなデータを収集できるタスクを想定し,蒸留を用いたバックドア攻撃への対策を提案する.バックドアモデルを教師とし,クリーンデータを用いて蒸留することで,ポイズンデータの影響を排除した生徒モデルが得られる.更に,バックドアモデルと生徒モデルそれぞれで学習データセットを分類した時の推論結果の差分から,学習データ5万件の中に100件のみ含まれるポイズンデータの候補を約550件まで絞り込むことができる.