著者
濵本 鴻志 葛谷 潤 荒井 ひろみ
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会全国大会論文集 第35回 (2021)
巻号頁・発行日
pp.2C4OS9b02, 2021 (Released:2021-06-14)

人工知能(AI)の発展が目覚ましい一方で、その背景にある機械学習、特に深層学習のブラックボックス性は、信頼と責任の観点から社会実装の障害となっている。こうしたブラックボックス化の問題を解決するために、説明可能AIのコミュニティでは、透明性や説明責任を実装するための技術的な取り組みが急速に進められているだけでなく、近年では、そもそも説明とは何かといった哲学的問題に取り組む研究も始まっている。既存の研究の一つとして、Mittelstadt et al. (2019)は、Miller (2019)による説明概念の分析に基づいて、対話型の対比的説明を提供する説明可能AIの開発の必要性を訴えている。本論文では、まず、肺炎リスク予測システムの事例を用いて説明可能AIのニーズを確認し、次にMittelstadt et al.(2019)の議論を概観した上で、そこで提案されている対話型の対比的説明の有用性について議論する。
著者
楊 明哲 荒井 ひろみ 馬場 雪乃
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会全国大会論文集 第35回全国大会(2021)
巻号頁・発行日
pp.2C3OS9a03, 2021 (Released:2021-06-14)

無意識のバイアスは,人間が無意識のうちに獲得した固定観念等から形成される,潜在的な偏見のことである.人種・性別に関する無意識のバイアスは,採用や貸与等で他者を評価する際の不公平な判断に繋がる.機械学習モデルによる人間の評価がしばしば不公平になることは知られており,解決のために公平性配慮型機械学習の技術が研究されている.本研究では,人間が公平に判断できるようにするため,人間の無意識バイアスを矯正する手法を提案する.提案手法は,まず人間に(不公平な)評価を行わせ,評価結果に対して公平性配慮型機械学習を適用して公平なモデルを獲得する.公平なモデルと同様の判断をできるようにするため,人間に対して機械教示を行う.他者の収入を予測する被験者実験を実施し,不公平な評価を行う人間に対して,提案手法による矯正効果が見られることを確認した.
著者
角野 為耶 荒井 ひろみ 中川 裕志
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.56, no.12, pp.2244-2252, 2015-12-15

個人の情報を保護したデータ開示法の1つにk-匿名化がある.k-匿名化されたデータを人間が閲覧した際に,データに含まれた人間に対して不利益を生ずるような推測がなされる場合がある.本研究ではこの現象をk-匿名化が誘発する濡れ衣と呼び,濡れ衣を発生させうる属性を持つ機微なレコードに着目し,濡れ衣の発生を軽減させるk-匿名化法を提案する.実データに対して濡れ衣を発生させうる機微属性を付与したデータセットを用いて実験を行い,提案手法を用いると濡れ衣を軽減させたk-匿名化を実現できることを確認した.
著者
葛谷 潤 荒井 ひろみ
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会全国大会論文集 第36回 (2022) (ISSN:27587347)
巻号頁・発行日
pp.4G3OS4b02, 2022 (Released:2022-07-11)

人工知能(AI)システムの解釈可能性が求められるようになったことを受け、自らの振る舞いを説明できる説明可能AIの研究が進められている。従来の研究が主に焦点を合わせていたのは、振る舞いのきっかけとなる原因やそれを支えるメカニズムについての説明である。しかし、説明可能なAIに期待される効用を踏まえると、別の種類の説明、すなわち目的帰属型の説明を考慮する必要があると思われる。本報告の主な目的は、生物学・心・人工物の哲学の知見に基づき、目的帰属型の説明とは何かを定式化した上で、AIシステムを含む人工物の社会的受容にとってそれがもつ重要性を指摘することである。本報告では、まず説明可能なAIに期待される効用と従来の研究を整理し、次に目的帰属型の説明の定式化と人工物の社会的受容に対するその重要性の指摘を行い、最後にAIシステムの振る舞いの目的ないし機能を同定するための方策を考察する。