著者
大岩 秀和 数原 良彦 淡島 英輝
出版者
人工知能学会
雑誌
人工知能学会全国大会論文集 (ISSN:13479881)
巻号頁・発行日
vol.31, 2017

近年の技術進歩に伴い,様々な製品やサービスにおいて人工知能技術の導入検討が行われている.一方で人工知能技術の導入判断時には,人工知能技術の評価や検証に特有のバイアスが存在し,適切な人工知能技術の利用を阻害する導入判断が下されるリスクが存在する.本研究では,意思決定者が人工知能技術の導入判断時にとらわれがちなバイアスと誘発される問題点について整理し,適切な導入判断を推進するための方法論を検討する.
著者
濱口 拓男 大岩 秀和 新保 仁 松本 裕治
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会論文誌 (ISSN:13460714)
巻号頁・発行日
vol.33, no.2, pp.F-H72_1-10, 2018-03-01 (Released:2018-04-03)
参考文献数
31
被引用文献数
5

Knowledge base completion (KBC) aims to predict missing information in a knowledge base. In this paper, we address the out-of-knowledge-base (OOKB) entity problem in KBC: how to answer queries concerning test entities not observed at training time. Existing embedding-based KBC models assume that all test entities are available at training time, making it unclear how to obtain embeddings for new entities without costly retraining. To solve the OOKB entity problem without retraining, we use graph neural networks (GNNs) to compute the embeddings of OOKB entities, exploiting the limited auxiliary knowledge provided at test time. The experimental results show the effectiveness of our proposed model in the OOKB setting. Additionally, in the standard KBC setting in which OOKB entities are not involved, our model achieves state-of-the-art performance on the WordNet dataset.
著者
大岩 秀和 松島 慎 中川 裕志
出版者
人工知能学会
雑誌
人工知能学会全国大会論文集 (ISSN:13479881)
巻号頁・発行日
vol.26, 2012

大規模データから省メモリかつ高速に学習を行う手法として,L1正則化付きオンライン学習アルゴリズムが複数提案されている.しかし,これらの既存手法は予測に有用であっても出現頻度の低い特徴をモデルから排除してしまう性質があった. 本研究では,低頻度かつ予測に有用な特徴を予測モデルに動的に組み込める新たな正則化手法を提案する.さらに,本手法の理論解析と実験による評価を行い,本正則化手法の有用性を示す.
著者
大岩 秀和 数原 良彦 淡島 英輝
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会全国大会論文集 第31回全国大会(2017)
巻号頁・発行日
pp.1E1OS24a4, 2017 (Released:2018-07-30)

近年の技術進歩に伴い,様々な製品やサービスにおいて人工知能技術の導入検討が行われている.一方で人工知能技術の導入判断時には,人工知能技術の評価や検証に特有のバイアスが存在し,適切な人工知能技術の利用を阻害する導入判断が下されるリスクが存在する.本研究では,意思決定者が人工知能技術の導入判断時にとらわれがちなバイアスと誘発される問題点について整理し,適切な導入判断を推進するための方法論を検討する.
著者
小宮山 純平 大岩 秀和 中川 裕志
出版者
人工知能学会
雑誌
人工知能学会全国大会論文集 (ISSN:13479881)
巻号頁・発行日
vol.28, 2014

MannらによるIterative Parameter Mixtureを代表例とした、データが多くのマシンに分散しており、各マシンでの学習を重みづけして統合する状況を考える。一部のマシンが故障などにより異常なデータを返し、学習の結果を悪化させることが懸念される。データ分布の間のダイバージェンスを考え、各マシンの重要度をそのデータから自動的に重みづけし、異常データの影響を抑える手法を提案する。
著者
大岩 秀和
雑誌
人工知能
巻号頁・発行日
vol.30, no.5, pp.704-704, 2015-09-01
著者
大岩 秀和 松島 慎 中川 裕志
出版者
情報処理学会
雑誌
研究報告数理モデル化と問題解決(MPS) (ISSN:21862583)
巻号頁・発行日
vol.2011, no.18, pp.1-6, 2011-02-28

オンライン学習 (逐次学習) とは,訓練データを 1 つ受け取るたびに逐次的に学習を行う手法であり,大規模な訓練集合からの学習が効率化される.L1 正則化とは,学習上不要なパラメータを零化する手法で,学習の高速化やメモリ効率の改善が期待される.2009 年に提案された FOBOS7) は上記の二手法を組み合わせた,教師あり学習のための L1 正則化付きオンライン学習手法である.しかし FOBOS では,特徴の出現回数が不均一な訓練集合では,低頻度の特徴が排除されやすい性質を持つ.FOBOS では各特徴の出現頻度やパラメータの累積更新幅とは無関係に全特徴に共通の零化を施すためである.しかし既存の L1 正則化付きオンライン学習アルゴリズムでは,この性質は分析されてこなかった.本稿では,特徴の出現回数の情報を用いた L1 正則化を導入した教師あり学習のためのオンライン学習手法 (HF-FOBOS) を提案する.さらに,HF-FOBOS は既存手法と同様の計算コスト.収束速度でパラメータの累積更新幅に応じた L1 正則化を実現する学習手法である事を確認する.また,HF-FOBOS と FOBOS に対して実問題に基づく実験を行い,出現頻度を利用した L1 正則化が精度向上へ寄与することを示した.Online learning is a method that updates parameters whenever it receives a single data. Online learning can learn efficiently from large data set. L1 regularization is used for inducing sparsity into parameters and exclude unnecessary parameters. FOBOS7) combines these two methods described above and presented a supervised online learning method with an efficient L1 regularization. FOBOS has the property the parameters of low frequency features are zeros in a heterogeneous data set. However, this property is not analyzed enough in the field of online learning. In this paper, we presented a new online supervised learning method with L1 regularization based on the number of occurrences of feature, named Heterogeneous Frequency FOBOS (HF-FOBOS). HF-FOBOS can solve optimization problems at same computational costs and convergence rate as FOBOS. Moreover, we examined the performance of our algorithms with classification tasks, and confirmed L1 regularization based on the frequency of features improve accuracy.
著者
大岩 秀和 中川 裕志
出版者
人工知能学会
雑誌
人工知能学会全国大会論文集 (ISSN:13479881)
巻号頁・発行日
vol.27, 2013

オンライン学習は,データを受け取るたび逐次的に学習器を更新する手法である.そのため,過去の学習器で正答したデータに対し,学習器のルール更新後に誤答する事がある.所得効果より,この誤答コストは未知のデータに対する誤答コストよりも大きい事が示唆される.しかし,既存の枠組みでは前者のコストは考慮いない.本稿は所得効果を導入した枠組みを定式化し,所得効果付きオンライン学習に対応したアルゴリズムを提案する.