著者
東中 竜一郎 杉山 弘晃 成松 宏美 磯崎 秀樹 菊井 玄一郎 堂坂 浩二 平 博順 喜多 智也 南 泰浩 風間 健流 大和 淳司
出版者
人工知能学会
雑誌
2018年度人工知能学会全国大会(第32回)
巻号頁・発行日
2018-04-12

「ロボットは東大に入れるか」プロジェクトの英語における意見要旨把握問題の解法について述べる.具体的には,RACEと呼ばれる大規模な英語問題のデータセットを用いた深層学習の手法により,Word2vecの類似度に基づく手法よりも高精度に意見要旨把握問題が解けることを示す.今回,30%の正解率を44%まで改善することができた.
著者
東中 竜一郎 杉山 弘晃 成松 宏美 磯崎 秀樹 菊井 玄一郎 堂坂 浩二 平 博順 喜多 智也 南 泰浩 風間 健流 大和 淳司
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会全国大会論文集 第32回全国大会(2018)
巻号頁・発行日
pp.2C102, 2018 (Released:2018-07-30)

「ロボットは東大に入れるか」プロジェクトの英語における意見要旨把握問題の解法について述べる. 具体的には,RACEと呼ばれる大規模な英語問題のデータセットを用いた 深層学習の手法により,Word2vecの類似度に基づく手法よりも高精度に意見要旨把握問題が解けることを示す. 今回,30%の正解率を44%まで改善することができた.
著者
東中 竜一郎 杉山 弘晃 成松 宏美 磯崎 秀樹 菊井 玄一郎 堂坂 浩二 平 博順 南 泰浩 大和 淳司
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会全国大会論文集 第31回全国大会(2017)
巻号頁・発行日
pp.2H21, 2017 (Released:2018-07-30)

「ロボットは東大に入れるか」プロジェクトにおける英語科目の到達点と今後の課題について説明する.現状,短文問題については高精度に正解しつつも,複数文からなる問題(複数文問題)については深層学習などの手法を適用しても精度が伸び悩んでいる.本稿では,短文問題における成績向上のポイント,そして,複数文問題の難しさについて触れ,複数文問題・長文問題の解決に向けた今後の方向性を示す.
著者
松崎 拓也 横野 光 宮尾 祐介 川添 愛 狩野 芳伸 加納 隼人 佐藤 理史 東中 竜一郎 杉山 弘晃 磯崎 秀樹 菊井 玄一郎 堂坂 浩二 平 博順 南 泰浩 新井 紀子
出版者
一般社団法人 言語処理学会
雑誌
自然言語処理 (ISSN:13407619)
巻号頁・発行日
vol.23, no.1, pp.119-159, 2016-01-25 (Released:2016-04-25)
参考文献数
35

「ロボットは東大に入れるか」は,大学入試試験問題を計算機で解くという挑戦を通じ,言語処理を含む AI 諸技術の再統合と,知的情報処理の新たな課題の発見を目指すプロジェクトである.知的能力の測定を第一目的として設計された入試問題は,AI 技術の恰好のベンチマークであるとともに,人間の受験者と機械のエラー傾向を直接比較することが可能である.本稿では,大手予備校主催のセンター試験形式模試を主たる評価データとして,各科目の解答システムのエラーを分析し,高得点へ向けた今後の課題を明らかにするとともに,分野としての言語処理全体における現在の課題を探る.
著者
東中 竜一郎 杉山 弘晃 成松 宏美 磯崎 秀樹 菊井 玄一郎 堂坂 浩二 平 博順 南 泰浩 大和 淳司
出版者
人工知能学会
雑誌
人工知能学会全国大会論文集 (ISSN:13479881)
巻号頁・発行日
vol.31, 2017

「ロボットは東大に入れるか」プロジェクトにおける英語科目の到達点と今後の課題について説明する.現状,短文問題については高精度に正解しつつも,複数文からなる問題(複数文問題)については深層学習などの手法を適用しても精度が伸び悩んでいる.本稿では,短文問題における成績向上のポイント,そして,複数文問題の難しさについて触れ,複数文問題・長文問題の解決に向けた今後の方向性を示す.
著者
磯崎 秀樹 賀沢 秀人
出版者
一般社団法人電子情報通信学会
雑誌
電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解 (ISSN:09135685)
巻号頁・発行日
vol.102, no.317, pp.17-22, 2002-09-12

サポートベクトルマシン(SVM)は高性能な機械学習方法として注目されている。もともと文字認識などのパターン認識で利用されているが、最近は、自然言語処理にも応用されており、品詞タグ付け、チャンキング、固有表現抽出、専門用語抽出、係り受け解析、構文解析、重要文抽出など、様々なタスクで従来手法と同等か、従来手法をしのぐ性能が報告されている。しかし、従来手法に比べて桁違いに実行速度が遅いこともわかってきた。そこで我々は、自然言語処理のデータの特徴を利用して実行速度を大幅に改善できるアルゴリズムを考案した。ここでは、この方法について報告する。
著者
平尾 努 奥村 学 福島 孝博 難波 英嗣 野畑 周 磯崎 秀樹
出版者
社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.48, no.14, pp.60-68, 2007-09-15
参考文献数
17
被引用文献数
1

複数文書要約の対象となる文書群には,ある文に対して,意味的に似通った文やまったく同じ文が含まれていることが多い.こうした傾向は,要約のための文書群を複数の情報源から得た場合に特に顕著である.しかし,従来のコーパスには,このようなよく似た文,あるいは同一の文の間に注釈付けが存在しない.これは,抜粋を評価するための指標を定義するうえで致命的な問題となる.本稿では,こうした冗長性を考慮したコーパスへの注釈付けの枠組みを提案し,それに基づき,抜粋の情報量を測る指標である被覆率,抜粋に含まれる重要文の冗長度を測る指標である重要文冗長率を提案する.これらの指標による抜粋の順位付けと被験者による順位付けとの間の順位相関係数は,ともに0.7以上であり,人間の順位付けとの間に高い相関があることが分かった.In multiple document summarization, input documents have many similar (or even identical)sentences. However, conventional corpora for multiple document summarization do not include links between similar sentences. This is a critical problem with regard to the definition of evaluation measures for sentence extraction. In this paper, we propose both annotation scheme for corpus and evaluation measures, "coverage" and "redundancy." "Coverage" measures the content information of the system extract and "redundancy" measures the redundancy of the important sentences contained in system extract. We evaluate "coverage" and "redundancy" by comparing their ranking correlation coefficients with subjective human rankings. The results show that both measure attained enough high correlation coefficients, which were more than 0.7 correlation coefficients.
著者
佐々木 裕 磯崎 秀樹 鈴木 潤 国領 弘治 平尾 努 賀沢 秀人 前田 英作
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.45, no.2, pp.635-646, 2004-02-15
被引用文献数
12

近年,大量の文書を用いて自然文によるユーザからの質問に答える質問応答(QA: Question Answering)システムに関する研究が注目を集めている.これまでいくつかのQAシステムが開発されてきたが,それらの多くは人手で作成されたルールや評価関数を用いて,質問の答えを大量の文書から抽出するアプローチをとっていた.これに対し,本論文では,機械学習技術を用いて,日本語QAシステムの主要なコンポーネントをそれぞれ学習データから構築することにより,QAシステム全体を構築する方法について述べる.具体的には,質問タイプや答えの判定を2クラス分類問題としてとらえ,質問文やその正解例から学習された分類器により,これらの機能を実現する.本アプローチのフィージビリティの確認のため,機械学習手法Support Vector Machine(SVM)を用いて学習型QAシステムSAIQA-IIを実装し,2 000問の質問・正解データによるシステム全体の5分割交差検定を行った.その結果,システムの性能として,MRR値で約0.4,5位以内正解率で約55%の正解率が得られることが明らかになった.This paper describes a Japanese Question-Answering(QA) System, SAIQA-II.These years, researchers have been attracted to the study of developingOpen-Domain QA systems that find answers to a natural language question given by a user.Most of conventional QA systems take an approach to manually constructing rules and evaluation functions to find answers to a question.This paper regards the specifications of main components of a QA system,question analysis and answer extraction, as 2-class classification problems.The question analysis determines the question type of a given question andthe answer extraction selects answer candidates thatmatch the question types. To confirm the feasibility of our approach,SAIQA-II was implemented using Support Vector Machines (SVMs).We conducted experiments on a QA test collection with 2,000 question-answer pairs based on 5-fold cross validation.Experimental results showed that the trained system achieved about 0.4 in MRR andabout 55% in TOP5 accuracy.
著者
河田 尚孝 磯崎 秀樹 菊井 玄一郎
出版者
人工知能学会
雑誌
2018年度人工知能学会全国大会(第32回)
巻号頁・発行日
2018-04-12

パラメータの最適化は、統計的機械翻訳のパフォーマンスを向上させるために不可欠です。 MERTは標準的な目的関数としてBLEUを使用する最適化ツールです。 しかし、日本語と英語のように語順が非常に異なる言語間の翻訳では、BLEUは人間の判断との相関が非常に低いです。したがって、BLEUの代わりにRIBESのような人手相関の高い評価関数を最適化プロセスの目的関数として使用する方がよい。 本稿では、MERTの目的関数として用いたRIBESの効果を調べ、SMTが原文とは大きく異なる語順を決定する際に、RIBESがBLEUよりも優れていることを見出した。
著者
磯崎 秀樹
出版者
一般社団法人電子情報通信学会
雑誌
電子情報通信学会技術研究報告. NLC, 言語理解とコミュニケーション
巻号頁・発行日
vol.96, no.46, pp.33-38, 1996-05-17
被引用文献数
4

「よ」, 「ね」, 「よね」などの格助詞は, 日本語で会話を円滑に行なう場合に重要な役割を果たす. 話者は適切な終助詞を選択するために, 聴者が何を信じているか推定しなければならない. 我々は, 外界の変化の観測データから他者の信念を推定するアルゴリズムを以前に提案しており, このアルゴリズムを終助詞選択に適用できるように思える. しかし, 我々はアルゴリズムを単純化するため, 発話が信念に影響を及ほすという事実を無視していた. 本稿では正直な発話の影響を考慮するにはアルブリズムをどう変更すればよいか説明し, 実際に適切な終助詞が選択されることを例題を用いて解説する.
著者
鈴木 潤 藤野 昭典 磯崎 秀樹
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告自然言語処理(NL) (ISSN:09196072)
巻号頁・発行日
vol.2007, no.94, pp.21-28, 2007-09-25
参考文献数
9

本稿では,半教師あり条件付確率場(Semi supervised conditional random fields)について議論をおこなう.自然言語処理の多くのタスクでは )効果的なモデル学習のために単語やその連接といった特徴を利用する必要があり,一般的に数万次元以上という高次元かつスパースな特徴空間を用いて学習をおこなう必要がある。よって,これらのタスクでは,半教師あり学習の枠組みにおいても,高次元スパース特徴空間に頑健な枠組が求められるそこで。本稿では文献[1]の枠組をベースにし,高次元スパース特徴空間に対して頑健な半教師あり条件付確率場を新たに提案する.また,固有表現抽出およびチヤンキングタスクを用いて半教師あり条件付確率場の性能と性質について検証をおこなった提案法により,従来の教師あり条件付確率場[2],エントロピー正則化に基づく半教師あり条件付確率場[3]と比較して大幅に良い結果が得られたまた,エントロピー、正則化に基づく半教師あり条件付確率場は,理論的にも実験的にも,高次元スパース特徴空間を用いた学習では性能の向上が期待できないことを明らかにする.This paper proposes a novel semi-supervised conditional random field which provides good characteristics with respect to handling the large and sparse feature spaces. Experiments on two real NLP tasks with extremely large feature spaces, such as named entity recognition and syntactic chunking, show that our proposed method significantly improves the state-of-the-art performance obtained from supervised CRFs[2], and semi-supervised CRFs employing the entropy regularization approach[3]. Moreover, this paper reveals that, theoretically and experimentally, semi-supervised CRFs based on the entropy regularization approach[2] cannot work well for improving the performance of tasks with large and sparse feature spaces.
著者
藤野 昭典 上田 修功 磯崎 秀樹
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告数理モデル化と問題解決(MPS) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.85, pp.95-98, 2008-09-11

各データが複数のカテゴリに属する多重分類問題に対して,ラベルありデータとラベルなしデータを用いた半教師あり学習により分類器を設計する手法を提案する.提案法では,ラベルありデータで学習させる識別モデルとラベルなしデータで学習させる生成モデルの統合により分類器を得る.提案法を多重テキスト分類問題に適用するため,識別モデルに対数線形モデルを,生成モデルにナイーブベイズモデルを用いる.実テキストデータからなる3つのテストコレクションを用いた実験で,従来の対数線形モデルとナイーブベイズモデルの半教師あり学習法と比較して,提案法ではより高い汎化能力を持つ多重分類器を得られることを確認した.We propose a method for designing semi-supervised multi-label classifiers, which select one or more category labels for each data example and are trained on labeled and unlabeled examples. The proposed method is based on a combination of discriminative models trained on labeled examples with generative models trained on unlabeled examples. We employed a log-linear model and a naive Bayes model as the discriminative and generative models, respectively, for multi-label text classification problems. Using three test collections consisting of real text data, we confirmed experimentally that the proposed method provided a better multi-label classifier with high generalization ability than conventional semi-supervised learning methods of log-linear and naive Bayes models.
著者
平尾 努 鈴木 潤 磯崎 秀樹
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.2, no.1, pp.1-9, 2009-03-31

従来の文短縮手法の多くは,入力された文を構文木として表現し,その部分木を削除することで,短縮文を生成する.このようなアプローチは文法的な短縮文を生成するという観点からは理にかなっている.しかし,多くの場合,人間は構文木の刈り込みだけで短縮文を生成するわけではない.これは,構文情報に過度に依存することが,高品質な文短縮を行うための妨げとなることを示している.そこで,本稿では,構文情報を用いない文短縮手法を提案する.短縮文の言語としてのもっともらしさを構文情報を用いずに評価するため,原文と大規模コーパスから得た統計情報を組み合わせた新たな言語モデルを提案する.提案手法を文献 18) のテストセットを用いて評価したところ,自動評価指標においては,提案手法が従来法より優れていることを確認した.さらに,提案手法が日本語だけでなく英語でも有効であることも示す.
著者
佐々木 裕 磯崎 秀樹 平 博順 廣田 啓一 賀沢 秀人 平尾 努 中島 浩之 加藤 恒昭
出版者
一般社団法人電子情報通信学会
雑誌
電子情報通信学会技術研究報告. NLC, 言語理解とコミュニケーション (ISSN:09135685)
巻号頁・発行日
vol.100, no.401, pp.17-24, 2000-10-20
被引用文献数
16

本稿では, いくつかの質問応答システムを独立に作成し, 50問の質問文に対する性能評価を行なった結果を報告する.質問応答システムは1999年のTREC-8のQAタスクの開催以降注目を集めており, 次のような点で従来の情報検索や情報抽出と異なっている.従来の情報検索では, 質問に対する答えを文書の単位で列挙していたが, 質問応答システムは質問の答えを記述した部分を返す.また, 従来の情報抽出は対象分野と抽出項目があらかじめ限定されていたが, 質問応答では, 抽出する項目が質問文により自由に決まる点で異なっている.本稿は, 今後の質問応答システム研究の参考とするため, 日本語QAシステムの性能のベースラインを探るとともに, 日本語QAシステムの比較・評価法を紹介するものである.
著者
平尾 努 鈴木 潤 磯崎 秀樹
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会論文誌 (ISSN:13460714)
巻号頁・発行日
vol.24, no.2, pp.223-231, 2009 (Released:2009-01-20)
参考文献数
17
被引用文献数
3 4 1

We derived the oracle summary with the highest ROUGE score that can be achieved by integrating sentence extraction with sentence compression from the reference abstract. The analysis results of the oracle revealed that summarization systems have to assign an appropriate compression rate for each sentence in the document. In accordance with this observation, this paper proposes a summarization method as a combinatorial optimization: selecting the set of sentences that maximize the sum of the sentence scores from the pool which consists of the sentences with various compression rates, subject to length constrains. The score of the sentence is defined by its compression rate, content words and positional information. The parameters for the compression rates and positional information are optimized by minimizing the loss between score of oracles and that of candidates. The results obtained from TSC-2 corpus showed that our method outperformed the previous systems with statistical significance.
著者
平尾 努 磯崎 秀樹 前田 英作 松本 裕治
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.44, no.8, pp.2230-2243, 2003-08-15
参考文献数
29
被引用文献数
10

文書から重要な情報を持った文を抽出する重要文抽出技術は,文書要約技術の1つであり,より自然な文書要約を実現するための基盤技術である.重要文の抽出精度を高めるためには,複数の手がかりを統合的かつ効果的に扱うことが必要とされており,機械学習手法を取り入れた重要文抽出法が着目されつつある.本稿では,汎化能力の高い機械学習手法とされるSupport Vector Machine(SVM)を用いた重要文抽出手法を提案する.Text Summarization Challenge(TSC)のデータを用いて評価実験を行い,提案手法はLead手法などの従来手法と比較して統計的に有意な差で優れていることを実証した.また,野本らのデータを用いた評価実験でもこれに近い成績が得られた.さらに,文書のジャンルを考慮することで重要文の抽出精度が向上すること,重要文抽出に有効な素性のジャンルによる違いを明らかにした.Extracting from a text the sentences that contain important information is aform of text summarization.If done accurately, it supports the automatic generation of summaries similar to those written by humans.To achieve this, the algorithm must be able to handle heterogeneous information.Therefore, parameter tuning by machine learning techniques have received attention.In this paper, we propose a method of sentence extraction based onSupport Vector Machines (SVMs).To confirm the performance of our method, we conduct experiments on the Text Summarization Challenge (TSC) corpus and Nomoto's corpus.Results on the former show that our method is better (statistically significant) than the Lead-based method.Moreover, we discover that document genre is important with regard to extraction performance; the effective features of each genre are clarified.