著者
浅原 正幸 松本 裕治
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.43, no.3, pp.685-695, 2002-03-15
参考文献数
19
被引用文献数
10

自然言語処理の分野で最も基本的な処理として形態素解析がある.近年大量のタグ付きコーパスが整備され,コーパスに基づいた統計的形態素解析器が開発されてきた.しかし単純な統計的手法ではコーパスに出現しない例外的な言語現象に対処することができない.この問題に対処するため,本論文ではより柔軟な拡張統計モデルを提案する.例外的な現象に対応するために単語レベルの統計値を利用する.この拡張により,細かく分類された大量のタグを扱う際,必要なコーパスの量は増加する.一般に適切なコーパスの量で学習するために複数のタグを同値類へとグループ化することによりタグの数を減らすことが行われる.我々はこれを拡張し,マルコフモデルの条件付き確率計算について,先行する品詞タグ集合と,後続する品詞タグ集合とで,別々の品詞タグの同値類を導入するようにした.コーパスの量が不足する場合にtri-gramモデルを構築すると,学習データへの過学習が起きる.これを回避するために選択的tri-gramモデルを導入した.一方,これらの拡張のため,語彙化するタグやtri-gram文脈の選択を人手で設定することは困難である.そこで,この素性選択に誤り駆動の手法を導入し半自動化した.日本語・中国語形態素解析,英語品詞タグ付けについて評価実験を行い,これらの拡張の有効性を検証した.Recently, large-scale part-of-speech tagged corpora have becomeavailable, making it possible to develop statistical morphologicalanalyzers trained on these corpora.Nevertheless, statistical approaches in isolation cannot coverexceptional language phenomena which do not appear in the corpora.In this paper, we propose three extensions to statistical modelsin order to cope with such exceptional language phenomena.First of all, we incorporate lexicalized part-of-speech tags into the modelby using the word itself as a part-of-speech tag.Second, because the tag set becomes fragmented by the use of lexicalized tags, we reduce the size of the tag set by introducing a new type of grouping technique where the tag set ispartitioned creating two different equivalent classes for the events in theconditional probabilities of a Markov Model.Third, to avoid over-fitting, we selectively introduce tri-gram contexts into a bi-gram model.In order to implement these extensions, we introduce error-driven methods to semi-automatically determine the words to be used as lexicalized tags and the tri-gram contextsto be introduced.We investigate how our extension is effective through experiments onJapanese, Chinese and English.
著者
浅原 正幸 松本 裕治
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告自然言語処理(NL) (ISSN:09196072)
巻号頁・発行日
vol.2003, no.4, pp.49-56, 2003-01-20
被引用文献数
1

一般的に日本語固有表現抽出で提案されている手法は形態素解析とチャンキングの組み合わせによる.形態素解析出力結果をそのままチャンカーの入力にすると,形態素解析結果より小さい単位の固有表現を抽出することは困難である.そこで,文字単位でチャンキングを行う手法を提案する.まず,統計的形態素解析器で入力文を冗長的に解析を行う.次に,入力文を文字単位に分割し,文字,字種および形態素解析結果のn次解までの品詞情報などを各文字に付与する.最後に,これらを素性として,サポートベクトルマシンに基づいたチャンカーにより決定的に固有表現となる語の語境界を推定する.この手法により,1次解のみを用いる場合より豊かな素性をチャンカーに与えることができ,固有表現抽出の精度を向上させることができた.CRL 固有表現データを用いて評価実験(交差検定 5-fold)を行った結果,F 値約 88% という高精度の結果が得られた.Named Entity (NE) extraction is a task in which proper nouns and numerical information are extracted from texts. A method of cascading morphological analysis and chunking is usually used for NE extraction in Japanese. However, such a method cannot extract smaller NE units than morphological analyzer outputs. To cope with the unit problem, we propose a character-based chunking method. Firstly, input sentences are redundantly analyzed by a statistical analyzer. Secondly, the input sentences are segmented into characters. The characters are annotated redundantly with the character types and POS tags of the top n best answers that are given by the statistical morphological analyzer. Finally, we do chunking deterministically based on support vector machines. The method can introduce richer features for chunkers than the method based on single morphological analysis result. We apply our method to IREX NE task using CRL Named Entities data. The cross validation result of the F-value being 88% shows the effectiveness of the method.
著者
飯田 龍 乾健太郎 松本裕治
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.45, no.3, pp.906-918, 2004-03-15
参考文献数
24
被引用文献数
15

センタリング理論のような言語学的な知見を,機械学習を用いた照応解析に統合する一方法を提案する.従来の照応解析手法は,大きく規則ベースの手法と統計的な手法に分類でき,それぞれ独立に研究がなされてきた.規則ベースの手法では,言語学的知見に基づき人手で規則を記述するが,照応現象を包括的にとらえる規則を書き尽くすことは困難である.一方,機械学習に基づく手法では,人手では扱うことのできない規則の組合せを考慮できるが,言語学的知見を有効に活用していない.これら2つの手法をうまく統合することによって,両者の利点を同時に引き出すことができれば,精度の向上がさらに期待できる.本論文では2つの手法の統合を目指し,具体的な方法として,(i)センタリング理論に基づく局所的な文脈を考慮した素性(センタリング素性)の導入,および(ii)先行詞候補間を比較するモデル(トーナメントモデル)の2点を提案する.この提案手法を用いて日本語ゼロ代名詞の同定を行い,先行研究の機械学習を用いた手法より精度良く先行詞の同定ができたことを報告する.We propose a method that enhances a machine learning model foranaphora resolution by incorporating linguistically motivatedcontextual clues, such as the centering theory. Conventionalapproaches to anaphora resolution (or more generally coreferenceresolution) can be classified into rule-based approaches andcorpus-based empirical approaches, and they have evolved ratherindependently. In rule-based approaches, efforts have been directedto manual encoding of various linguistic cues into a set of rule.However it is prohibitively difficult to describe rulesexhaustively. On the other hand, empirical approaches with a machinelearning techniques are able to take into account the combination offeatures, which is hard to deal with in the former approaches.However, they hardly exploit the linguistic cues. Therefore, weenvisaged that a method that combines the working of the twoapproaches will perform more effectively. Indeed, our model showsimprovements arising from two sources: (i) the feature of localcontextual factors and (ii) an augmentation of the learning model totake into account comparison between candidates. This model is appliedto resolve Japanese zero-anaphors and outperforms earlier machinelearning approaches.
著者
平尾 努 磯崎 秀樹 前田 英作 松本 裕治
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.44, no.8, pp.2230-2243, 2003-08-15
参考文献数
29
被引用文献数
10

文書から重要な情報を持った文を抽出する重要文抽出技術は,文書要約技術の1つであり,より自然な文書要約を実現するための基盤技術である.重要文の抽出精度を高めるためには,複数の手がかりを統合的かつ効果的に扱うことが必要とされており,機械学習手法を取り入れた重要文抽出法が着目されつつある.本稿では,汎化能力の高い機械学習手法とされるSupport Vector Machine(SVM)を用いた重要文抽出手法を提案する.Text Summarization Challenge(TSC)のデータを用いて評価実験を行い,提案手法はLead手法などの従来手法と比較して統計的に有意な差で優れていることを実証した.また,野本らのデータを用いた評価実験でもこれに近い成績が得られた.さらに,文書のジャンルを考慮することで重要文の抽出精度が向上すること,重要文抽出に有効な素性のジャンルによる違いを明らかにした.Extracting from a text the sentences that contain important information is aform of text summarization.If done accurately, it supports the automatic generation of summaries similar to those written by humans.To achieve this, the algorithm must be able to handle heterogeneous information.Therefore, parameter tuning by machine learning techniques have received attention.In this paper, we propose a method of sentence extraction based onSupport Vector Machines (SVMs).To confirm the performance of our method, we conduct experiments on the Text Summarization Challenge (TSC) corpus and Nomoto's corpus.Results on the former show that our method is better (statistically significant) than the Lead-based method.Moreover, we discover that document genre is important with regard to extraction performance; the effective features of each genre are clarified.