著者
森 信介 山地 治
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.38, no.11, pp.2191-2199, 1997-11-15

本論文では,形態素単位のn?gramモデル(1〓n〓16)による日本語の情報量の上限の推定方法とその結果を示す.各n?gramモデルは,データスパースネスの問題に対応するため,低次のn?gramモデルとの補間を行ってある.補間係数は,最も有効であると考えられている削除補間法により求める.実験ではEDRコーパスの約9割からモデルのパラメータを推定し,残りの1割に対して情報量を計算した.その結果,n=16のときに1文字あたりの情報量は最小の4.30330ビットであった.また,学習コーパスの大きさとモデルの次数による情報量の変化を調べた結果,モデルの次数を上げることによる情報量の減少量は微小であるが,学習コーパスを大きくすることによる情報量の減少量はかなりあるということが分かった.さらに,パラメータ数とエントロピーの関係についても議論する.これは,実際の日本語処理にn?gramモデルを応用する際に,適切にnの値を選ぶ指標となる.

言及状況

Twitter (1 users, 1 posts, 1 favorites)

@_LiSa0 これは面白そうだ。英語の講義というより言語情報学の講義か。英語のエントロピーって何だと思って、森先生の論文をちょっと読んで見た。いや、面白そうですね。この講義が効けるのは羨ましいような。 https://t.co/b0YPykEb4A

収集済み URL リスト