著者
鈴木 良弥 川隅 里奈 関口 芳廣 重永 実
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音声言語情報処理(SLP) (ISSN:09196072)
巻号頁・発行日
vol.1995, no.51, pp.21-26, 1995-05-25
参考文献数
6

話し言葉中では助詞の省略,曖昧な発声などが頻繁に起こる.従って,話し言葉の認識や理解を行なうには助詞の推定を行なう必要がある.我々は朗読文用連続音声認識システムをすでに作成しているが,そのシステムの助詞推定能力を人間と比較した.まず,話し言葉(対話文とスピーチ)中の各助詞の出現回数などを調べた.その結果,良く使われる助詞は対話文でもスピーチでもほとんど同じであることがわかった.また認識システムの出力と学生73人にアンケートを行なった結果とを比較した.実験により,学生が作成した文の約94%をシステムが生成し,システムが作成した候補文の約3%を学生が作成したことを確認した.We are trying to make our speech recognition system to correspond to spoken dialogue. First, we investigated the frequency of each particle in some dialogues and speeches, and we registerd 29 frequently used particles to our system. Second, We sent out a questionnaire to 73 students in order to compare with the performance of estimation of particles by the linguistic processor (case structures, syntactic rules, and so on) of our speech recognition system. According to the comparison, our system can generate most of sentences which students can think out.

1 0 0 0 OA 鼻子音の識別

著者
重永 実 有泉 均
出版者
一般社団法人 日本音響学会
雑誌
日本音響学会誌 (ISSN:03694232)
巻号頁・発行日
vol.21, no.5, pp.263-271, 1965-09-30 (Released:2017-06-02)

A method of recognizing /m/ and /n/ of monosyllables and words in real time is reported. The method consists of three parts; segmentation of nasal consonants, recognition of the following vowel, and discrimination between /m/ and /n/ according to the result of vowel recognition. In order to extract the nasal part, /e, a, o, u, w/ are excluded from nasals by comparing the output of 300 c/s LPF with that of 500〜1600 c/s BPF, and /i, j/ are excluded by comparing 500〜1600 c/s with 2800〜5000 c/s. Voiceless stops are easily omitted by comparing the output of 300 c/s LPF with that of 700 c/s HPF, and this circuit is also used for excluding vowels. In order to exclude the beginning and end part of /u/ more certainly, the output wave form of 400〜1000 c/s BPF is used. The parts in which the envelope of that wave varies rapidly are excluded from the nasal part. For excluding voiced stops, fricatives, and flappeds, fundamental frquency components are extracted from filtering output of 400〜1000 c/s BPF and the parts in which the fundamental frequency components exist continuously are considered to be likely nasal. The low intensity parts of original speech waves are considered to be non-nasal parts. The segment which satisfies above six conditions is decided to be nasal consonant after leaving out 12 msec of the continuum. According to this method the initial part of the nasal consonant is often missed but the boundary between the nasal consonant and the following vowel is pointed out exactly. Concerning about the discrimination between /m/ and /n/, the components of two specific frequencies are compared just before the boundary between the nasal consonant and the following vowel for distinguishing /mi/ and /me/ from /ni/ and /ne/ respectively. For the nasals followed by /a, o, u/, F_2 loci are used directly. Though /me/ and /ne/ in words are not discriminated satisfactorily by the method due to the individual variations, the others are recognized correctly over 80% for 180 samples of three male speakers.
著者
中澤 俊哉 重永 実
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.32, no.10, pp.1215-1224, 1990-10-15
被引用文献数
7

物語のあらすじを生成するには まず物語を深く理解し 文の因果関係を十分考慮することが必要であるそこで日本語物語理解システムJStoryが生成するエピソードネットワークを使ってあらすじ生成を試みたJStoryではさまざまな知識を用いて事象間のより深い関係を推論したり 入力文章の行間にいくつかの補助的な文を埋めていき その結果をエピソードネットワークとして表現しているつまり 物語の展開(筋)や各文の因果関係をエピソードネットワークに変換し それを物語の内部表現としているそこでこのエピソードネットワークに基づいてキーセンテンスを抽出し あらすじを生成するその際 表層的にキーワードやキーセンテンスを抽出するのではなく 原因-結果 理由-行動に注目して 物語の展開(筋)やキーセンテンス間の因果関係を維持した飛躍のないあらすじ生成を試みている目的達成に対し何度も失敗を繰り返した後ゴールを達成するような 話の展開の異なる物語についても 基本方針を変えることなく対応できるかつ四つの昔話について人間によるあらすじ生成と比較してシステムの動作を検証しているこの方法の特徴は 大局的な要約が可能であり 連鎖関係に基づいており かつ スクリプトや概念ユニットなどの知識構造に着目した局所的な要約も取り入れているので あらすじに飛躍が生じにくい点にある
著者
関口 芳廣 重永 実
出版者
一般社団法人電子情報通信学会
雑誌
電子情報通信学会論文誌. D-II, 情報・システム, II-情報処理 (ISSN:09151923)
巻号頁・発行日
vol.77, no.8, pp.1522-1530, 1994-08-25
被引用文献数
4

連続音声は「なまけて」はっきり発声しない部分が随所にあり,文法的に重要な助詞などの認識も必ずしも正確にはできてないので,連続音声の認識には構文,意味等の言語情報に加え,人間と同様に,より直感的な情報,つまり連想情報の利用も必要である.この論文では,まず連続音声ではあいまいに発声される部分があり,その部分の音響処理が難しいことを示す.次に,人間がもっている単語間の連想関係を調査,検討して,音声認識で使用できる連想単語辞書を構築する.この連想単語辞書を利用して,単語間の連想の強さを求め,後続単語の予測を行う.また,句単位の認識の際,音響的な情報だけでなく,連想情報も加味している.実験の結果,筆者らの音声認識システムで75%以上の文認識率を得るためには,連想情報を利用しないと約90%以上の音素識別率が必要であったが,連想情報の利用により約80%の音素識別率で文認識率が75%以上になっている.また,筆者らの構築したシステムでは,認識のための得点付けには,音響情報と連想情報をほぼ3:1の割合で利用すればよいこともわかった.