著者
中野 鐵兵
出版者
早稲田大学
雑誌
若手研究(B)
巻号頁・発行日
2007

本研究では,人間の持つ非常に高度な適応・学習能力を積極的に活用した,人を音声認識器に適応させることで高度な認識精度の実現を可能にする手法の検討を行った.実利用環境における認識精度の劣化を招く主な原因として,想定話者の発話の特徴と実際の話者のミスマッチ(話者要因)が挙げられる.本研究では,話者要因に関して,入力音声の音響的特徴からより適切な発話様式を誘導するための手法の提案と,その効果の検証実験を行った.また,より適切な話者誘導を実現するために必要な,語彙依存な指示語の必要性について調査を行った.音声認識技術のエキスパートによる指示例の収集とその分析を行い,より間違えやすい語に対する適切な指示語生成を可能にするエキスパートシステムを開発した.被験者実験を行い,その効果の検証を行った.
著者
佐々木 浩 中野 鐵兵 緒方 淳 後藤 真孝 小林 哲則
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音声言語情報処理(SLP) (ISSN:09196072)
巻号頁・発行日
vol.2009, no.10, pp.57-62, 2009-01-30
被引用文献数
3

ポッドキャストの音声認識における言語モデルの適応手法を提案する.ポッドキャストは,幅広い話題,タスクの音声データが日々増え続けるという特徴を持っているため,言語モデルをいかにして学習,構築するかが認識性能を左右する大きなポイントとなる.本稿では,言語モデリングにおいて,あらかじめポッドキャストが持つメタ情報と「語彙情報サービス」を活用することで,ポッドキャスト音声認識の性能向上をはかる.具体的には,あらかじめ用意された言語モデリング用学習テキストを各テキスト毎に特徴語を抽出し,ポッドキャストのタイトルや概要などに記載された語との共起を基準にテキストの選択を行い,ポッドキャスト毎に特化された言語モデルの学習を行う.加えて,学習テキストやポッドキャストのメタ情報上の語の不足から生じる,テキスト選択の精度低下の問題を解決するため,語彙情報サービスのタグ情報を活用する.本手法で適応された言語モデルを実際に用いて,その性能を単語パープレキシティと未知語率で評価した結果,単語パープレキシティがベースラインの86%,未知語率もベースラインの80%となり,言語モデルの性能が改善されたことが確認された.This paper presents a language model adaptation method for automatic transcription of podcasts. Since podcasts include speech data that contains a variety of topics and many newly created words, well designed language models are indispensable to achieve sufficient speech recognition rate. In this paper, we propose a new topic dependent language modeling method by using meta information of podcasts and vocabulary information service. In this method, a large amount of training data are collected from the Internet such as web news and blogs on a daily basis. By using RSS texts of podcasts, topic dependent texts are selected from these training data, and proper language models are created for each podcast. In addition, we utilize the tag information of the vocabulary information service to solve the problem of the precision fall of the text choice that the lack of the word in a learning text and a meta information of Podcast cause. The assessment result showed that the performance of the language model using this method is improved because the word perplexity of the result using this method is 86% of that of the baseline and the out-of-vocabraly rate of the result using this method is 80% of that of the baseline.
著者
斎藤 奨 Chiang Chun-Wei Savage Saiph 中野 鐵兵 小林 哲則 Bigham Jeffrey
出版者
人工知能学会
雑誌
2019年度 人工知能学会全国大会(第33回)
巻号頁・発行日
2019-04-08

クラウドソーシングにおいて、ワーカーの多くが十分な賃金を獲得できていないことが問題視されている。原因の一つとして、まだ取り組んだことのないマイクロタスクの「割の良さ」を正確に見積もることの難しさが挙げられる。本研究では、他のワーカーによる過去のタスク作業履歴をもとに、新たに発行された未知のタスクに必要な作業時間と時給を推定する手法を提案する。Amazon Mechanical Turkのワーカー84人に独自に開発したウェブブラウザ拡張機能をインストールさせて9,155件のタスクデータを抽出し、異なる方法で計測した4パターンの時間の候補からワーカー自身に一つ選ばせることで作業時間のラベルを付与した。さらにGradient Boosting Decision Treeのモデルから作業時間を回帰推定するTurkScannerを設計・評価し、約150次元の特徴ベクトルから高い精度で作業時間を推定することを示した。
著者
中野 鐵兵 佐々木 浩 藤江 真也 小林 哲則
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音声言語情報処理(SLP) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.46, pp.77-84, 2008-05-15
被引用文献数
5

音声・言語アプリケーションにおける従来の語彙情報作成手法の問題点を解決するため,集合知を利用した語彙情報の収集・共有・管理システムを提案する.具体的には,語彙情報を集中管理するためのオンラインデータベースシステムを構築し,それを利用者に公開する.提案システムでは,Web 資源からの語彙情報の自動収集の枠組みを備え,データの集約を図る.また,アプリケーション用語彙の新規作成から,その継続的な更新まで包括的な解法を提供し,これまで各々の開発者がアプリケーション毎に用意していた語彙定義のプロセスの一元化を図る.さらに,インタフェースを広く公開し,アプリケーション間の語彙定義の共有や,アプリケーションで使用する語彙の自動更新のサポートを図る.本稿では,実際に提案システムの実装として開発されたプロトタイプシステムと,提案システムによって実際に有効な語彙リストの生成が可能である事を示した評価実験について述べる.In order to solve the problems of the conventional approach of designing lexicons, we propose a new approach: using a lexical data collection, sharing, and management system using collective intelligence. In particular, we construct and operate a new online database system for lexical informations. The proposed system is designed as a data intensive system so that it can collect lexical information from all web-based resources. Also, the system provides the comprehensive solution of designing lexicons so that the designing processes of lexicons can be standardized. Besides, the system interface is published so that lexical informations are shared by many applications. In this paper, the prototype system developed based on the proposed approach and the feasibility test for designing lexicons are described. The assessment result showed that the proper lexicons can be generated from the proposed system.