著者
坂田 浩亮 新保仁 松本 裕治
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告自然言語処理(NL) (ISSN:09196072)
巻号頁・発行日
vol.2007, no.94, pp.113-119, 2007-09-26
被引用文献数
1

言語教育において,学習者の言語習得度を知ることは教師にとって重要なことであるまた,言語学習者の言語習得度を客観的に量る手段があれば 学習者は教師がいなくても自分の言語習得度を評価できるため,学習効率の向上につながると考えられる.本発表では 言語学習者の作文と習得度別コーパスとの類似度に基づいて 学習者の言語習得度を推定する手法を提案する.NICT JLEコーパスを用いて行った提案手法の評価実験と,その結果について紹介する.We propose methods for automatically evaluating second language learners' proficiency levels. These methods not only help teachers evaluate students' proficiency levels, but also accelerate students' learning, since they can evaluate their proficiency levels whenever they like without consulting their teachers. The proposed methods compute students' proficiency levels on the basis of the similarity between their free compositions and the corpus of compositions divided into skill levels.
著者
松本 史朗
出版者
駒澤大学
雑誌
駒澤大学佛教学部論集 (ISSN:0389990X)
巻号頁・発行日
vol.17, pp.437-494, 1986-10
著者
浅原 正幸 松本 裕治
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.43, no.3, pp.685-695, 2002-03-15
参考文献数
19
被引用文献数
10

自然言語処理の分野で最も基本的な処理として形態素解析がある.近年大量のタグ付きコーパスが整備され,コーパスに基づいた統計的形態素解析器が開発されてきた.しかし単純な統計的手法ではコーパスに出現しない例外的な言語現象に対処することができない.この問題に対処するため,本論文ではより柔軟な拡張統計モデルを提案する.例外的な現象に対応するために単語レベルの統計値を利用する.この拡張により,細かく分類された大量のタグを扱う際,必要なコーパスの量は増加する.一般に適切なコーパスの量で学習するために複数のタグを同値類へとグループ化することによりタグの数を減らすことが行われる.我々はこれを拡張し,マルコフモデルの条件付き確率計算について,先行する品詞タグ集合と,後続する品詞タグ集合とで,別々の品詞タグの同値類を導入するようにした.コーパスの量が不足する場合にtri-gramモデルを構築すると,学習データへの過学習が起きる.これを回避するために選択的tri-gramモデルを導入した.一方,これらの拡張のため,語彙化するタグやtri-gram文脈の選択を人手で設定することは困難である.そこで,この素性選択に誤り駆動の手法を導入し半自動化した.日本語・中国語形態素解析,英語品詞タグ付けについて評価実験を行い,これらの拡張の有効性を検証した.Recently, large-scale part-of-speech tagged corpora have becomeavailable, making it possible to develop statistical morphologicalanalyzers trained on these corpora.Nevertheless, statistical approaches in isolation cannot coverexceptional language phenomena which do not appear in the corpora.In this paper, we propose three extensions to statistical modelsin order to cope with such exceptional language phenomena.First of all, we incorporate lexicalized part-of-speech tags into the modelby using the word itself as a part-of-speech tag.Second, because the tag set becomes fragmented by the use of lexicalized tags, we reduce the size of the tag set by introducing a new type of grouping technique where the tag set ispartitioned creating two different equivalent classes for the events in theconditional probabilities of a Markov Model.Third, to avoid over-fitting, we selectively introduce tri-gram contexts into a bi-gram model.In order to implement these extensions, we introduce error-driven methods to semi-automatically determine the words to be used as lexicalized tags and the tri-gram contextsto be introduced.We investigate how our extension is effective through experiments onJapanese, Chinese and English.
著者
山根 茂 菅生 康子 松本 有央 岡田 真人
出版者
一般社団法人電子情報通信学会
雑誌
電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解 (ISSN:09135685)
巻号頁・発行日
vol.103, no.452, pp.37-40, 2003-11-13

顔は口や目などの部品の配置もさまざま、輪郭や色もいろいろで、さらに表情などの情報を合わせもつ。このように多様で複合した情報が脳内でどのように表現されているかを知ることは、脳の認知や記憶機能のメカニズムを明らかにするうえで大切である。画像の認知や記憶に深く関連している側頭葉と言われる脳の場所では、単一神経細胞においても神経細胞集団においても、おおまかな分類情報から詳細な情報へと階層的に情報が表現されていることがわかった。このダイナミックな分類情報の表現は、連想記憶モデルの振る舞いと酷似していることがわかり、その連想記憶モデルが脳の長期記憶システムとして存在する可能性が大きい。この連想記憶モデルを核に自動的に似ている画像を分類するシステムについて最後に触れる。
著者
浅原 正幸 松本 裕治
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告自然言語処理(NL) (ISSN:09196072)
巻号頁・発行日
vol.2003, no.4, pp.49-56, 2003-01-20
被引用文献数
1

一般的に日本語固有表現抽出で提案されている手法は形態素解析とチャンキングの組み合わせによる.形態素解析出力結果をそのままチャンカーの入力にすると,形態素解析結果より小さい単位の固有表現を抽出することは困難である.そこで,文字単位でチャンキングを行う手法を提案する.まず,統計的形態素解析器で入力文を冗長的に解析を行う.次に,入力文を文字単位に分割し,文字,字種および形態素解析結果のn次解までの品詞情報などを各文字に付与する.最後に,これらを素性として,サポートベクトルマシンに基づいたチャンカーにより決定的に固有表現となる語の語境界を推定する.この手法により,1次解のみを用いる場合より豊かな素性をチャンカーに与えることができ,固有表現抽出の精度を向上させることができた.CRL 固有表現データを用いて評価実験(交差検定 5-fold)を行った結果,F 値約 88% という高精度の結果が得られた.Named Entity (NE) extraction is a task in which proper nouns and numerical information are extracted from texts. A method of cascading morphological analysis and chunking is usually used for NE extraction in Japanese. However, such a method cannot extract smaller NE units than morphological analyzer outputs. To cope with the unit problem, we propose a character-based chunking method. Firstly, input sentences are redundantly analyzed by a statistical analyzer. Secondly, the input sentences are segmented into characters. The characters are annotated redundantly with the character types and POS tags of the top n best answers that are given by the statistical morphological analyzer. Finally, we do chunking deterministically based on support vector machines. The method can introduce richer features for chunkers than the method based on single morphological analysis result. We apply our method to IREX NE task using CRL Named Entities data. The cross validation result of the F-value being 88% shows the effectiveness of the method.
著者
飯田 龍 乾健太郎 松本裕治
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.45, no.3, pp.906-918, 2004-03-15
参考文献数
24
被引用文献数
15

センタリング理論のような言語学的な知見を,機械学習を用いた照応解析に統合する一方法を提案する.従来の照応解析手法は,大きく規則ベースの手法と統計的な手法に分類でき,それぞれ独立に研究がなされてきた.規則ベースの手法では,言語学的知見に基づき人手で規則を記述するが,照応現象を包括的にとらえる規則を書き尽くすことは困難である.一方,機械学習に基づく手法では,人手では扱うことのできない規則の組合せを考慮できるが,言語学的知見を有効に活用していない.これら2つの手法をうまく統合することによって,両者の利点を同時に引き出すことができれば,精度の向上がさらに期待できる.本論文では2つの手法の統合を目指し,具体的な方法として,(i)センタリング理論に基づく局所的な文脈を考慮した素性(センタリング素性)の導入,および(ii)先行詞候補間を比較するモデル(トーナメントモデル)の2点を提案する.この提案手法を用いて日本語ゼロ代名詞の同定を行い,先行研究の機械学習を用いた手法より精度良く先行詞の同定ができたことを報告する.We propose a method that enhances a machine learning model foranaphora resolution by incorporating linguistically motivatedcontextual clues, such as the centering theory. Conventionalapproaches to anaphora resolution (or more generally coreferenceresolution) can be classified into rule-based approaches andcorpus-based empirical approaches, and they have evolved ratherindependently. In rule-based approaches, efforts have been directedto manual encoding of various linguistic cues into a set of rule.However it is prohibitively difficult to describe rulesexhaustively. On the other hand, empirical approaches with a machinelearning techniques are able to take into account the combination offeatures, which is hard to deal with in the former approaches.However, they hardly exploit the linguistic cues. Therefore, weenvisaged that a method that combines the working of the twoapproaches will perform more effectively. Indeed, our model showsimprovements arising from two sources: (i) the feature of localcontextual factors and (ii) an augmentation of the learning model totake into account comparison between candidates. This model is appliedto resolve Japanese zero-anaphors and outperforms earlier machinelearning approaches.
著者
西口 正之 井上 晃 前田 祐児 松本 淳 田中 直也
出版者
一般社団法人電子情報通信学会
雑誌
電子情報通信学会技術研究報告. SP, 音声
巻号頁・発行日
vol.98, no.424, pp.27-34, 1998-11-20
被引用文献数
5

本稿では、MPEG-4標準化に提案中の低ビットレート音声符号化方式Harmonic Vector eXcitation Coding(HVXC)について、その構成を説明する。HVXCは2.0kbpsおよび4.0kbpsの固定ビットレートモードと、2.0kbps以下の可変ビットレートモードを有している。符号化アルゴリズムとして、有声音部分においてはLPC残差のハーモニックコーディングを、無声音部分においてはCELP方式を用いることで低ビットレートでも良好な音声品質を得ている。主な特徴として、4.0kbpsのビットストリームのサブセットを用いて2.0kbpsで復号するビットレートスケラビリティー機能、音韻やピッチを変えずに再生スピードをコントロールする機能などがある。98年8月のMPEGの公式主観評価試験の結果、2.0kbps HVXCの音質は4.8kbpsのFS1016 CELPの音質よりも優れていることが確認された。HVXC音声符号化方式は1998年10月にMPEG-4 Final Draft International Standard(FDIS)に選定された。
著者
小川 久恵 宮本 千佳子 松本 仲子
出版者
一般社団法人日本調理科学会
雑誌
調理科学 (ISSN:09105360)
巻号頁・発行日
vol.20, no.3, pp.229-235, 1987-11-20
被引用文献数
1

家庭において白ソースをより手軽に調製できるよう、従来のルーをかく方法、粉とバターを練り合わせて加える方法に加えて、全材料を混合して加熱するミックスの方法および電子レンジを利用する方法の4手法について、煮込み時間を5、10、20、30、60分間としたものを試料として、各面から比較し、合理的な調製方法について検討した。また煮込み時間がソースの風味に及ぼす影響についても検討した。1. 官能検査の結果を分散分析した結果は、4手法間には有意差が認められず、煮込み時間間に1%危険率で有意な差が認められた。2. 煮込み時間は、各手法ともに20〜30分間がよく、煮込み時間がそれ以下あるいはそれ以上のものでは評価が低かった。3. 煮込み時間30分間位までは、各手法間に有意差はないが、あらかじめ炒め操作を行うルーをかく方法が他の手法に比べて高い評価を得たが、煮込みに先だち、加熱しない他の手法では、30分間位煮込むことで粉っぽさが消失し、炒め操作をしない欠点を補うことが出来るものと考えられた。4. 煮込み時間がソースの風味に及ぼす影響については、濃縮により味が向上する反面、着色、粘性の増加により、長時間に煮込みは望ましくないことがわかった。5. 煮こみ時間を5分位にとどめた時、ソースをそのまま味わう料理に用いた場合はルーの手法によるものが高い評価を得たが、グラタンのように他の味が加味されるような場合には、手法による差はみられなかった。6. 調理時間および手間の面から検討した結果はミックスの手法が手間を要せず時間も最も短時間であった。7. 風味・調理時間・手間等の各面から総合的に検討した結果、ミックスによる手法が合理的な方法と考えられた。
著者
松本 慎也 山本 裕紹 早崎 芳夫 西田 信夫
出版者
一般社団法人電子情報通信学会
雑誌
電子情報通信学会技術研究報告. EID, 電子ディスプレイ (ISSN:09135685)
巻号頁・発行日
vol.103, no.593, pp.33-36, 2004-01-16

屋外で不特定多数の観衆が同時に観察可能な大画面立体ディスプレイの研究を進めている.大画面LED立体ディスプレイを見る観察者がどのような経路で観察領域内に移動するのか調べるために,観察者位置をリアルタイムで測定するシステムを構築した.異なる設計のパララックスバリア式立体ディスプレイを用いて,立体画像を見るために移動する観察者の軌跡を記録した.観察者の移動経路を解析することで数種類の設計法を評価する.多眼表示設計と逆立体視防止設計により左右の移動時間が短縮される効果を実験により明らかにした.
著者
松本 和 山本 文子 山本 千恵子 玉川 栄子
出版者
高知学園短期大学
雑誌
高知学園短期大学紀要 (ISSN:03894088)
巻号頁・発行日
vol.4, pp.49-53, 1973-09-01

1.献立作成の際,材料に対して,何%の油が吸着するかを知る必要がある.それで,日常行なわれている調理操作で吸油量を検討した.2.吸油量は大体,10%前後であるが,調理方法によって,吸着量は若干異なる.いも類の素揚げは3%, 魚類の衣揚げは10%,から揚げ14%,パン粉揚げ15%である.3.衣揚げ, パン粉揚げの衣の準備量は衣揚げの場合,衣は材料と同量で,材料が100gの場合の小麦粉 : 水 : 卵(2 : 2 : 1)の準備量は40g : 40g : 20gである.パン粉揚げの場合は小麦粉4〜7%, 卵液5〜7%(卵の分量は3〜4%)パン粉10%である.
著者
石田 和慶 松本 美志也 平田 孝夫 坂部 武史
出版者
日本臨床麻酔学会
雑誌
日本臨床麻酔学会誌 (ISSN:02854945)
巻号頁・発行日
vol.28, no.4, pp.526-534, 2008-06-15 (Released:2008-08-13)
参考文献数
33

虚血に伴う神経細胞傷害に蛋白を成熟させる細胞内小器官である小胞体 (ER) が関与する. 虚血によるアミノ酸やglucoseの低下, ER内Ca2+ 低下は異常蛋白蓄積を生じ, ERストレスとなる. 蓄積した異常蛋白のrefoldingにER chaperone GRP78が使われ, ER膜上のキナーゼ (PERK, ATF6, IRE1) を活性化する. いずれもERストレスを改善する遺伝子 (grp78など) を転写するが, PERKはeIF2αのリン酸化によりmRNAの翻訳を抑制し, 蛋白合成を阻害する. 虚血耐性では, GRP78の発現亢進と本虚血後のeIF2αのリン酸化が生じにくく, 異常蛋白の修復が速く, 蛋白合成抑制が生じにくい. バルプロ酸などによるGRP78の増強, ERの保護は神経細胞保護につながる.
著者
福嶋 慶繁 松本 健太郎 圓道 知博 藤井 俊彰 谷本 正幸
出版者
一般社団法人映像情報メディア学会
雑誌
映像情報メディア学会誌 : 映像情報メディア (ISSN:13426907)
巻号頁・発行日
vol.62, no.4, pp.564-571, 2008-04-01
被引用文献数
3

We have developed an effective rectification method that has a pixel error of less than 0.25 of a pixel for use in two-dimensional multi-camera arrays. Rectification and correction are important for free view-point imaging and multi-view coding in the field of image-based rendering (IBR). In the computer vision field, a number of rectification methods for binocular/trinocular stereo camera setups have been develpopd and used. However, not many multi-camera array rectifications methods have been developed.
著者
松本 和也 戸川 望 柳澤 政生 大附 辰夫
出版者
一般社団法人電子情報通信学会
雑誌
電子情報通信学会技術研究報告. ITS (ISSN:09135685)
巻号頁・発行日
vol.108, no.171, pp.25-30, 2008-07-21
被引用文献数
5

携帯電話の高性能化・小型化により,GPSやナビゲーションシステムを用いた地図サービスの利用が拡大し,都市部から郊外部にわたって需要が増加すると考えられる.しかし表示画面が狭く処理能力の低い携帯端末で地図を表示させるには,携帯端末画面に適した略地図を生成する必要がある.本稿では,主に直線から構成される都市部だけでなく,直線・曲線を含む郊外部にも適用可能な略地図生成手法を提案する.提案手法は,エリア全体の道路ネットワークをいくつかのグループに分割し,各グループごとに間引き処理すると同時に直線化曲線化することで,都市部や郊外部に適応した略地図生成を図る.都市部と郊外部各10箇所の入力データを用いて提案手法を適用した結果,都市部ならびに曲線の多い郊外部でもデータ量削減と見やすい略地図が生成されることを確認した.