著者
大森 晃 土井 晃一
出版者
日本認知科学会
雑誌
認知科学 (ISSN:13417924)
巻号頁・発行日
vol.7, no.4, pp.292-302, 2000-12-01 (Released:2008-10-03)
参考文献数
25
被引用文献数
1

In a requirements capturing meeting, the chair plays an important role. The chair presides the meeting and captures requirements. Roughly speaking, the process of requirements capture has two steps. In the first step, the chair extracts the clients' ideas as many as possible. In the second step, the chair integrates these ideas and captures requirements. The first step is indispensable in order to capture requirements through the second step.In such a requirements capturing meeting, it is empirically known that the chair presides the meeting chiming in moderately in order to extract the clients' ideas. However, the relationship between chiming-in and the number of ideas is not known. We conducted an experiment to examine it.The participants in the experiment were sixteen students (S1,..., S16) and one teacher (T), and each set of subjects consisted of two students (Si, Sj) and the teacher (T). We had eight subject-sets. Before the experiment, the two students in each subject-set were supposed to decide the theme they would talk about; and, to have thought about the contents of their talk. In the experiment, they were supposed to talk about the theme to the teacher. For the half of eight subject-sets (called “Many Group”), the teacher chimed in as many as possible in a natural way. For the other half (called “Few Group”), the teacher chimed in only when the utterance terminated. The conversation was recorded with a tape-recorder, and transcribed to count the number of ideas.The number of ideas had a statistical tendency to be larger in the Many Group than in the Few Group. In addition, the ideas from the Many Group had a stastistical tendency to be more well-formed than those from the Few Group.Our experimental finding is that the chair in a requirements capturing meeting should chime in moderately to get more ideas, and more well-formed ideas.
著者
土井 晃一 佐川 浩彦 田中 英彦
雑誌
全国大会講演論文集
巻号頁・発行日
vol.39, pp.610-611, 1989-10-16

自然言詔理解を計算機上で行うためには、単語のニュアンスの問題を含んだ言外の意味の解析、状況理解、文脈理解、話者の認識の仕方の解析などが必要となる。我々は隠喩理解という範囲内でこれらを取り扱う。隠喩理解によって単語の新しい意味や新単語の意味の解析が可能になる。隠喩理解では連想網の実現が普通の文の理解よりも重要である。本論文では、隠喩理解における連想網の実現をニューラルネットワークで行う方法を提案する。我々は文を命題に分解して、命題単位でニューラルネットワークの各ノードに入力する。これによりネットワークの簡略化、収束の早さ、検索範囲の狭小化ができる。我々の隠喩理解モデルは相互作用説に基づいている。相互作用説によると、隠喩ではたとえる語とたとえられる語とがお互いに影響しあい、意味を変化させる。例えば「人間は狼である」という文では、「人間」も「狼」もその互いの意味が変化し、「残酷である」あるいは「孤独である」といった意味を帯びるようになる。ニューラルネットワークを使うことにより、このような単語の意味の変化を扱うことができる。さらに意味の変化を学習させることもできる。心理学の混合理論によると、(1)多義個所に至ると、聞きては複数の解釈を算出する。(2)その中から、文脈を利用して最適の解釈を選ぼうとする.(3)文が終わるまでに多義性が解消しなかった時にも、一つを選びそれに固執する。(4)選んだ解釈が後続の文脈に合わない時には、前の節の表層構造を想起し直して、新しい解釈を算出しようとする。となる。我々は混合理論に基づいた隠喩理解モデルを提案する。すなわち(1)の各々の解釈を別のニューロンに割り当て、ニューロンの活性値の大小により、優先順位をつけ、またさらに前の文章によって特定のニューロンのバイアス値を上げることにより、混合理論を実現する。
著者
土井 晃一 金原史和 田中 英彦
雑誌
情報処理学会研究報告自然言語処理(NL)
巻号頁・発行日
vol.1992, no.93, pp.49-56, 1992-11-19

計算機上で自然言語理解を行なう際には文字通りの意味の解析だけでは不十分である。ここではそういうものの一つとして諺をあげる。自然言語理解の応用としてまず考えられるのは機械翻訳である。全世界で刊行される雑誌、新聞等は発行部数が多い。毎日のように新しく刊行されている。なるべくなら母国語で読みたいものだが、人手ではとても間に合わない。しかも現在の機械翻訳ではほとんど扱えない、諺や比喩が頻繁に使われている。現在の機械翻訳では慣用表現は扱うようになってきた[1]が諺のように大きな単位はまだ扱われていない。文章の中心的意味がここで表現されていることが多い。多くは直訳できるがそうでないものも多い。ここの翻訳を間違えると文章全体の意味が通じなくなってしまう。現在の機械翻訳の仕組みから考えて、意味処理をしてから諺などの検出はしにくい。諺のところで構文解析、意味解析が失敗してしまうことが多い。早期に諺などを検出することにより、構文解析、意味解析、文脈・状況理解の助けになる。諺を検出する際に必要なことは、どこで、どういう形で使われているかである。単に辞書をひくだけでよいこともある。この場合は形態素解析とおなじことになる。諺という品詞を一つ増やせば良い。例えば「馬の耳に念仏」という例だと、この通りにこの場合は「名詞」として辞書に登録すれば良い。しかし諺が少しでも変化するとこの方法は使えなくなる。特に会話文等にこの傾向は顕著である。例えば「何とかとハサミは使いよう」という例が挙げられる。本論文ではこのように変化した諺を可能な限り検出する方法を提案する。Only the analysis of literal meaning comaprehension is not enough for natural language comprehension on computer. In this paper, proverb is treated in the example of non-literal meaning. Machine translation is considered that application of the research of natural language comprehension. There are many journals and newspapers which are published in the world every day. In these, proverb and metaphor are used frequently. They often have a central maening of the sentences. The-state-of-art machine translation cannot treat such proverb and metaphor. Syntax analysis, maening analysis and context analysis can be easily done when the proverbs are detected in the earlier stage of natural language comprehension. We research the variation of proverbs. We propose the keyword method to detect various proverbs.
著者
橋本 真一 土井 晃一郎 松島 綱治 鳥越 俊彦
出版者
金沢大学
雑誌
基盤研究(B)
巻号頁・発行日
2013-04-01

細胞集団の1細胞ずつの性格を明らかにし、真の細胞状態を把握することは生物学の研究にとって非常に重要である。本研究では微量/1細胞トランスクリプトーム解析法を開発し、がん細胞や免疫細胞の細胞集団の階層性を明らかにし、真の細胞状態を把握することで将来的に臨床研究に役立てることを目的とする。本研究では単一細胞遺伝子発現解析の発展系として数百以上の1細胞の遺伝子発現を同時に観察出来る革新的な技術(Nx1-seq)を開発した。この方法を用いて新たにがん細胞株、免疫細胞の1細胞遺伝子解析を行い有用性を確認した。
著者
土井 晃一 大森 晃 蓬莱 尚幸 渡部 勇 片山 佳則
出版者
情報処理学会
雑誌
全国大会講演論文集
巻号頁・発行日
vol.47, pp.125-126, 1993-09-27
被引用文献数
2

顧客からの要求獲得において、自然言語によるコミュニケーションは重要な役割を果たしている。この際、直接言われた要求だけではなく、言われていない、顧客の無意識下にある漠然とした要求も抽出したい。将来的には自動的に要求を抽出することが目標だが、まずは要求獲得のための方法論を確立したい。要求獲得では、話し手の意図理解が前提となる。意図理解の理論的枠組として発話行為論を用いる。発話行為論では話し手の種々のレベルの行為の解釈が主な問題となるが、本研究では単に発話の解釈、理解だけではなく要求の獲得を目標とする。まずそのために言語現象を観察・解析し、話し手の意図を考慮した言語行為モデルを構築する必要がある。本論文ではそうしたモデルを提案する。図1コミュニケーシヨン進行による共有知識の顕在化さらに話し手の意図を理解するためには、共有知識(感情、イメージなども含む)の顕在化が必要となる。つまりコミュニケーションの展開を通して、図1のように、話し手、聞き手双方の無意識下にあるものと共有知識を意識下に顕在化すること(図1の矢印の方向への推移)が意図理解、要求分析には必要となる。これは今後の重要な課題である。
著者
菅野 純夫 中井 謙太 橋本 真一 山田 智之 土井 晃一郎
出版者
東京大学
雑誌
特定領域研究
巻号頁・発行日
2005

われわれが開発したオリゴキャッピング法による完全長cDNAライブラリーを基盤に、特定領域研究「生命システム情報」及び特定領域研究「比較ゲノム」と連携し、多種類の生物の完全長cDNAリソースの整備とトランスクリプトーム解析を行った。同時に、次世代シークエンサーとオリゴキャップ法を組み合わせて、ゲノムワイドに転写開始点を同定し、その発現量を半定量的に測定する方法を確立した。
著者
土井 晃一郎 山下 哲矢 田中 孝侑 山本 章博
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会論文誌 (ISSN:13460714)
巻号頁・発行日
vol.23, no.3, pp.185-192, 2008 (Released:2008-03-11)
参考文献数
20

We present the intentional kernel as a new class of kernel functions for structured data. The class is highly contrasted to the convolution kernel, that is a typical class of kernel functions. That is, the convolution kernel is defined with sub-structures, while the intentional kernel is based on derivations constracting structures. We show instances of the intentional kernel for boolean functions, first-order terms, context sensitive languages, and RNA sequences. We also show some properties of the intentional kernel, and discuss the difference between the intentional kernel and the convolution kernel.