著者
児玉 芽生 石田 栄美 渡邊 由紀子 冨浦 洋一
出版者
国公私立大学図書館協力委員会
雑誌
大学図書館研究 (ISSN:03860507)
巻号頁・発行日
vol.119, pp.2123, 2021-11-30 (Released:2021-12-10)

COVID-19により物理的な図書館の利用が制限された特殊状況下において,電子書籍の積極的な利用が期待されている。そこで本稿では,電子書籍のニーズを把握するために,パンデミック前とパンデミック下の九州大学の利用ログを対象に利用傾向を分析した。全体的な傾向として,パンデミック下では電子書籍の利用が増加していた。またMaruzen eBook Libraryについて,アクセス回数,利用時間,ダウンロードページ数の3尺度から分析し,新たなニーズと尺度によって異なる利用傾向が把握可能なことを示した。最後に,電子書籍の利用傾向をまとめ,さらに3尺度の有効性や利用可能性について述べた。
著者
柴田 雅博 冨浦 洋一 西口 友美
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会論文誌 (ISSN:13460714)
巻号頁・発行日
vol.24, no.6, pp.507-519, 2009 (Released:2009-09-04)
参考文献数
19
被引用文献数
5 7

We propose an open-ended dialog system that generates a proper sentence to a user's utterance using abundant documents on the World Wide Web as sources. Existing knowledge-based dialog systems give meaningful information to a user, but they are unsuitable for open-ended input. The system Eliza can handle open-ended input, but it gives no meaningful information. Our system lies between the above two dialog systems; it converses on various topics and gives meaningful information related to the user's utterances. The system selects an appropriate sentence as a response from documents gathered through the Web, on the basis of surface cohesion and shallow semantic coherence. The surface cohesion follows centering theory and the semantic coherence is calculated on the basis of the conditional distribution and inverse document frequency of content words (nouns, verbs, and adjectives.) We developed a trial system to converse about movies and experimentally found that the proposed method generated 66% appropriate responses.
著者
冨浦 洋一 青木 さやか 柴田 雅博 行野 顕正
出版者
一般社団法人 言語処理学会
雑誌
自然言語処理 = Journal of natural language processing (ISSN:13407619)
巻号頁・発行日
vol.16, no.1, pp.25-46, 2009-01-10
被引用文献数
1

本論文では,ベイズ識別と仮説検定に基づいて,英文書の作成者の母語話者/非母語話者の判別を高精度で行う手法を提案する.品詞 <I>n</I>-gram モデルを言語モデルとし,判別対象の文書の品詞列の生起確率を,母語話者言語モデルにより求めた場合と非母語話者言語モデルにより求めた場合とで比較し,判別を行う.<I>n</I> を大きくすると,母語話者/非母語話者固有の特徴をより良く扱うことが可能となり,判別精度の向上が期待できる反面,ゼロ頻度問題およびスパースネスの問題が顕在化し,品詞 <I>n</I>-gram モデルのパラメタの最尤推定値を信頼することはできくなる.そこで,提案手法では,仮説検定に基づいた方法で両言語モデルにおける生起確率の比を推定する.実験の結果,従来手法を上回る 92.5% の精度で判別できることを確認している.
著者
徳見 道夫 冨浦 洋一 田中 省作 宮崎 佳典 小林 雄一郎
出版者
九州大学
雑誌
基盤研究(C)
巻号頁・発行日
2012-04-01

科学論文の執筆や論文の読解において求められる重要な英語語彙は,分野や組織によって異なるため,分野や部局等の組織別に選定されることが望ましい.本研究は,近年,大学などの主要な研究機関で整備されている機関リポジトリ(自機関の著作物を電子アーカイブし公開するオンラインデータベース)を活用し,大学・部局別の重要語彙リストを効率的に作成する方法を提案した.実際に,九州大学を対象として,提案手法による部局別重要語彙リストを作成し,その有用性を確認した.
著者
渡邊 由紀子 冨浦 洋一 吉田 素文 岡崎 敦
出版者
国立研究開発法人 科学技術振興機構
雑誌
情報管理 (ISSN:00217298)
巻号頁・発行日
vol.54, no.2, pp.53-62, 2011 (Released:2011-05-01)
参考文献数
7

九州大学は,2011年4月に大学院統合新領域学府ライブラリーサイエンス専攻(修士課程)を新設した。本稿では,現在,社会でどのような人材が求められているのか,そしてその認識から,どのようにカリキュラムを設計したのか等,新専攻の構想と意義を紹介する。まず,専攻設置の背景を概観し,次に,教育研究上の理念と目的を示す。続いて,養成する人材像と予想される進路について述べ,企業や図書館等を対象としたアンケート調査の結果などから,それらの人材像に対する社会的ニーズを明らかにする。最後に,人材養成のための教育課程および教員組織の編成の考え方と特色について説明する。
著者
冨浦洋一 日高達 吉田 将
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.32, no.1, pp.42-49, 1991-01-15
被引用文献数
5

本格的な意味処理を行うためには 単語の意味に関する知識が必要であることは言うまでもないその中で 語彙間の上位-下位関係は 最も基本的な知識の1つである本研究では 動詞間の上位-下位関係を国語辞典から抽出する手法を開発することを目的とする動詞は第一階述語論理ではn項述語に対応するまた 動詞は一般に多義であり 語義が異なれば 上位-下位関係にある動詞も異なるそこで 動詞をその語義ごとに述語に対応させ 動詞間の上位-下位関係を述語間の関係として捉えるしたがって 動詞間の上位-下位関係の抽出では 単に見出し動詞と上位-下位関係にある動詞(定義動詞)を抽出するだけでなく 定義動詞の語義の選択 および 見出し動詞と定義動詞の変数の対応も考慮しなければならない本稿では まず (1)動詞間の上位-下位関係を論理的に定義し (2)見出し動詞とその語義文の論理的関係 および 語義文の統語構造と論理的性質について述べ (3)動詞間の上位-下位関係を示す情報は語義文の統語構造中のどこに現れるかについて述べるさらに (4)定義動詞の語義 および 見出し動詞との変数の対応を適切に選択するための必要条件とヒューりスティックについて述べ 最後に (5)抽出結果について述べる
著者
中野 てい子 冨浦 洋一
出版者
一般社団法人 言語処理学会
雑誌
自然言語処理 (ISSN:13407619)
巻号頁・発行日
vol.18, no.1, pp.3-29, 2011 (Released:2011-04-27)
参考文献数
14
被引用文献数
1 1

日本語学習者が産出する名詞 n,格助詞 c,動詞 v から成る不自然な共起表現 〈n,c,v〉 の中には,動詞選択の誤りに起因するものがある.本稿では,学習者が入力する共起表現 〈n,c,v〉の v に対する適切な代替動詞候補を与える手法を提案する.不自然な共起表現中の動詞(誤用動詞)と自然な共起表現となるように修正した適切な動詞(正用動詞)とは出現環境が類似している傾向にあると考えられる.この仮説に基づき,大規模な母語話者コーパスから得られる統計情報を用いて,〈n,c〉 との共起が自然と言える代替動詞候補を,学習者が入力した共起表現の動詞との出現環境の類似度の降順に提示する.まず,誤用動詞とその正用動詞のデータに基づいてこの仮説を検証し,さらに,同データを用いて提案手法に基づいた共起表現に関する作文支援システムの実用性について検討する.
著者
本木 実 冨浦洋一 高橋 直人
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.47, no.8, pp.2779-2791, 2006-08-15

本論文では,記号列を入力し記号列を出力する階層型ニューラルネットの学習法を提案する.本論文で考察するモデルは,結合荷重だけでなく,各記号に対応する記号表現ベクトルも学習パラメータとする.この方式により,学習データの性質を反映した記号表現ベクトル(類似の使われ方をする記号の記号表現ベクトルが互いに近いベクトル)を学習することができ,予測能力の向上が期待できる.しかし,目的関数を平均二乗誤差とする通常のモデルでは,目的関数の値を最小にするタスクにとって無意味な解が存在し,出力ベクトルから記号の同定を行うと正解率がきわめて低いという問題がある.そこで本論文では,記号の同定を考慮した目的関数による学習法を提案する.実験により,提案モデルは,学習データの性質を反映した記号表現ベクトルの学習が可能であり,かつ高い正解率を持つことを示す.
著者
冨浦 洋一 青木 さやか 柴田 雅博 行野 顕正
出版者
一般社団法人 言語処理学会
雑誌
自然言語処理 (ISSN:13407619)
巻号頁・発行日
vol.16, no.1, pp.1_25-1_46, 2009 (Released:2011-09-14)
参考文献数
17

本論文では,ベイズ識別と仮説検定に基づいて,英文書の作成者の母語話者/非母語話者の判別を高精度で行う手法を提案する.品詞 n-gram モデルを言語モデルとし,判別対象の文書の品詞列の生起確率を,母語話者言語モデルにより求めた場合と非母語話者言語モデルにより求めた場合とで比較し,判別を行う.n を大きくすると,母語話者/非母語話者固有の特徴をより良く扱うことが可能となり,判別精度の向上が期待できる反面,ゼロ頻度問題およびスパースネスの問題が顕在化し,品詞 n-gram モデルのパラメタの最尤推定値を信頼することはできくなる.そこで,提案手法では,仮説検定に基づいた方法で両言語モデルにおける生起確率の比を推定する.実験の結果,従来手法を上回る 92.5% の精度で判別できることを確認している.
著者
中野 てい子 冨浦 洋一
出版者
一般社団法人 言語処理学会
雑誌
自然言語処理 (ISSN:13407619)
巻号頁・発行日
vol.18, no.1, pp.3-29, 2011
被引用文献数
1

日本語学習者が産出する名詞 <I>n</I>,格助詞 <I>c</I>,動詞 <I>v</I> から成る不自然な共起表現 〈<I>n</I>,<I>c</I>,<I>v</I>〉 の中には,動詞選択の誤りに起因するものがある.本稿では,学習者が入力する共起表現 〈<I>n</I>,<I>c</I>,<I>v</I>〉の <I>v</I> に対する適切な代替動詞候補を与える手法を提案する.不自然な共起表現中の動詞(誤用動詞)と自然な共起表現となるように修正した適切な動詞(正用動詞)とは出現環境が類似している傾向にあると考えられる.この仮説に基づき,大規模な母語話者コーパスから得られる統計情報を用いて,〈<I>n</I>,<I>c</I>〉 との共起が自然と言える代替動詞候補を,学習者が入力した共起表現の動詞との出現環境の類似度の降順に提示する.まず,誤用動詞とその正用動詞のデータに基づいてこの仮説を検証し,さらに,同データを用いて提案手法に基づいた共起表現に関する作文支援システムの実用性について検討する.
著者
行野 顕正 田中 省作 冨浦洋一 柴田 雅博
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.48, no.1, pp.365-374, 2007-01-15
被引用文献数
1 2

スラッシュ・リーディングとは,意味のかたまりごとにスラッシュで区切られた英文を読むことにより,読解力の向上を目指す学習法である.多くのスラッシュ付き英文を読むことで,学習効果が上がると考えられるが,現在のところ十分な文書数のある学習教材が存在しないという問題がある.本稿では,統計的アプローチを用いて任意の英文にスラッシュを自動的に挿入する手法を提案する.英文中のスラッシュの位置を定める主な要因は,英文の部分的な構文構造・セグメント長のバランス・一部の単語であるという仮定に基づき,パラメトリックな確率モデルおよびSVM を構築する.既存の教材を学習データとしてモデルを学習することで,その教材のスラッシュ挿入規則を模倣したスラッシュ付き英文を作ることができる.3 つの既存教材を対象とした実験では,提案手法が,様々な教材におけるスラッシュ挿入規則を,従来手法よりも高い適合率・再現率で模倣できるという結果が示されている.In Slash Reading, learners read English sentences separated into segments (sense groups) with slashes to improve their reading skills. The more texts for Slash Reading a learner read, the more effect of learning could be expected. However, there are not enough materials for Slash Reading. This paper proposes methods for transforming automatically a plain sentence into a slashed sentence based on statistical approaches. A parametric model and a SVM model are built on the assumption that the factors to decide where to insert slashes into a sentence are a portion of the syntactic structure of the sentence, the lengths of the segments and words around the slashes. The models are learned from an existing material for Slash Reading. The systems based on these models, therefore, can transform automatically a plain sentence into a slashed sentence by imitating positions of slashes in the material. The results of the experiments using existing materials for Slash Reading indicate that the proposed methods imitate positions of slashes of the materials with the higher precision and recall than the previous methods.
著者
田中省作 冨浦洋一 宮崎佳典 小林雄一郎 徳見道夫
雑誌
第75回全国大会講演論文集
巻号頁・発行日
vol.2013, no.1, pp.83-85, 2013-03-06

科学論文などの英語(EAP)には,EGPとよばれるような一般的な英語とは異なる表現や構成が求められる.さらに,それらは分野によっても大きく異なることが知られており,分野ごとの学術表現リストの作成はEAPにおける重要な課題の一つである.本研究では,近年,多くの研究機関で整備されつつある自組織の研究者が執筆した著作物を電子的に蓄積・公開しているデータベース・機関リポジトリに着目する.それらのデータを活用することで,当該機関が扱う研究分野に依拠したような,従来よりも粒度の細かい部局別の英語学術表現リストの効率的な作成支援を試みる.
著者
本木 実 冨浦洋一 高橋 直人
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.47, no.8, pp.2779-2791, 2006-08-15
参考文献数
12

本論文では,記号列を入力し記号列を出力する階層型ニューラルネットの学習法を提案する.本論文で考察するモデルは,結合荷重だけでなく,各記号に対応する記号表現ベクトルも学習パラメータとする.この方式により,学習データの性質を反映した記号表現ベクトル(類似の使われ方をする記号の記号表現ベクトルが互いに近いベクトル)を学習することができ,予測能力の向上が期待できる.しかし,目的関数を平均二乗誤差とする通常のモデルでは,目的関数の値を最小にするタスクにとって無意味な解が存在し,出力ベクトルから記号の同定を行うと正解率がきわめて低いという問題がある.そこで本論文では,記号の同定を考慮した目的関数による学習法を提案する.実験により,提案モデルは,学習データの性質を反映した記号表現ベクトルの学習が可能であり,かつ高い正解率を持つことを示す.This paper proposes a learning method of a layered neural network whose inputs and outputs are symbol sequences. The learning parameters of the model we consider here are not only link weights but also symbol representation vectors (SRVs), each of which corresponds to each symbol. SRVs learned by this model can reflect characteristics of the training data, and are expected to lead to high performance in prediction. The conventional learning method whose objective function is mean square error has meaningless solutions for the task, which minimize the objective function. Moreover, the accuracy of the conventional model is very low when symbols are identified based on the output vectors. The learning method we propose has an objective function which is proper for identification of output symbols. Through the computational experiments, we also show that the proposed model acquires SRVs which reflect characteristics of the training data and have high performance.
著者
日高 達 市丸 夏樹 冨浦 洋一
出版者
九州大学
雑誌
基盤研究(C)
巻号頁・発行日
1997

本研究は,構文構造の曖昧性解消に利用されてきた語の係り受け関係を句構造文法の統語規則により組み込む方法と,確率文法のパラメタを複合化することにより構文解析の正解率を改善する手法の開発を目的とし,次のような研究成果を得た.1. 語彙の共起制約を包含する文脈自由文法の構成法統語範疇(品詞)に基づく自然言語の句構造文法を,(統語範疇,head word,function word)の3組に基づく句構造文法に組み変えることにより,統語範疇の構造制約と語彙の共起制約の両方を満足する文脈自由文法の構成法を提案した.ここで,語彙の共起制約とは語の係り受け関係と文節における付属語の連接条件を指している.この研究成果は,従来難しいとされてきた,語彙の共起制約の句構造文法への組込み法を与えた点で評価に値する成果である.2. 確率文法の複合化手法の開発確率文脈自由文法の近似性能を向上するための複合化モデルを提案した.複合化することにより尤度の向上が計れることを示し,また複合化度mおよびm組の確率パラメタ推定式をBaumの不等式を用いて導いた.確率文脈自由文法の高速構文解析機であるEarleyの手法を拡張して複合化確率文法モデルの構文解析アルゴリズムを構成した.曖昧な構文構造を生成する文を収集し,正解の構文構造をランダムに選出して,標本集合とし,標本集合からm組の確率パラメタを(1)の推定式に基づいて算出し,(2)の構文解析手法により構文解析を行なって正解率を実験的に算定した.その結果,単独の確率文法を用いることに較べ,複合化確率文法の場合に正解率の向上が顕著であることを実証した.
著者
水田 貴章 柴田 雅博 冨浦洋一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告自然言語処理(NL) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.113, pp.91-98, 2008-11-19

コーパスベースで言語知識を獲得する場合には,その言語の大規模なコーパスが必要となる.Web 上には多種の言語で書かれた膨大な数の文書が存在するため,そこから文書を収集することによって様々な言語の大規模コーパスの構築が可能である.このとき,言語ごとのコーパスを構築するためには,まず,収集文書がどの言語で書かれているかを識別する必要がある.本論文では,仮説検定を導入した言語識別手法を提案する.この手法により,長い byte 列を用いた場合でも統計的な揺らぎの影響が小さい言語識別が可能となる.実験の結果,従来手法では識別が難しかった小さなサイズの文書に対しても高い精度で言語識別を行えることが確認できた.To get language knowledge based on a corpus, we need a large number of documents written in the language. In the web, there are a huge number of documents written in various languages, and we can construct corpora of various languages easily by gathering each language's documents from the web.The first step to construct corpora in this way is to identify the language of each gathered document.In this paper, we propose a language identification method using statistical hypothesis testing. The method is robust against the statistical fluctuation even when we use long and low-frequency symbol sequences as language features. Through experiments, the proposed method identified languages of short documents accurately, which the previous methods could not.