著者
舟渡 信彦 吉川 耕平 花田 恵太郎 宮本 雅之
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.34, no.6, pp.1258-1267, 1993-06-15
被引用文献数
9

本論文では、アニメーションの作成・修正を簡便化することを目的としたアニメーション作成支環システムを提案する。本システムは、アニメーションの作成作業の一部である「登場物の動き」の記述を日本語で行うことを可能にする。このためにシステムは、日本語のシナリオを入力とし、(1)アスペクトを用いた登場物の動作間に成り立つ順序関係の抽出、(2)動作に付随する状態変化知識を用いた順序関係を補正するための推論、(3)得られた関係からの事象駆動方式にもとづくアニメーション記述言語プログラムの生成、を行う。日本語こよるシナリオの記述を許すことで、利用者が習得しなければならないシステムに関する知識は軽減される。また、従来のフレームごとの画像を作成する方法に比べて、作成したいアニメーションを直接的に表現することができるため、試行錯誤が容易になる。これらの特徴により、本システムは専門的な知識をもたない利用者が自らアニメーション作成作業を行う場合に有効である。
著者
今中 武 上原 邦昭 豊田 順一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.28, no.4, pp.349-358, 1987-04-15

Prologには プログラムの大規模化に伴う実行効率の低下 高速集合演算機能などの実用的なデータベース操作機能の欠落などの問題点があることが指摘されている.これらの問題点を解決するために 本論文ではPrologと関係データベースを結合したDB-Prologを提案するDB-Prologでは 関係データベースとの結合に非評価方式と評価方式と呼ばれる二方式を用いている.非評価方式を用いて結合されているデータベースは Prologの内部データベースを拡張したものとみなされ ファクト集合が格納される.このファクト集合は データベースの検索機能を用いて実現したユニフィケーションによって高速に検索される評価方式を用いて結合されているデータベースには 数値 文字列データなどが格納され DB-Prologのシステム組み込み述語を用いて操作される.システム組み込み述語には データの追加 削除 検索などを行う述語のほかに 既存のデータベースにアクセスするための述語などが用意されている.また DB-Prologの評価実験を行ったところ ファクト集合が3 000個を越えると DB-Prologの方が従来のPrologに比べて高速にプログラムを実行できることがわかった.さらに 評価方式を用いて結合されている複数の関係データベースに閉じた世界の仮定を行うことで 知識の多世界化などが可能となっている.
著者
箱守 聰 佐川 雄二 大西 昇 杉江 昇
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.33, no.2, pp.153-161, 1992-02-15
被引用文献数
7

文中の修飾構造を評価することにより 日本語の文章作成における添削作業を支援するシステムについて述べる修飾構造は 文の構造の基本をなすものであるため それがあいまいであったり 複雑すぎる場合 伝達したい内容が正確に伝わらない恐れがあるまた修飾構造は 単に文法だけでなく 文の意味内容とも関連するので 読み手の知識のレベルによっては 書き手の意図しないあいまいさの発生することがあるしたがって 客観的な評価が特に有効な部分である本研究では 文章中の各文に対して構文・意味レベルの解析を行って修飾構造のあいまいさ わかりにくさの存在する箇所を検出し さらに修正案を提示することにより 添削作業を支援するシステムについて述べるあいまいさについては 意味構造を得る段階で解析結果が複数存在するものを指摘するわかりにくさについては 出版されている文章作成の指導書を参考にして作成した3つの規則を基に判定するまた 本方式では文の解析の精度によってシステムの能力が左右されることが予想されるため 実際の文章を対象にした評価実験を行ったこの結果 現在実用化されている機械翻訳システムと同程度の文法と辞書および知識ベースを用いて 指摘すべき文は漏らさず評価が行えることを確認した
著者
松尾 文碩 佐藤 誉夫 高山 悟
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.36, no.6, pp.1486-1494, 1995-06-15
被引用文献数
1

情報検索システムのキーワード転置ファイルには、索引の見出し語(キーワード)の内容を格納したファイルがあり、これを文書参照ファイルということにする。見出し語の内容は、文書番号あるいは見出し語の生起位置の線形リストであり、この長さの分布は非常に偏っている。文書参照ファイルにおいて、長短リストを同形式で記憶し、2次記憶アクセス回数を減らすためにブロックサイズを大きくとると、低頻度キーワードのために非常に大きな無駄領域が生じる。本稿では、英文科学技術抄録文に関して、個々の低頻度キーワードの増加は予測できないが、生起回数が同一なものをまとめると、群として増加が予測できることを利用して、低頻度キーワードリストを生起回数ごとに群として管理する方法を提案した。この方法によって無駄領域を大きく減少させることが可能である。
著者
遠藤 裕英 畑田 稔
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.39, no.7, pp.2259-2268, 1998-07-15

本論文では次のような特徴を持つ研究情報サービスシステムを構築し,評価する.(1)紙媒体で入手したニュース系情報を電子化して,ネットワーク経由で遅滞なく配信するシステム.(2)インターネットのホームページの新着記事を収集し,キーワードを抽出して配信するシステム.(3)ウェブ閲覧ソフトでニュース系情報と図書系データベースを統一的に閲覧できるネットワークサービスを提供するシステム.本システムを利用者約600人の職場で評価した結果,ニュース系閲覧サービスで250人/日,図書系サービスで46人/日,プッシュ型(配信型)サービスで50?57人/日の利用者があった.研究情報の伝達迅速化では,次の結果が得られた.(a)従来,約4時間要していた紙媒体情報の配信を約2時間に短縮できた.(b)従来,約1週間遅れで閲覧されていたワールドワイドウェブの新着記事に対し,12時間以内に要約情報を配信できるようになった.(c)従来,図書室に出向く必要のあった図書データの検索を,利用者の端末からウェブ閲覧ソフトで利用できるようになった.This paper reports on the implementation and evaluation of a laboratory information service system that: (1) Digitizes news-oriented information obtained from print media and distributes it without delay over the network; (2) Collects newly arrived articles from home pages on the internet and extracts and distributes key words from these articles;and (3) Provides a network service that enables news and library databases to be read in an integrated manner through a Web browser.Evaluation of this system at a work place consisting of about 600 users revealed that about 250 people/day used the news service,about 46 people/day used the library service,and about 50 to 57 people/day used a distribution service.The following benefits were obtained as a result of speeding up the laboratory information service: (a) Distribution of print-based information that previously took about four hours has been reduced to about two hours; (b) Distribution of summaries with respect to newly arrived articles perused on the WWW can be performed within 12 hours compared to one week in the past; (c) Retrieval of library date that previously required a trip to an actual library can now be performed from a user's terminal using a Web browser.
著者
遠藤 裕英 藤田 義之 上林彌彦
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.38, no.12, pp.2534-2543, 1997-12-15
被引用文献数
1

企業の技術情報サービス部門ではWWW (World Wide Web)のホームページから新製品情報や新技術情報を取得し,研究者に迅速に伝達することが重要な課題になってきた.そこで,あらかじめ登録したホームページに毎日アクセスし,新着記事のキーワードを電子メールで配信するプッシュ型の技術情報サービスを開発した.ホームページから新着記事を抽出する方式として,ホームページに現れるアンカーのURL (Universal Resource Locator)の一致を照合する「アンカーを手掛かりとした新着記事抽出方式」を採用した.また,新着記事のキーワードにはホットテキストとホットイメージ代替文を用いた.上記方式を実装したWWW新着記事収集・配信システムを開発し,著者らの研究所で運用した.新着記事のキーワードを毎日配信することにより迅速な技術情報サービスが実現できた.また,「アンカーを手掛かりとした新着記事抽出方式」によって新着記事だけを抽出できることと,画像の新着記事を抽出できることが分かった.An increasingly important topic in the technical information service divisions of large corporations is the obtaining of new product and technical information from homepages on the World Wide Web,and the quick transfer of this to researchers.In this regard,a"push"technical information service has been developed that accesses pre-registered homepages everyday,and delivers keywords of new articles by electronic mail.This system compares and checks the anchor URL(Universal Resource Locator)that appears on the homepages,using this anchor as the key to extracting new articles.Hot text and altenative text to hot image are also used in the keyword of new articles.A World Wide Web new article extraction and delivery system incorporating the said system has been developed,and is operating at our laboratories.By delivering keywords of new articles everyday,a fast technical information service has been achieved.In using this new article extraction system,it has been found that new articles can be extracted regardless of differences in location of articles or exression of articles,and that even keywords of new images can be extracted.
著者
斉藤 剛 穂坂 衛
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.31, no.4, pp.562-570, 1990-04-15
被引用文献数
2

先に報告した拡張2次有理Bezier曲線による曲線近似法の応用と拡張とを述べる.まず 毛筆などの滑らかな文字の輪郭線を近似することにより 文字の品質を保持したまま 自動的に 少ないセグメント数で高品位文字フォントが作成できることを示す.次いで 先の近似法を拡張し 線図形を記述する点の間の距離が一様でない場合も 指定された誤差範囲で 最少のセグメント数で近似できるようにする.これを用いて 既に直線近似されているフォントを その品位を上げ しかも少ない記憶量で曲線近似する方法を示す.最後に 近似曲線に2次有理Bezier曲線を用いた利点として 座標変換および領域埋めが容易かつ効率的に行えることを示す.
著者
佐藤 宏之 杉本 重雄
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.46, no.1, pp.103-114, 2005-01-15

情報リソースのメタデータの記述に利用する共通のボキャブラリの定義やオントロジをWeb 上に置いて,複数のユーザや組織の間で参照するための研究が進められている.本論文は,個別のユーザや組織によって生成され分散環境上に公開された階層的知識をユーザ間で参照して活用する方法について述べる.ここではオブジェクト指向の考えを利用して,情報リソースをインスタンスとしたときのクラスに相当する概念を定義し,概念を階層化して表現した階層的知識を扱っている.セマンティックWeb のフレームワークを利用して,概念と結びついた情報リソースに関するメタデータを記述し,それをPeer-to-Peer 環境で流通させることによって,他者が保持する階層的知識の発見を支援する方式を提案する.さらに,ユーザの「関わった情報を整理して保持したい」というモチベーションを利用して,自らのために行った活動から他者とのインタラクションを発生させ階層的知識を拡張するプロセスモデルを提案する.このプロセスを支援するシステムを用いた実験では,ユーザは自らが生成した階層的知識に他者の概念を引用したり,他者の概念との間の関係付けを行ったりして,階層的知識を拡張することが可能であることを確認した.また,拡張の際に強く関わりあう3~6 人のユーザの階層的知識を結合することで,ユーザ間で平均約71% の概念の引用や関係付けが類似するなどの特徴を持った新たな階層的知識の生成が確認できた.Many studies that have the goal of providing multiple users and organizations with Webbased common vocabularies or ontologies for use in describing metadata on informational resources are now under way. This paper describes a method that facilitates reference to and utilization of concept hierarchies evolved by individual users or organizations and made available in distributed environments. In the method we use an object-oriented paradigm to define resource-related concepts as classes, the instances of which represent resources. We set up these classes in a hierarchy that represents the hierarchy of concepts. We use the Semantic Web as a framework for a way to define metadata that reflects linkages between concepts and resources in a way that makes it easy for users to find associated concept hierarchies held by other users in a peer-to-peer environment. Moreover, we propose a model for the evolution of concept hierarchies through interaction among users. This process takes advantage of the motivation of users to organize information which they find relevant. We implemented the system and ran an experiment which demonstrating that hierarchies created by using the system evolve as the users refer to or make connections with concept hierarchies held by other users. We also identify an interesting feature of new concept hierarchies produced by applying the evolutionary process to merge concept hierarchies initially produced by sets of three to six "strongly related" users: actions common to the users make up an average of 71% of all actions (connection and reference) that lead to the evolution of new hierarchies.
著者
駱琴 渡邉 豊英 吉田 雄二 稲垣 康善 齊藤 隆夫
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.31, no.12, pp.1755-1767, 1990-12-15
被引用文献数
13

図書館業務に計算機を導入して より多様な情報サービス より効率的な業務処理を実現することが積極的に試みられているしかし 膨大な書誌情報をいかに効率よく計算機に入力するかが大きな課題となっているこのために 図書目録カードから目録情報を自動的に抽出し 各項目ごとに分類する方法が必要である本論文では 図書目録カードに付帯する様々な知識を活用して目録情報を自動的に分類・抽出するトップダウン的なアプローチを提案する本アプローチの基本的な戦略は書式構造 項目の並び関係 各項目に関する知識を段階的に かつ独立に適用することによって 仮説の生成・検証プロセスの下に項目を順次決定し 処理する今までに報告されている同課題の処理手法と比べて 本アプローチは処理対象の書式構造 論理構造をあらかじめ記述しておくことにより 種々の図書目録カードに対処できるすなわち 構造的な変形 記述形式に変化を有した図書目録カードにも対処でき 応用性 適応性 柔軟性に富んでいる
著者
三品 拓也 貞光 九月 山本 幹雄
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.45, no.9, pp.2168-2176, 2004-09-15
参考文献数
19
被引用文献数
1

本論文ではかな漢字変換誤り,特に同音異義語の選択誤りを対象とした日本語スペルチェックの方法を報告する.同音異義語誤りの判定には局所的な情報と大域的な情報の両者が必要であるが,本論文では大域的な情報をモデル化するために確率的LSAを用いることを提案・検討する.評価実験として,人為的に誤りを混入させたテストデータを用いた誤り検出・訂正実験を行った.局所的な情報のモデル化に従来からよく使われているngramモデルのみを利用した手法をベースラインとして比較した.ベースラインシステムでは再現率93.8%,適合率79.0%(F値85.8%)であった性能が,確率的LSAと組み合わせることにより再現率95.5%,適合率83.6%(F値89.2%)と改善された.We report a method of a Japanese spell checker for homophone errors which often occur in Japanese input process using a kana-kanji conversion system. Error detection methods need both of local and global information around a target word. In this paper, we propose and investigate use of a probabilistic LSA for modeling global information. We will show experimental results of performance to detect and correct homophone errors which are generated randomly. We use a simple method based on ngram models as a baseline system. Ngram models are common for Japanese spell checkers to model local information. In the results, although detection rates of the baseline system are 93.8% in recall, 79.0% in precision (85.8% in F-measure), those of a combination system of an ngram model and a probabilistic LSA increase to 95.5% in recall, 83.6% in precision (89.2% in F-measure).
著者
高林 哲 小松 弘幸 増井 俊之
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.43, no.12, pp.3698-3705, 2002-12-15
被引用文献数
1

インクリメンタル検索は情報検索やテキスト編集などの用途に広く用いられている.しかし,日本語の入力にはかな漢字変換という障壁があるため,キーボードから1文字入力するごとに検索を進めていくスムーズなインクリメンタル検索は従来,行うことができなかった.本論文では,指定された読みで始まる単語をコンパクトな正規表現に動的に展開してインクリメンタル検索を行う手法Migemoを提案する.我々はMigemoの実装および評価を行い,これまで困難であったスムーズな日本語のインクリメンタル検索が実現できることを示す.最後に各種の応用例を紹介する.Although incremental search is used in a wide range of tasks including information retrieval and text editing,conventional incremental search method cannot handle Japanese texts effectively because Japanese text input requires an indirect input method called Kana-Kanji conversion.In this paper,we introduce a new incremental search method called Migemo to realize the incremental search for Japanese texts.Migemo performs the incremental search by dynamically expanding the input pattern into a compact regular expression which represents all the possible words that match the input pattern.We show how Migemo realize the Japanese incremental search,which is hard to perform effectively so far, through the concrete implementation and evaluation.Various applications are also presented.
著者
丸山 宏 荻野 紫穂
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.35, no.7, pp.1293-1299, 1994-07-15
被引用文献数
19

日本語の形態素解析は正規文法で行えるとされてきたが、今までの形態素解析システムでは、文法は接続表の形で記述されてきた。本論文では、文法を正規文法の生成規則として記述する形態素解析システムについて述ぺ、その利点と限界について議論する。
著者
中田 育男 山下 義行
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.34, no.2, pp.239-245, 1993-02-15
被引用文献数
1

加算や乗算などの演算子を含んだ通常の式の形をしたものの文法は、生成規則だけによる定義より、演算子順位を使った定義のほうが一般には分かりやすく、構文解析の効率もよい。LR構文解析の中で演算子順位を利用した構文解析をする方法はよく知られているが、再帰的下向き構文解析の中での方法は、演算子の順位を示す数値を手続きの引数として渡す方法があるようであるが、あまり報告されていない。本論文では、後者の方法として、再帰的下向き構文解析法における再帰的手続きの呼び出しの引数として、文法のLL(1)性などを調べるのに使われるFollow集合の部分集合を使う方法を提案する。これは、引数として演算子の順位を示す数値を渡す方法より一般的である。また、この部分集合は、再矯的下向き構文解析法でエラー処理のためによく使われる集合に近いものであり、この方法を再帰的下向き構文解析に導入するのは容易である。
著者
横矢 直和 マーチンD.レビン
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.30, no.8, pp.944-953, 1989-08-15
被引用文献数
9

3次元物体のモデル化と認識を目的とした距離画像解析の初期段階において最も重要な処理はセグメンテーションである.本論文では この問題に対して領域およびエッジに基づくハイブリッドな手法を提案する.距離画像のセグメンテーションを 観察方向に不変な微分幾何学特徴が一様でかつ 距離と法線ベクトルに関する不連続点を含まないような表面領域への分割と定義する・この分割を実現するために まず汲初に初期分割としてルガウス曲率と平均曲率の符号の組合わせに基づく 座標のとり方と観察方向に不変な画素分類(曲率符号マップ)を行い 同時に 距離の不連続点(ジャンプエッジマップ)と法線ベクトルの不連続点(ルーフエッジマップ)を抽出する.そして最後に この3種類の初期分割マップを統・合することによって最終的な分割を得る・本手法は 距離画像を物体の部分表面に対応した領域に分割するとともに 各面を物体認識の観点から重要な観察方向不変な8つの基本曲面タイプに分類することもに また 本手法は多面体と自由曲面物体が混在するような複雑なシーンに対しても有効である.これは人工データとレーザレンジファインダから得られた実データを用いた実験によって確かめられた.
著者
小宮 常康 湯淺 太一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.35, no.11, pp.2382-2391, 1994-11-15
被引用文献数
2

継続とはある時点以降の残りの計算を表したものである。Lispの一方言であるSchemeでは、継続を生成する関数が用意されており、継続をデータとして扱うことができる。これによって、非局所的脱出やコルーチンなどの様々な制御構造を実現することができる。一方、Scheme言語を並列化するためによく使用されるfuture構文は、プロセスの生成とそれらの間の同期を取るメカニズムを提供する。しかし、future構文に墓づく従来の並列Schemeの継続機能では、並列プログラムを記述するのに不十分であった。そこで本論文では、future構文に基づく並列環境に適合するように、Schemeの継続機能を拡張することを提案する。
著者
中西 泰人 辻 貴孝 大山 実 箱崎 勝也
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.42, no.7, pp.1847-1857, 2001-07-15
被引用文献数
9

本稿では,位置情報とスケジュール情報を用いたコミュニケーションシステムであるContext Aware Messaging Service(以下CAMS)について述べる.CAMSは,PHSにより取得される位置情報とユーザの入力したスケジュール情報を用いてユーザの通信コンテクストを推定して,受信側の状況に最も適すると思われる電話番号やメールアドレスを動的に選択し,CTIサーバおよびメールサーバを用いてメッセージを動的に配送する.またシステムによる動的なメッセージの配送だけでなく,ユーザが位置情報およびスケジュール情報,転送状況をWWW上で共有する仕組みをCAMSが提供し,メッセージを送るタイミングやメディアを選択するための情報を発信者側に提示する.CAMSの設計および実装を行い,地理的に分散しつつさらにモバイル環境においてもコラボレーションを行うSOHO(Small Office Home Office)ワーカのグループを対象とした,2カ月半にわたる運用実験を東京都内にて行った.実験での通信ログの分析およびユーザへのヒアリングの結果から,CAMSによるメッセージの動的配送と通信コンテクストの共有が,コミュニケーション機会の損失を軽減する効果を確認し,グループへの帰属意識を向上させるという知見を得た.This paper describes a context-based dynamic messaging system, called ``Context Aware Messaging Service''. It uses schedule information and location information of the message addressee. According to the addressee's communication context (schedule, location, and available media), the system selects the most suitable telephone umber or e-mail address, and redirects each incoming message dynamically. It also writes the schedule and location information of users into an HTML file which users can share on the WWW.We had an experiment for two months in Tokyo and the users are a group of SOHO workers. We evaluated the system with their opinions and with the analysis of communication logs. Both dynamic message redirect and sharing communication contexts produced smooth communication. The users preferred sharing communication contexts and it improved feeling of a team.
著者
大野 将樹 森田 和宏 泓田 正雄 青江 順一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.44, no.5, pp.1311-1320, 2003-05-15
被引用文献数
4

トライ法は自然言語処理システムの辞書を中心として広く用いられているキー検索技法であり,トライを実現するデータ構造に検索の高速性と記憶量のコンパクト性をあわせ持つダブル配列構造がある.ダブル配列構造の欠点は,キーの削除によって生じる未使用要素により空間効率が低下する点である.これに対し森田らはダブル配列を詰め直すことにより未使用要素を除去するキー削除法を提案した.しかし,この手法はすべての未使用要素を除去できないため高い空間効率を維持できず,また削除コストが未使用要素数に依存するので,削除を連続するほど削除速度が低下するという問題がある.本論文では,トライの節のうち兄弟を持たない節が多くの割合を占めること,また,これらの節の遷移は容易に変更できるという特徴を利用し,削除を連続した場合でも空間使用率と削除速度を低下させない効率的なキー削除法を提案する.EDR日英単語辞書,WordNet英単語辞書,日本の郵便番号リスト,各5万件に対する実験より,提案法は削除を連続した場合でもきわめて高い空間使用率を維持することが,また,森田らの削除法より約50?200倍高速に削除できることが実証された.A trie is a well known method for various dictionaries, such as spelling check and morphological analysis. A double-array structure is an efficient data structure combining fast access of a matrix form with compactness of a list form. The drawback of the double-array is that the space efficiency becomes worse by empty elements produced in key deletion. Therefore, Morita presented a key deletion method eliminating empty elements. However, the space efficiency of this method is low for high frequent deletion. Further, the deletion takes a lot of time because the cost depends on the number of empty elements. In this paper, a fast and compact deletion method is presented by using a property of nodes having no brothers. From simulation results for 50,000 keys, it turned out that the presented method is faster 50 to 200 times than Morita's method and keeps high space efficiency.
著者
宮崎 修次
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.47, no.3, pp.795-801, 2006-03-15
被引用文献数
2

有向グラフの確率行列表現と区分線形一次元写像のフロベニウス・ペロン演算子の行列表現を対応させることで,有向グラフの構造を力学系と関連付けることができることを示す.力学量の粗視量の大偏差統計を解明するというカオス力学系の研究手法をグラフ理論に適用する試みを紹介する.簡単な有向ネットワークを例にとり,統計熱力学形式により内在するループを個別に取り出したり,ノードから発する矢印の数の揺らぎをとらえたりすることができることを示す.Directed network such asWWWcan be represented by a stochastic matrix. Comparing this matrix to a Frobenius-Perron matrix of a chaotic piece-wise linear one-dimensional map whose domain can be divided into Markov sub-intervals, we are able to relate network structure to chaotic dynamics. Just like various large-deviation properties of local expansion rates (finitetime Lyapunov exponents) related to chaotic dynamics, we can also discuss those properties of network structure.
著者
丸山 伸 中村 素典 岡部 寿男 山井 成良 岡山 聖彦 宮下 卓也
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.47, no.4, pp.1021-1030, 2006-04-15
被引用文献数
5

電子メールが広く利用されるようになるにつれて,メールを遅延なく即時に配送することが求められている.しかし,メール配送エージェント(MTA)に大量のメールが送りつけられて負荷がかかったときには,メールの配送に遅延が生じるだけでなく,MTA の運用の継続すら困難な事態となってしまう.このような高負荷時においても特定のメールを優先的に配送する技術が求められている.本論文では,メールが配送される直前に行われるネームサーバ(DNS)に対する問合せに着目し,DNS問合せのソースアドレスに基づいて信頼できる発信者からのメールを他のメールから分離し,遅延なく優先して配送する手法を提案する.まずDNS の問合せに対してその応答として毎回異なる回答を送り,回答したサーバにメールが送られてくるのを待つ手順を繰り返すことで,DNS 問合せ元のIPアドレスとメールの発信者との対応表を作成する.次に優先して配送するべきメールの基準に基づき,優先して配送するべきDNS 問合せ元の一覧「White DNS Server List」を抽出する.この表に基づいてメールの配送先を振り分けることで,大量のメールが配送されてくる際にも信頼できる発信者からのメールを他のメールとは独立したサーバで取り扱うことができ,遅延を引き起こすことなく配送できる.そのためのシステム構築方法を示すとともに,実験により有効性を確認した.Delivering e-mails without unnecessary delay is one of the very important issues as the spread of e-mail service and its use become very common. But in case that a "Mail Transfer Agent (MTA)" is heavily loaded by huge amount of mails sent to the MTA, not only the delay on mail delivery is inevitable but also managing the MTA service becomes difficult. Thus, a delivery method that treats legitimate mails with priority is requested. In this paper, we focus on the query to the "Domain Name Service (DNS)" which is usually processed just before the mail transfer, and propose a new delivery method which separates legitimate mails from others according to the source IP address of the DNS query. That is, employing a crafted DNS server which responds to each DNS query with separate IP address, and wait for incoming mails at each address, we get a correspondence table between a DNS query and the incoming mail. And we also show that we can lead legitimate mails to the separated mail servers by dynamically changing the DNS response based on this table, and deliver them with short delay even in the case that others servers are loaded by many other mails.
著者
浅原 正幸 松本 裕治
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.43, no.3, pp.685-695, 2002-03-15
参考文献数
19
被引用文献数
10

自然言語処理の分野で最も基本的な処理として形態素解析がある.近年大量のタグ付きコーパスが整備され,コーパスに基づいた統計的形態素解析器が開発されてきた.しかし単純な統計的手法ではコーパスに出現しない例外的な言語現象に対処することができない.この問題に対処するため,本論文ではより柔軟な拡張統計モデルを提案する.例外的な現象に対応するために単語レベルの統計値を利用する.この拡張により,細かく分類された大量のタグを扱う際,必要なコーパスの量は増加する.一般に適切なコーパスの量で学習するために複数のタグを同値類へとグループ化することによりタグの数を減らすことが行われる.我々はこれを拡張し,マルコフモデルの条件付き確率計算について,先行する品詞タグ集合と,後続する品詞タグ集合とで,別々の品詞タグの同値類を導入するようにした.コーパスの量が不足する場合にtri-gramモデルを構築すると,学習データへの過学習が起きる.これを回避するために選択的tri-gramモデルを導入した.一方,これらの拡張のため,語彙化するタグやtri-gram文脈の選択を人手で設定することは困難である.そこで,この素性選択に誤り駆動の手法を導入し半自動化した.日本語・中国語形態素解析,英語品詞タグ付けについて評価実験を行い,これらの拡張の有効性を検証した.Recently, large-scale part-of-speech tagged corpora have becomeavailable, making it possible to develop statistical morphologicalanalyzers trained on these corpora.Nevertheless, statistical approaches in isolation cannot coverexceptional language phenomena which do not appear in the corpora.In this paper, we propose three extensions to statistical modelsin order to cope with such exceptional language phenomena.First of all, we incorporate lexicalized part-of-speech tags into the modelby using the word itself as a part-of-speech tag.Second, because the tag set becomes fragmented by the use of lexicalized tags, we reduce the size of the tag set by introducing a new type of grouping technique where the tag set ispartitioned creating two different equivalent classes for the events in theconditional probabilities of a Markov Model.Third, to avoid over-fitting, we selectively introduce tri-gram contexts into a bi-gram model.In order to implement these extensions, we introduce error-driven methods to semi-automatically determine the words to be used as lexicalized tags and the tri-gram contextsto be introduced.We investigate how our extension is effective through experiments onJapanese, Chinese and English.