著者
稲垣 陽一 中島 伸介 張 建偉 中本 レン 桑原 雄
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.3, no.3, pp.123-134, 2010-09-28

本研究ではブロガの体験熟知度に基づいたブログランキングシステムの開発を行った.ユーザが入力した検索キーワードに対して,関連するトピックを複数抽出し,各トピックに関するブロガの体験熟知度を算出する.これに基づいてブログエントリのランキングを行う.熟知度スコアが高いブロガ (熟知ブロガ) が書いたエントリは,熟知度スコアが低いブロガが書いたエントリよりもランキングが上位となる.ブロガの熟知度スコアは,ブロガが過去に投稿したエントリ内で,各トピックに関して共起に基づいて抽出した特徴語をどれほど使ったかを分析することで算出される.なお,開発したシステムは,視点の異なる複数のランキングを提示するとともに,エントリ投稿者 (ブロガ) の特性に関する補助情報を提示している.これにより,ユーザは閲覧するブログエントリの信頼性を自分なりに判断することが可能となる.我々は開発した実証実験システムをWeb上で公開するとともに,これを用いた評価実験を行った.提案システムにより提示される熟知ブロガおよびブログエントリの妥当性が十分に高いことを確認できた.
著者
平尾 努 鈴木 潤 磯崎 秀樹
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.2, no.1, pp.1-9, 2009-03-31

従来の文短縮手法の多くは,入力された文を構文木として表現し,その部分木を削除することで,短縮文を生成する.このようなアプローチは文法的な短縮文を生成するという観点からは理にかなっている.しかし,多くの場合,人間は構文木の刈り込みだけで短縮文を生成するわけではない.これは,構文情報に過度に依存することが,高品質な文短縮を行うための妨げとなることを示している.そこで,本稿では,構文情報を用いない文短縮手法を提案する.短縮文の言語としてのもっともらしさを構文情報を用いずに評価するため,原文と大規模コーパスから得た統計情報を組み合わせた新たな言語モデルを提案する.提案手法を文献 18) のテストセットを用いて評価したところ,自動評価指標においては,提案手法が従来法より優れていることを確認した.さらに,提案手法が日本語だけでなく英語でも有効であることも示す.
著者
石江 哲也 砂子 一徳 富井 尚志
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.46, no.8, pp.1-13, 2005-06-15
被引用文献数
12

近年,FDG(2-[fluorin18]fluoro-2-deoxy-D-glucose)を用いたWB-PET(Whole Body-Positron Emission Tomography)画像診断がガンの有効な診断方法として注目されている.その読影は,1.関心領域(Region Of Interest: ROI)を設定し,2. その意味づけを行い,3. 画像所見を記載する,というプロセスによる.すなわち,読影は画像内の領域を意味づけすることである.しかし,PETは身体機能に注目した画像であるため,読影にはPET 固有な知識を要求されるうえ,大量の画像を操作しながらの読影は負担が大きい.一方,今日ではWB-PET が健康診断に適用され,大量に画像が生成されるため,データ活用の観点から適切な情報を統合して検索できるように編成することが有効である.本研究では,WB-PET 診断を,「DB による画像所見の共有」と「検索による画像所見の利用」という観点からの支援を提案している.本稿では,ROI を定性的,定量的に記述するためのPET 固有の知識の抽出,関心領域情報付き画像所見を蓄積・検索するためのPET 情報モデルの導入,およびプロトタイプシステムの実装を行った.さらに,読影支援に有効な検索を実行し,その結果と実行時間についての評価を行った.In recent years, diagnosis by whole-body PET (Positron Emission Tomography) images are considered as an effective method of finding cancer. Interpretation of PET consists of three processes, 1. setting ROI (Region Of Interest), 2. giving its semantics to the ROI, and 3. describing them into finding reports. In this study, we propose the WB-PET database system which supports WB-PET diagnostic imaging from a viewpoint of "management of findings by database" and "practical use of findings by retrieval". In this paper, we extract knowledge peculiar to PET for describing ROI qualitatively and quantitatively, and also we introduce the PET information model for associating finding data and image data. Finally, all data are stored into the PET DB, and can be retrieved from the DB. For the purpose of evaluation, we implemented a prototype system on practical DBMS. By using the prototype, effective queries in diagnostic support are performed and the execution times are examined.
著者
大竹清敬 岡本 大吾 児玉 充 増山 繁
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.43, no.2, pp.37-47, 2002-03-15
被引用文献数
9

日本語の新聞記事を対象とした新聞記事要約システムYELLOW について報告する.YELLOWは,「重要な情報を洩れなく抽出する」ことに重点をおいて作成した.本システムは,二重修飾に着目した削除を中心とした文内要約と,重要度付与による文選択の2 つの部分より構成される.文内要約では,構文解析結果を積極的に利用する.ある名詞に対し,複数の修飾部がある場合,名詞を限定する働きが弱い修飾部を削除する新たな手法を提案する.また,換言処理,例示の削除などの要約手法も用いる.重要度付与では,主要語,高頻度の名詞,位置情報,見解文であるか否かなど,従来,文の重要度を決定するにあたって重要であるといわれてきた種々の情報を,複合的に用いる.情報検索と自動要約の評価のためのワークショップ,NTCIR-2 の要約タスクTSC-1 に参加した結果,YELLOW は平均値で良好な結果を得た.We propose a new automatic summarization system, YELLOW, for Japanese newspaper articles. YELLOW is designed to avoid omission of important information. The system was composed of two components, an abstract-type summarizer and an extract-type summarizer. The abstract-type summarizer summarizes sentences by deleting one of multiple modifiers for nouns and illustrations and by paraphrasing, etc. In the extract-type summarizer, features such as main terms, high frequency words, location information in a paragraph, are used to decide the weight of each sentence. We participated in tasks A-1 and A-2 of TSC-1 in NTCIR-2 and the evaluation results showed that YELLOW outperformed all other partici-pants in average precision.
著者
大塚真吾 豊田 正史 喜連川 優
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.44, no.18, pp.32-44, 2003-12-15
被引用文献数
12

ウェブページを閲覧する人々の行動モデルの抽出は重要であり多くの研究が行われている.既存の研究のほとんどはウェブサーバのログを用いたものであり,当該サイト上での挙動は把握できるものの,サイト外を含めたユーザの行動を解析することは容易でない.最近,テレビ視聴率調査と同様,統計的に偏りなく抽出された人(パネル)を対象にURL 履歴の収集を行う事業が登場している.パネルから集められたログ(パネルログ)の解析により,パネルが訪れたすべてのウェブページ(URL)を収集できる.ウェブサーバに対する従来のログ解析では解析対象となるページ空間が狭いのに対し,パネルログではきわめて広大なページ空間を対象とするため,個々のページの参照履歴から大域的な行動の把握は容易でない.本論文では類似したウェブページを抽出するウェブコミュニティ手法を用いたパネルログ解析システムを提案し,URL を基にした解析ではとらえ難い大域的なユーザの行動パターン抽出例を紹介する.To extract model of Web users' behavior is of decisive importance and there are a lot of work has been done in this area. As far as we know, most of the work utilize logs on serverside, even it can gain an understanding of behavior inside the server, but it is hard to analyze complete users' behavior (inside and outside the server). Recently, similar to survey on TV audience rating, a new kind of business appeared, which collects URL histories of users (called panel) who are selected without statistic deviation. By analyzing panel logs which are merged from panels, it becomes possible to collect all the web pages (URLs) accessed by the users. In contrast to Web server logs which have a limited page-space, panel logs have an extremely broad page-space. For this reason, it's difficult to get hold of behavior on global page-space by just checking reference histories. In this papaer, we propose a prototype system to extract user access patterns from panel logs and show users' global behavior patterns which are hard to be grasped for URL-based analysis using our proposed system.
著者
渡辺 知恵美 大杉 あゆみ 佐藤 こず恵 増永 良文
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.43, no.9, pp.55-67, 2002-09-15
被引用文献数
4

我々は,VRシステム群のバックエンドにデータベースサーバを連動させたシステム,仮想世界データベースシステム(Virtual World Database system:VWDB)の設計と実装を進めている.VWDBでは,仮想世界で行われる操作をすべてVWDBトランザクションとして処理し,リアルタイムに仮想世界を管理する.このようなVWDBの機能は,1 つの仮想世界を複数ユーザでアクセスする共有型作業環境で最大限に活用することができる.そこで,本論文ではVWDB上に構築した共有型作業環境のためのトランザクション概念について特に論じる.共有型作業環境では,オブジェクトの移動操作のように,(1)操作の途中経過を他のすべてのクライアントに公開する必要がある,(2)仮想世界における時間の流れが不可逆であり,操作の途中で失敗しても元に戻すことができない,(3)操作中のオブジェクトどうしが互いの操作に影響を与え合う場合がある,という共有型作業環境独特の特性がある.我々はこれらの特性を考慮に入れVWDBトランザクションという新しい概念を導入した.VWDBトランザクションはマルチレベルトランザクションを基に承認可能終了状態という概念を加えて定義されており,緩和されたACID特性を保証する.また,リアルタイム性を損ねることなくトランザクションを実行するために,バックエンドデータベースへの適切な間隔でのサブトランザクション発行予測方式を導入している.実験では,サブトランザクションが適切な間隔で発行されていることを確認したのち,VWDBトランザクションが適用可能な共有型作業環境の規模について実験を基に考察を行い,VWDBが数十人の小規模な共同設計環境で有効であることを明らかにしている.The Virtual World DataBase system (VWDB) is currently under development at Ochanomizu University. This system is constructed by integrating a set of virtual reality systems and an object-oriented database system so that it supports database functions for cyberspace applications. Each operation issued by each VR client is managed as a new type of transaction called a VWDB transaction. The VWDB transaction is different from the traditional transaction concept in that it relaxed the ACID properties. The VWDB can support a shared work environment in which several users access the same virtual world. In this paper, we report on the VWDB transaction concept in detail for a shared work environment of the VWDB. We first formulated and analyzed operations in the shared work environment, and found their characteristics as follows: (1) It needs to exposure the uncommited data to other users before the operation finishes, (2) the passage of the time in the virtual world is irreversible as it is so in the real world, and therefore it cannot be undone even if it fails, and (3) the objects under operationsmay affect each other. The VWDB transactionsare introduced by taking into account these characteristics. The VWDB transaction is based on the multi-level transaction and isadded the concept of the "acceptable termination state ". In order to perform a transaction without spoiling real-time property, we introduced an algorithm which predicts an appropriate time interval between adjacent sub-transactions, and we verify that it works effectively. We evaluated the scale of the shared work environment which VWDB can support, and we found that the VWDB can support small-scale environment shared by dozens of users.
著者
村田健史 岡田 雅樹 阿部 文雄 荒木 徹 松本 紘
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.43, no.12, pp.115-130, 2002-12-15
被引用文献数
5

現在,宇宙開拓科学や地球環境科学の様々な分野において,広域観測が進められている.我が国では,観測データの取得・蓄積は諸外国と比較して進んでいるが,データのネットワーク上での公開・発信は不十分な点が多い.広域観測データは,観測グループ独自のデータ較正方法やデータ公開ルールがあり,データ管理・公開が機関ごとに独立に行われる傾向がある.一方,データ解析者は,これらの分散管理されているデータを一元的に利用したい.しかし,米国の米国宇宙科学データセンター(NSSDC )のような統合的データセンターの実現は容易ではない.本研究では,広域宇宙地球観測の1 つである,太陽地球系物理(STP )観測データのための分散データベースを提案する.提案する分散データベースでは,データファイルおよびデータ利用者のメタ情報を抽出し,メタデータベース化する.各観測グループはメタデータベースを独自に管理することで,データの管理権限を保護することができる.一方,分散データベースシステムによって各データに対して透過的にアクセスすることにより,データ解析者は一元的にデータを利用することができる.本稿では,分散データベースのシステム設計を行い,実際に試験データを用いたデータベースを構築した.その結果,提案する垂直分散型分散データベースによって,実用上有効なアクセス速度でメタ情報取得が可能であることが分かった.Due to the development of computer performance and information networks,we can now easily access to observation data for large-scale Solar-Terrestrial Physics (STP)through the Internet.However,for integrated studies with help of a variety of observation data together, we need to a distributed network database system with which users are able to access to any observation data with high transparency.It is widely said that distribution systems and facilities for STP data are inferior to observation and storage systems in Japan. However, it is diffcult to construct a central data management center for huge amount of data because of financial,political,and technical reasons.We herein propose a distributed database system for STP data.In the presented database system,index information of both observation data files and access users are stored and managed as a meta-detabase.Through the access to the meta-detabase,users obtain information of the observation data:not only datasite addresses, directory names and ?le names of the data,but authorization of the data.One's authorization to access one data is provided by the team or mission responsible for the data.This suggests that the ownerships of observation data to each team/mission are preserved though the present meta-database seems to be only one from user side.
著者
金子 雄 春本 要 福村 真哉 下條 真司 西尾 章治郎
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.46, no.18, pp.1-15, 2005-12-15
被引用文献数
17

近年,携帯端末の普及やセンサ技術の発展にともない,場所や時間に依存せずに遍在する情報を利用できるユビキタス環境が整いつつある.ユビキタス環境では,場所や時間などの状況を自動的に考慮して人々の意思決定を支援するコンテキストアウェアサービスが実現できる.多くの場合,人々は行動を起こす際に自分や各種施設の位置を考慮するため,コンテキストアウェアサービスでは任意の位置に存在する情報資源を効率良く検索できる機構が重要となる.そこで本研究では端末の位置情報に基づくP2P ネットワークであるLL-Net(Location-based Logical Network)を提案する.LL-Net では緯度,経度によって物理領域を格子状のエリアに分割する.各端末はエリア内でネットワークを構築し,またエリアを階層的にとらえてエリア間にリンクを構築する.これにより,LL-Netはクエリをフラッディングする範囲を任意の領域のみに制限できる.また本研究ではシミュレーションによって,LL-Net が任意の領域へ効率良くクエリを転送できることを示す.With the popularization of mobile devices and the development of advanced sensor devices, it is becoming feasible to realize a ubiquitous environment that enables us to publish and utilize information independent of location and time. In a ubiquitous environment, a number of context-aware services will be developed which provide services depending on various contexts such as location and time. It is indispensable for such services to retrieve locationdependent information efficiently. In this paper, we propose a location-based P2P network called the LL-Net (Location-based Logical Network). The LL-Net divides the world into areas by latitude and longitude. Terminals in each area construct an intra-area network, and each terminal establishes inter-area links hierarchically. By constructing such a network, the LL-Net can limit the message flooding range only to a specified region. The simulation results show that the LL-Net can efficiently propagate a query to a specified region compared to the existing P2P networks.
著者
野村 恭彦 片山 貴嗣 斉藤研一郎 岡田 謙一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.46, no.8, pp.72-81, 2005-06-15
被引用文献数
1

知識の共有・活用は企業の重要課題となっており,そのための情報の蓄積・検索のメカニズムや,掲示板を活用したQ&A メカニズムが提案されてきた.しかし,多くのナレッジ・マネジメントの実践を通して,知識を必要とする人と,その知識を持つ人の間の相互理解や信頼関係がなければ,知識がうまく流れないことが明らかになってきた.本論文では,今は知らない相手でも,出会ったときに「持ちつ持たれつ」あるいは「尊敬しあえる関係」になれる人同士の関係を「潜在ソシアルネットワーク」と呼び,その探索手法の提案を行う.提案手法は,各ユーザの回答可能な知識領域と,各ユーザの持つ知識ニーズを管理し,状況に応じて互恵関係を検索・提示する.プロトタイプを構築し,「私はあなたを助けられるし,あなたは私を助けられる」という関係を提示することが,パブリックに質問を投げて回答を期待する手法に比べ,回答獲得可能性が高く,質問に回答する人の多様性が増すことを示す.Sharing and utilization of knowledge is an important issue among companies. Mechanisms of information retrieval and Q&A by utilizing bulletin board were proposed for such issue. However, it was discovered through number of knowledge management practices, that successful flow of knowledge is difficult if there are no mutual understanding and relationship of trust between those who need the knowledge and those who have such knowledge. In this report, we call "potential social network" which describes the situation where strangers meet each other for the first time and can have relationship of "give and take" or "mutual trust" and will propose its method to search. This method is to manage each user's possible response of knowledge domain and their knowledge needs and search reciprocal relationship according to the condition. Compared to the method that questions the public and wait for their answers, the method that creates prototype and presents the relationship of "I can help you and you can help me," will i crease the possibility of obtaining the response as well as the diversity of the respondents.
著者
伊東 秀夫
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.41, no.1, pp.31-39, 2000-02-15
被引用文献数
3

Suffix arrayは文字列索引の一種であり,suffix treeに比べ単純でコンパクトなデータ構造を用いて実装できる.文字列処理に対して多くの優れた性質を持つsuffix arrayだが,特に大規模なテキストに対しては索引構築に多大な記憶量と計算コストを必要とし実用上の問題になっている.我々は,高速かつコンパクトなsuffix array構築法を提案する.そのキーとなるアイデアは,任意のsuffix間の関係ではなく,隣接するsuffix間の関係のみを利用する点にある.このアルゴリズムを二段階ソート法と呼ぶ.514MBの毎日新聞記事を含む様々なデータセットを用いた評価実験により,我々のアルゴリズムはQuicksortの約6倍拘束であり,また,今まで最も高速なアルゴリズムとして知られているSadakaneの方法に対し2?3倍高速であることを示す.The Suffix array is a string indexing structure and a memory efficient alternative of the suffix tree. It has myriad virtues on string processing. However, it requires large memory and computation to build suffix arrays for large texts. We propose an efficient algorithm for sorting suffixes. One of the key ideas is to use specific relationships between an adjacent suffix pair. We call this algorithm the Two-Stage Suffix Sort. Our experiments on several text data sets (including 514MB japanese newspapers) demonstrate that our algorithm is about 6 times faster than the popular sorting algorithm Quicksort, and 2 to 3 times faster than Sadakane's algorithm which is known as the fastest one.
著者
内山 将夫 井佐原 均
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.43, no.9, pp.1-14, 2002-09-15

近似文字列照合による全文検索では,入力パターンと一定以下の編集距離にある部分テキストすべてをテキストから検索する.近似文字列照合による全文検索は,テキストを接尾辞トライにより索引付けし,それを利用して検索することにより実現できる.しかし,接尾辞トライの占める空間領域は大きいため,接尾辞配列を索引として利用することもある.接尾辞配列を索引として利用する場合には,従来研究では,接尾辞トライ上での探索を接尾辞配列上での2分探索により模擬している.それに対して,本稿では,2分探索ではなく,補助的な配列を用いることにより,高速に,接尾辞トライ上での探索を模擬することができる手法を提案した.さらに,2分探索による方法を利用した場合と提案手法を利用した場合とにおける検索速度を実験的に測定し,提案手法の方が検索速度が速いことを示した.Given a text and an input pattern, the goal of full-text approximate string matching is to search for all parts of the text that match the pattern. Full-text approximate string matching can be performed using a suffix trie as an index of the text. A suffix trie, however, is relatively large. So, a suffix array, which is a compact representation of a suffix trie, is often used to simulate searches on a suffix trie. A binary search algorithm is used to search the array. A method is described in this paper that uses an auxiliary array to simulate searches on a suffix trie. The method does not use a binary search algorithm so that it can perform a faster simulation. Experiments showed that the proposed method is faster than one using a binary search algorithm.
著者
河合 由起子 官上 大輔 田中 克己
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.46, no.8, pp.14-25, 2005-06-15
被引用文献数
8

近年,RSS リーダにみられるように複数のWeb サイトにまたがって存在している同じテーマのコンテンツをまとめて閲覧できるシステムが求められている.しかし,既存のWeb の情報統合法では,収集した大量の情報をシステムの持つ固定の分類体系を基にカテゴライズするため,そのシステムの分類体系を把握していない利用者にとっては,欲しい情報を速やかに獲得することが困難である.本研究では,利用者がすでに分類体系を把握しているWeb サイトのポータルページのレイアウトを通して,収集・分類し統合した情報を提示できるMy Portal Viewer(MPV)を提案する.また,MPVは収集した情報を利用者の閲覧履歴に基づき動的に分類するという特徴を持つ.これにより,利用者は興味に基づき分類された情報を使い慣れているポータルページを通して閲覧でき,大量の情報を効率的にブラウジングできる.本稿では,ニュースサイトを具体例としてあげ,使い慣れているニュースサイトのポータルページを指定することで,既知の分類体系を通して興味に基づき分類され統合された記事をまとめて提示できるMPV のプロトタイプを構築し,検証する.We propose a novel web information integration system "My Portal Viewer" (MPV) to realize more efficient news articles browsing. Although a variety of systems such as RSS readers have been developed to provide integrated content from multiple web sites, the existing systems present another difficulty to the users, i.e., they still have to search the integrated content pages for the information they want because they are often unfamiliar with the page layout and the content categorization rules implemented in the systems. To solve this problem, MPV provides integrated content to a user with the appearance of the user's favorite web site. Because the user has enough knowledge about the content layout, it is easier for the user to obtain information from the integrated content page. Furthermore, MPV categorizes web content dynamically based on the user's access history which reflects the user's interest. In this paper, we describe the basic algorithms used in MPV and a prototype implementation specialized for news content.
著者
清光 英成 竹内 淳記
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.42, no.8, pp.185-194, 2001-07-15
被引用文献数
4

Web データを利用者や利用者グループに特化した表現に再構成するWeb の個別化アプリケーションが開発されている.また,利用者がWeb データを閲覧している環境に合わせてデータを再構成する研究も進められている.本論文では,Web データの個別化と閲覧環境への適応に関する研究について概観し,主な研究についての分類と比較を行う.特にWeb データの個別化研究は,コンテンツを再構成して利用者個別のビューを提供するコンテンツ主体のアプローチと,ページアクセス権限やリンク巡行権限を制御するアクセス権主体のアプローチに分類して議論する.また,今後のWeb データの個別化ならびに環境適応研究の展望についても述べる.The personalization and adaptation of Web data have become very important issues on the Internet Business. In this paper, we survey, categolize, compare and discuss about the proposals on Web personalization and adaptation. First, we introduce researches about personalization of Web data for each user, adaptation of it for user's browsing environment. Then these are categolized and compared in their features. Especially, the researches for Web data personalization can be categolized into contents base approach and access rights approach. We also discuss about some problems and future of Web personalization and adaptation.
著者
大西真晶 源 元佑太 江口 隆之 加藤宏章 西出 亮 上島 紳一
出版者
情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.47, no.4, pp.51-64, 2006-03-15
被引用文献数
13

本稿では,スケーラブルなネットワーク基盤として,計算幾何の分野で知られるドロネー図をトポロジとして持つP2P ドロネーネットワークとその自律分散生成アルゴリズムを提案する.ここでは,まず本P2P ドロネーネットワークの特徴について述べ,次に生成アルゴリズムについて述べる.提案アルゴリズムは,各ノードの局所的な動きから,ノード間の幾何学的な位置関係を利用して接続関係を更新し続けるアルゴリズムであり,さらにノードが相互に情報交換することでネットワークを構成できる特徴を持つ.また,ノードが幾何学的退化状態にある場合も動作できる.本アルゴリズムにより,与えられた2 つのP2P ドロネーネットワークを融合することも可能であり,P2P パラダイムの持つスケーラビリティを活かしながら,システムの対象空間を段階的に拡張できる.提案アルゴリズムでは,ノードの3 つの操作を定義している.すなわち,局所ドロネー化操作と三角化通知操作が,局所的なドロネー図を自律分散的に生成し,委譲操作により,ノード間でノード情報の情報交換を行う.最後に,数値シミュレーションにより,P2P ドロネーネットワークの形成過程を,ノードへの負荷,P2P ドロネーネットワークへの収束ステップ数,各ノードの次数の変化,ネットワーク負荷などから検証し,提案アルゴリズムの有効性を確認する.また,本アルゴリズムの適用性についても議論する.This paper proposes a P2P Delaunay network whose topology is a Delaunay diagram wellknown in computational geometry as a scalable network infrastructure for spatial data management. We first discuss its features as a P2P network, and propose an algorithm to construct the network autonomously and distributively in P2P settings. In the proposed algorithm, nodes update their connection defined by node adjacency with respect to geometric location and generate local Delaunay networks of neighboring nodes, while they exchange node-location information to generate a network. The algorithm also works for the case nodes locate in geometrical degeneracy. Furthermore, the algorithm can also be applied to merging two independent P2P Delaunay networks. Owing to the algorithm, we can manage large target spaces using the P2P paradigm, and furthermore extend the target space incrementally y utilizing scalability that the P2P paradigm possesses. By numerical simulations, he authors examine the construction process of P2P Delaunay networks in terms of loads of odes, time-steps consumed for constructing P2P Delaunay networks, degree of each node, nd networkload cost. The applicability of the proposed algorithm for P2P models is also iscussed.
著者
宮崎 慎也 馬強 田中 克己
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.42, no.8, pp.96-107, 2001-07-15
被引用文献数
4

Web 上には大量の情報が溢れ,つねにその量は増加している.ユーザがつねにその変更の中から価値ある変更を探し出すことは非常に困難な作業である.本論文では,Web サイトを監視し,サイト内のWeb ページの変更,追加に対して,その価値を内容,サイトの構造などに基づいて解析し,ユーザへの変更通知を行う機構について述べる.変更ページの解析手法として,その価値を評価するための尺度として新鮮度,流行度,アクセス頻度,更新頻度などを用いる.また,変更通知機構として,変更データをプッシュ型配信機構により配信する.変更データには解析結果の情報が含まれ,受信された変更データのすべてを呈示するのではなく,ユーザごとのユーザ・プロファイルによりパーソナライズされ,各ユーザにとって価値のある変更情報に変換,呈示する.The vast amount of information is availabel on the WWW, and grows rapidly. It's not easy for user to acquire the valuable new information via the Internet. In this paper, we propose a change monitoring/notification system WebSCAN (Web Sites Change Analyzer and Notifier) for Web sites, which monitors and analyzes the changes of Web sites to notify a user the important changes by a push-type delivery mechanism. In WebSCAN, the changes of Web sites are not only monitored periodically, but also are estimated by the content, browsing frequency and update frequency. The structure of Web sites is also considered to estimate the change worth at WebSCAN. Based on the estimated change worth, the notification is generated and delivered to user automatically with the push technology.
著者
牛尼剛聡 渡邊 豊英
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.40, no.3, pp.114-123, 1999-02-15
被引用文献数
13

我々は利用者の様々な視点に基づいたシーン検索を目的として 動画像データベース・システムSTRIKE (STream data Retrieval system based on Indexing with Key Events)を開発中であり STRIKEにおける動画像データ・モデルとしてイベント-アクティビティ・モデルを提案している. 本モデルに基づくシーン検索は シーンに対する利用者の 1)着目する実体の相違 2)活動の複合レベルの相違 3)活動を捉える概念レベルの相違 に対処可能である. 本稿では イベント-アクティビティ・モデルに基づいて シーン検索における利用者の実体を捉える視点の多様性に対処する手法を提案する. 本手法では 対象世界上の時間経過にしたがって変化する実体の分類を表すために役割の概念を導入し 役割に基づいてイベントを照合する. さらに 動画像のコンテクストに基づいて実体の役割を決定するための知識をStatechartで表現し それぞれの時刻においてその役割を自動的に決定する. また 役割を変化させる際にイベントを生成することにより 異なる実体間での連鎖的な役割遷移を実現する.We have proposed Event-Activity model, which is a data model on movie databases, for retrievals of scenes. The retrieval method based on this model supports three different viewpoints of users; 1) the difference of entities which users focus on, 2) the difference of granularity of composite activities, and 3) the difference of abstract levels in which activities are captured. In this paper, we extend Event-Activity Model to support these differnces among users' viewpoints on entities. We call the categories in which entities are classified variably as roles. Memberships of roles are decided according to the present status of entities. We represent rules of role assignments as statecharts, which are state trasition diagrams for supporting hierarchical structures of states. Each state in statecharts represents a role of entities, and state transitions are triggered by events.
著者
湯本 高行 田中 克己
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.48, no.11, pp.83-92, 2007-06-15

知りたい情報について知識がない状態で検索を行う場合,ユーザは検索結果を閲覧しても,必要なすべての情報を得られたのかどうかを判断することができない.また,現在のページごとの検索では知りたい事柄について1ページで十分な情報を持ったページが存在するとは限らず,そのため解として適切なページが見つかるとは限らない.そこで,ユーザの求める情報の全容を表すページ集合を発見する全容検索を提案する.全容検索は,通常のページごとの検索結果から,あるキーワードについて話題の広さと深さの両方を兼ねそなえたページ集合を生成し,それをランキングする.全容検索では,話題の漏れのないようにページを網羅的に収集するのではなく,検索結果集合から詳細グラフという語の詳細関係を表すグラフを計算し,ページ集合の表す内容やページ間の内容の重複を表現し,ページ間の内容の重複ができるだけ少なく,ユーザが効率良く閲覧できるようなページ集合を生成する.本稿では,ページ集合を対象とした全容検索と通常の検索やページごとの全容検索などを比較し,ページ集合を解として全容検索をすることの有効性を示す.When a user searches Web by a query keyword X about which he/she has no knowledge, it is difficult for him/her to evaluate to what extent each answer page includes topics about X. Furthermore, conventional page-by-page search might not always return an appropriate page as an answer that include enough topics about X. In order to solve these problems, we propose overview search to find page sets which describe overview about what users want to know. Overview search is to find page sets which describe both of wide topics and deep detail about a given query and rank them. However, users don't want to browse too big page sets. Therefore, in overview search, pages in a page set should have less duplicated information. We construct as compact page set as possible by using a Detailing Graph. The Detailing Graph represents detailing-relationship between terms in search results. We express the information which page sets have and the duplication between pages by using the Detailing Graph and construct the page sets which have more information and less duplication. In this paper, we compare our overview search returning page sets as answers, overview search returning pages as answers and conventional Web search. We show some experimental results and the effectiveness of overview search.
著者
大塚真吾 宮崎収兄
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.42, no.8, pp.1-9, 2001-07-15
被引用文献数
2

本論文ではテキストファイルの圧縮と検索について述べる.通常,テキストはハードディスクなどの二次記憶装置に格納されるため,その容量の節約のため何らかの圧縮が施されていることが多い.それら圧縮テキストへの検索は復号処理をともなうため高速化が困難である.一方,検索の高速化にはあらかじめ索引などを用いる方法がある.しかし,索引を用いることにより必要な記憶容量が増加する.我々は索引を用いてテキストファイルを符号化し,そのファイルをさらに他の符号化法で符号化を行うことにより,圧縮率が高く高速な検索が可能となる二段階圧縮法を提案した.本論文では日本語テキストの二段階圧縮法とその有効性について論じる.In this paper, we discuss compression and search of text files. The texts are usually stored in secondary storage, and they are frequently compressed for file size saving. When we search compressed text files, it is usually necessary to decode them before search. Therefore, search is time consuming. On the other hand, we can use indexing for fast search. But indices consume extra amount of secondary storage. We proposed a two stage compression method to improve the performance. It compresses text files using index files and compresses the result again with another algorithm. This paper applies the two stage compression method to Japanese text files and discusses its effectiveness.
著者
宮森 恒 中村 聡史 田中 克己
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.46, no.18, pp.59-71, 2005-12-15
被引用文献数
4

本稿では,ウェブ上の実況チャットを利用することでテレビ番組のメタデータを自動的に抽出する手法を提案する.実況チャットは,テレビ番組と同期して視聴者によって書き込まれるウェブ上の掲示板である.番組実況チャットのデータを,利用者全体あるいは特定の傾向を持つ利用者のデータ集合として扱い,チャット上に表れる特徴的な表現を認識処理することで,番組の盛り上がり場面や,視聴者の嗜好・興味に沿ったリアクションなど,視聴者視点に関連するメタデータを効率良く抽出できる.実験の結果,提案方式により,視聴者の反応の大きさや喜び,落ち込みなどの感情度数などのメタデータを効率良く抽出できることを確認した.また,提案方式で得られるメタデータを利用した番組視聴システムを実装することにより,シーンのランキング表示やダイジェスト生成など視聴者視点を反映した多様な番組視聴へ応用可能になることを確認した.A method of automatically indexing broadcast content using live chat on the Web is proposed. The live chat is a Web bulletin board where the viewers post messages in sync with a TV program. The messages in the live chat written by all viewers or by viewers having similar interest or preference to the user are statistically analyzed with pattern recognition to effectively extract indices related to viewer's viewpoints such as important scenes in the program or responses by a particular viewer. Experiments indicate that the proposed method can efficiently extract indices such as the intensity of viewers' responses and degree of emotional delight or disappointment. They also indicate that a prototype TV viewing system using the extracted indices enables a new way of viewing TV content from different perspectives reflecting viewers' viewpoints such as scene ranking and digest generation.
著者
山元 理絵 小林 大 吉原 朋宏 小林 隆志 横田 治夫
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.48, no.11, pp.38-48, 2007-06-15
被引用文献数
6

近年,Webサイトによる情報発信の重要性から,ユーザのニーズに適したサイト構築や情報提供の要求が高まってきている.WebアクセスログをWebページ推薦に用いる方法は,クライアント側に手を加える必要がなく有用であるが,これまで提案されている手法では,頻出アクセスパターンとわずかでも外れると適切な推薦ができない,あるいは順序を考慮できないといった問題点があった.我々は,それらの問題を解決するために,WebアクセスログからLCS(Longest Common Subsequences)を抽出してページ推薦に利用する手法であるWRAPLを提案している.本稿では,実際のWebアクセスログを用いた実験を通してWRAPLの効果を詳細に解析し,その実験結果から得られた知見を基に優先順位付け手法に対して改良を行い,その有効性を示す.Sophisticated websites satisfying users' requirement becomes much more important to propagate information via websites, nowadays. Web page recommendation methods using web access logs are useful for them because they need no modification in client-side applications to meet the requirement. However, traditional methods have problems of insufficient recommendation precision caused by strict matching of access patterns or neglect of access sequences. To solve the problems, we are proposing WRAPL as a method of extracting LCSs (Longest Common Subsequences) from web access logs and using them to recommend web pages for an active session. In this paper, we analyze the effects of WRAPL using actual web access logs and propose an enhanced weighting method for it to improve the precision based on the analyses.