著者
味松 康行 横田 治夫
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.1996, no.11, pp.17-24, 1996-01-24

我々は高信頼並列ディスクシステムを構成するためにDR?netを提案してきた。DR?netを用いて並列情報サーバを実現しようとしたとき、DR?net上にファイルシステムを構築する必要がある。DR?netには複数の外部インタフェースがあるため、複数のアクセス要求が並列に出されてもファイルシステムの整合性が失われないようにすることが重要である。また、多数のディスクを均等に使用するために、各ディスクの使用量を均等化する何らかの機構が備わっていることが望ましい。本稿では、ファイルシステムを構成する2つの制御方式について評価を行なう。実験機を用いた評価実験により、それぞれの方式におけるファイルアクセス要求のレスポンスタイムおよびディスク使用量のばらつきを計測する。実験結果は、並列制御方式が集中制御方式よりも短いレスポンスタイムを示すこと、またファイルサイズが大きい場合には、各ディスクの使用量が均等化されることなどを示している。We have proposed DR-nets, Data-Reconstruction networks, to construct highly reliable parallel disk systems. When we use DR-nets for a parallel information server, we must provide a file system on DR-nets. DR-nets have a number of interface nodes, so the file system of DR-nets must care to keep consistency of information of files and disks, even if a number of requests come in parallel. Furthermore, the file system should take care to keep the balance of the number of used blocks within all disks. We evaluate two file system configurations using a DR-net prototype. The results indicate that the distributed configuration has quicker response time than centralized one, and it keeps balanced number of used blocks within all disks when file size becomes large.
著者
江田 毅晴 吉川 正俊 山室 雅司
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.2007, no.65, pp.405-410, 2007-07-03

本研究では、Folksonomy データの分析に基づく、新しい分類体系構築方法について提案する。現在のソーシャルブックマークサービスでは、大量のブックマークエントリの中から有用なリソースを探すには、キーワードやタグを指定するか、興味の近いブックマーカを努力して探し出す必要がある。本研究では、タグの共起関係に基づく意味的な繋がりを利用して、タグの集合を分類構造として体系だてる。これにより、利用者にはタグの関連を認識した直観的な探索を通して、有用なリソースを探しだすことが可能となる。In this research, we propose a new classification system based on the analysis folksonomy data. In order to find valuable resources from current social bookmark services, users need to specify search terms or tags, or to discover people with the similar interests. Our proposal utilizes semantic relationships extracted from the cooccurrences folksonomy data and organizes a new classification system from tag sets. Users can find useful resources by navigating tag relationships intuitively.
著者
上田 洋 村上 晴美
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.2006, no.59, pp.17-24, 2006-05-30

蔵書検索のために,ユーザの入力文字列に関連する件名を提案する手法を検討した.本手法では,Wikipedia Amazon Web Service GoogleのWeb情報源を用いて検索質問を拡張することにより,BSH4件名標目を提案する.コンピュータ用語を入力文字列とした実験の結果,出力された件名の関連度が一定水準以上であったこと Web情報源の統合使用は単体使用よりも有効であったこと OPACのデータを用いる手法と比べて遜色のない件名が出力できたこと,がわかった.また,コンピュータ用語や流行語を入力文字列とした実験の結果 OPACのデータを用いる手法では件名が提示されない場合に本法は提示できることを確認した.We propose a method to suggest BSH4 subject headings by expanding query according to user's input using such Web information sources as Wildpedia,AmazonWebService(AWS),and Google.Experimental results revealed the following,When computer terms were input,suggested headings were related to the input term;isuggested subject headings were better than we used a mixture of Wildpedia,AWS and Google han When we just used one of them;suggested subject headings were not inferior to those suggested by othermethods that use OPAC data.We also confirmed that when computer and buzz terms were input,our method can suggest subject headings where other methods cannot.
著者
平林 幹雄 江渡 浩一郎
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.2006, no.78, pp.215-222, 2006-07-13
被引用文献数
1

全文検索システムの転置インデックスを実現するにあたり,テキストデータからN-gram法によって切り出したトークンを検索キーにする手法が広く用いられている.この手法には,言語中立性や再現率の完全性という利点がある反面,検索対象の文書群から抽出するトークンの数が膨大になるために,転置インデックスのサイズが肥大化して空間効率が悪化するという欠点がある.検索の際にクエリから切り出した各トークンが対象文書のテキスト内でも連接しているかどうかを判断するためには,転置インデックス内にトークンの文書内での出現位置を記録しておくことが必要となるが,この位置情報が転置インデックスの肥大化の一因となっている.本稿では,N-gram法の欠点である転置インデックスの空間効率を改善する手法として,N.M-gram法を提案する.N.M-gram法では,各トークンの文書内での位置情報のかわりに後続のトークンのハッシュ値を用いることによって,N-gram法の利点である言語中立性や再現率の完全性を保持したまま,空間効率を改善することができる.When constructing inverted index for full-text search system, using N-gram is very popular for tokenizing text data of target documents. Although the method has many advantages like language neutrality and perfect recall ratio, it has also shortage that the inverted index becomes large. The tokens extracted from documents tend to be enormous. The system needs to record each offset of tokens into inverted index because the offset is used for checking adjacency of tokens. The inverted index tends to be large because of the offset. In this paper, we describe N.M-gram method, which improves space efficiency of N-gram. The method uses hash values of succeeding tokens instead of offset in each document. The method can improve space efficiency without losing advantages of N-gram.
著者
菅野 憲明 佐々木 雄大 高山 毅 池田 哲夫
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.2004, no.72, pp.545-552, 2004-07-14

コンビニエンス・ストア(通称「コンビニ」)における新商品の売れ行き予測に関する学術的な検討が遅れている. 著者らはこれまでに 市販のPOSデータを用いて「おにぎり」と「カップラーメン」の新商品の売れ行き予測に関する予備的な検討として 特定店舗で成立する相関ルールの抽出を行なった. 本稿では 店舗を問わず成立する一般的知見の導出を目指す. 具体的には コンビニ会社A社へのヒアリングを通じて 新商品投入後二週目の売れ行き予測に対するニーズがあることを述べる. そして これを目的変数とした場合の説明変数として有効な変数を A社の協力の下 データマイニングにより導出する. これらの説明変数と目的変数を用いて 店舗ごとにルール抽出を行なうと有効なルールが得られることが確認された.Academic analysis of sales forecast for new items on sale in convenience store is insufficient. As a preliminary analysis, the authors have derived some association rules for every shop concerning demand of new ``onigiri" and ``cup ramen" by utilizing POS data on sale. In this paper, we try to find some general knowledge independent of a shop. Concretely, based on a hearing from a convenience store company A, we describe there exists a need for sales forecast in the second week for a new item. We adopt it as a target variable, and derive its effective explanatory variables by the use of data mining technique, based on the cooperation of the company A. We have confirmed that we can obtain some effective association rules, if we adopt these target variable and explanatory variables and perform distinct data mining for each shop.
著者
木谷強 小川 泰嗣 石川 徹也 木本 晴夫 中渡瀬 秀一 芥子 育雄 豊浦 潤 福島 俊一 松井 くにお 上田 良寛 酒井 哲也 徳永 健伸 鶴岡 弘 安形 輝
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.1998, no.2, pp.15-22, 1998-01-19
被引用文献数
33

日本語情報検索システム評価用テストコレクションBMIR-J2は、情報処理学会データベースシステム研究会内のワーキンググループによって作成されている。BMIR-J2は1998年3月から配布される予定であるが、これに先立ち、テスト版としてBMIR-J2が1996年3月からモニタ公開された。J1は50箇所のモニタに配布され、多数の研究成果が発表されている。BMIR-J2では、J1に対するモニタユーザからのアンケートの回答と、作成にあたったワーキングループメンバの経験をもとに、テストコレクションの検索対象テキスト数を大幅に増やし、検索要求と適合性判定基準も見直した。本論文では、BMIR-J2の内容とその作成手順、および今後の課題について述べる。BMIR-J2, a test collection for evaluation of Japanese information retrieval systems to be released in March 1998, has been developed by a working group under the Special Interest Group on Database Systems in Information Processing Society of Japan. Since March 1996, a preliminary version called BMIR-J1 has been distributed to fifty sites and used in many research projects. Based on comments from the BMIR-J1 users and our experience, we have enlarged the collection size and revised search queries and relevance assessments in BMIR-J2. In this paper, we describe BMIR-J2 and its development process, and discuss issues to be considered for improving BMIR-J2 further.
著者
牛尼剛聡 渡邉 豊英
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.2004, no.72, pp.285-292, 2004-07-14

ライフログは個人の活動を記録したデータである。ライフログを構成するデータの例として、個人が送受信した電子メール、視聴したTV番組、デジタルカメラで撮影した記録画像等があげられる。ライフログの特徴として、同一の活動が複数のメディアで記録されていることがある。それぞれのメディアには特徴があり、表現可能な内容には限界がある。メディアを統合化することにより、同一の活動を様々な視点から捉えることが可能となる。統合化されたライフログは、個別のデータ単体では表現できないコンテクストを相互に表現していると考えられる。本研究では、異種メディアで記録されたライフログを統合化し、コンテクストに基づいた検索を実現することを目的とする。統合化の際に問題となるのは、異種メディアの対応付けを厳密に行うことは困難であり、不確実性を伴う点である。本論文では、この問題に対応するために、推論ネットワークを拡張した検索モデルを提案する。なお、検索対象の例としてデジタルカメラや携帯電話などで撮影された記録画像を想定し、記録画像のコンテクストの推定には、利用者が送受信した電子メールのメッセージを利用する。The life-log is the data that records activities of a person. Examples of life-logs are the e-mail massages that he/she sent and recieved, TV programs that he/she watched, and photographs that he/she took, and so on. One of the most important characteristic of life-log is that the same activities are represented in different media types. Each type has its own characteristic features, and the limitation on its content representation ability. The integration of life-log in different media types enable to represent the same activities from various viewpoints. Integrated life-logs represent contexts each other that are not able to represent in single. The goal of our research is to integrate life-logs in different media and to search them based on their contexts. A problem of the integration is that it is difficult to make correspondences between life-logs in different media types strictly and the correspondences consists uncertainty. In this paper, we introduce a framework based on Bayesian Network. We suppose to search the photographs taken with digital camera based on their recorded contexts, and use e-mail messages for context estimation.
著者
山田 直治 李龍 高倉 弘喜 上林 弥彦
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.2002, no.67, pp.509-514, 2002-07-18

WEB上には多種多様な情報が大量に存在するため、利用者の要求に適した情報を収集することが困難になっている。ここでは携帯端末からWEB上に存在する地域情報を収集するために、WEB情報の地域性と記述形式に着目する。既存のキーワード検索では地名の位置情報を考慮していないため、任意の地域的範囲に関する情報を収集することが困難である。また要約情報なのか詳細情報なのかといったWEBページの記述形式を考慮していないため、利用者の要求する情報の詳しさに対応することができない。記憶領域が限られ通信が不安定な携帯端末では利用者の要求する情報のみを提供する必要があるため、これらは大きな問題である。ここでは地名の位置情報を利用してWEBページが着目する地域を特定する。またHTMLタグや品詞の出現度数の特徴からWEBページを目次型、要約型、詳述型の3つのタイプに分類する。最後に利用者の特定の地域に対する興味の深さに基づき、2つの尺度を用いた携帯端末へのキャッシュアルゴリズムについて述べる。Due to the rapid increase of the amount of web pages on the Internet, it is difficult to collect information that satisfies users' queries. This paper focuses on the geographic characteristics and description types of web resources. Keyword based search does not take account of the positional information of geographic names so that it cannot collect web resources on specific region. Furthermore, because a web page is treated without considering whether it contains detailed information or summarized one, the page may not satisfy users' requirements. In this paper, a method to determine the geographic scope and level of details of web pages is developed. Geographic scope is identified with the positional information of geographic names. Level of Details classified web pages into three types, "table-of-contents type", "summary type", and "detailed description type", with HTML tags and frequency of parts of speech. The cache algorithm with these two measures for mobile computing based on users' interests is also described.
著者
森本 泰貴 藤本 典幸 萩原 兼一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.2007, no.65, pp.133-138, 2007-07-02

近年、GPS 機能の普及により、携帯端末のユーザは自分の現在地を地理座標として取得することが可能となっている。そのため、指定された地理座標を原点とし、その周辺の地理情報を検索するシステムが有用であると考える。そこで我々は、以前に開発したロボット型住所関連情報検索システムを応用し、住所文字列をキーワードとしたロボット型検索により、指定地理座標周辺の住所関連情報を検索する手法を提案する。提案手法は指定地理座標周辺の住所を取得し、取得した住所文字列を以前に開発したシステムの入力として住所情報を検索する。実験の結果、住所をキーワードとしたロボット型検索という直接的な手法に少し改良を加えることで、指定地理座標周辺の住所関連情報検索に有効な手法となりうるという結論を得た。Current and next generation mobile phones are equipped with a GPS unit, enabling users to know their current geographical location. Given this ability, a system to retrieve Web information based on location is useful. In order to implement such a system, we propose a method that performs robot-type keyword retrievals using address strings as keywords. We present experimental results to evaluate the effectiveness of this method. The results demonstrate that our method with future improvement will be effective for implementing web retrieval for a given geographical scope.
著者
服部 峻 湯本 高行 田中 克己
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.2005, no.68, pp.553-560, 2005-07-14
被引用文献数
1

WWWやモバイル端末の普及に伴い,いつでも,どこからでも,様々な種類の地域情報にアクセスすることが可能になって来た.また,測位機能付きのモバイル端末を用いれば,ユーザの現在位置に依存した情報を取得することもできる.しかし,実空間を特徴付ける要素として,従来研究のように,地理的位置だけを用いていたのでは,地理情報データベースに登録されている地理語の粒度に限界があるため,ユーザの現在いる実空間により相応しい情報を呈示することは困難である.この問題に対して,本研究では,実空間内に在る展示物や建物の名称や説明,ポスターの内容,デバイスの出力情報などの実世界コンテンツが発信している情報を取得し活用することで,ユーザの現在いる実空間により相応しい情報を検索することを可能にする.本稿では,ユーザの現在いる実空間を地理語と特徴キーワードとで表現する.そして,これらの検索クエリーに対して情報がどのくらい相応しいかを測る尺度として,情報の実空間相応度を定義し,この評価値に基づく情報ランキング手法を提案する.As use of the World Wide Web(WWW) and mobile devices spreads and becomes more advanced, people can increasingly access various kinds of local information for use in daily life. And moreover, using mobile devices equipped with geo-positioning facilities, we are able to retrieve information related to our current location. But, we cannot get information more adapted to real world environment near around user, only inputing user's geo-position as a query to an information retrieval system. In contrast, we propose an information retrieval method that searches for more local information than the degree of granularity of geographical word converted from user's current location, taking advantage of real spatial contents and activities around user. In this paper, we define the notion of Spatial Fitness that is a measure of how fit information is for real space in which user is now.
著者
馬強 松本 知弥子 田中 克己
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.2002, no.67, pp.515-522, 2002-07-18
被引用文献数
6

インターネットやデジタル放送の急激な進歩と普及によって,多くのユーザが多種多様な情報を受信・発信できるようになり,情報資源の量は日々増加し続けている.ユーザが大量の情報の中から,適切な情報を検索することは困難な作業である場合がある.特に,特定のユーザのみが興味を持つ,地域密着情報のようなローカル的な情報を獲得したり,排除するには,従来の情報検索やフィルタリング手法のみでは不十分である場合がある.本論文では,Webページがどの程度地域に密着しているかを計る尺度としてローカル度を定義し,その抽出手法と応用システムについて述べる.また,ローカル度の定義を評価するための予備実験の結果を示す.The vast amount of information is available on the WWW(World Wide Web). Usually, users use the information filtering technologies or search engines to acquire their favorite information. However, it's still not easy to acquire or exclude local information with the conventional search engines and information filtering technologies. In this paper, we propose a new notion localness to discover local information from the WWW. We also propose some useful applications based on localness and show some results of our preliminary evaluation.
著者
崔春花 北川 博之
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.2004, no.72, pp.315-322, 2004-07-14

近年ネットワークを介して大量の文書の配信や交換が行われており、それらコンテンツの分析技術の重要性が増加している。重要なコンテンツ分析の1つとして、電子メールやニュース記事などの大規模時系列文書ストリーム中におけるトピック分析がある。本研究では、特に、特定のトピックの時間的な活性度の変化の分析を対象とする。対象とするトピックへ関連性が高い文書が高い頻度で到着するのは、そのトピックの活性度が高い状態であり、そうでない場合には活性度が低い状態と見なす。我々は、すでに各文書のトピックに対する関連性と到着頻度の両者を考慮した文書ストリームに対する活性度分析手法を提案した。時系列文書のトピック分析においては、しばしばニュース記事などが到着するたびに連続的に過去の一定期間のトピックの活性度をモニターしたいという場合が考えられる。本論文では、我々の提案手法をもとに、このような時系列文書に対する連続的なトピック分析の手法を提案する。また、実データを用いた実験によりその有効性を検証する。Dissemination and exchange of a large amount of documents have become popular according to the advance of network technology in recent years. Thus, importance of content analysis techniques is increasing. Topic analysis in a series of large-scale document streams such as E-mail and news articles is one of such. important research issues. Our research especially aims at the analysis of time varying activation levels of topics. When documents of high relevance with a specific topic arrive vary frequently, then the activation level of the topic is regarded high, otherwise the activation level is considered to be low. In the previous work, we proposed a systematic topic analysis method for document streams incorporating both document arrival rate and document relevance. Sometimes it is required to continuously analyze topics in the document streams. In this paper, we propose a new method to attain this based on our previous analysis method. Moreover, we evaluate the effectiveness of the proposed method by experiments using real data.
著者
橋本 隆子 飯沢 篤志 白田 由香利
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.2001, no.70, pp.359-366, 2001-07-17
被引用文献数
1

近年,PDA ,携帯電話など,携帯端末の普及がめざましい.現在試験的に運用されている次世代の携帯端末では従来のテキスト,静止画像のみならず,動画像の処理も可能となってきている.このような携帯端末に対して,野球,サッカーの試合速報等を送信する番組関連情報送出サービスが始まっている.現状のサービスでは,サービス提供者が試合の経過を文字列で生成し,それをメイルとして利用者に送信しているが,今後,携帯端末の性能向上によって,動画像や既存DB の情報,関連Web サイトのページなど,より高度でかつ構造化された番組関連情報も送信されてくると考えられる.その場合の問題点としては以下のものが挙げられる.(1) 携帯端末は,表示領域が小さく,提示可能な情報が制限される,(2)利用者は最小限のインタラクションしか行えず,情報の構造を巡回しにくい,(3)情報が高度になればなるほど,利用者ごとに必要な情報が異なってくる.これらの問題を解決するために,我々は,利用者の嗜好に応じた番組関連情報のシナリオによる提示方式を提案する.本方式では,利用者の嗜好情報に基づいて,情報の提示指標値を算出する.算出された指標値にから,番組関連情報の提示順序を決定し,携帯端末で提示するためのシナリオを生成する.シナリオに基づいた提示により,制限された表示領域において,利用者は自分の見たい情報を見たい順序で複雑なインタラクションなく視聴することが可能となる.Recently, PDAs, cellular phones, and other mobile devices have come intowide use. The next-generation mobile terminal under testing, in addition to delivering text and image data, can also deliver movie data. Digital data broadcasting can deliver additional data as contents attachments .The service has started delivering game news for baseball and soccer programs to mobile terminals. Service providers build text data of a game's progress and send it to users by e-mail in the mobile environment. Taking advantage of the improved efficiency offered by mobile terminals, the system will be able to deliver TV program-related information, such as movie data, data from sports databases, and related Web pages. This service has the following problems: (1) Display area is restricted. (2) User interaction is restricted. (3) Each user would like to get the information that reflects his or her preferences. To address these problems, we propose the presentation scenario generation method for TV program-related information. In this method, presentation priorities are calculated to reflect each user's preference .Based on the values of presentation priorities, a presentation scenario is generated for viewing on mobile terminals. For presentation by a presentation scenario, each user can watch desired information without complicated interaction.
著者
三枝協亮
雑誌
情報処理学会研究報告データベースシステム(DBS)
巻号頁・発行日
vol.1978, no.19, pp.1-8, 1978-09-14

本題に入る前にAPLについて少し触れておきます。APLは1958年に米国にて出版されたK.E.IVERSON博士の著作「A PROGRAMMING LANGUAGE」に記述された論理表記法を実用化したものということです。IBM CORPORATIONでは、約10年ほど前から社内のプログラミング言語として普及しはじめました。現在ではほぼ全世界のIBM社内において対話式データ処理の主流としてあらゆる方面でその地位を確立しつつあります。IBM社外においても、それを使用する個人に役に立ち、愛される言語として数多くの企業内で歓迎されています。我が国の場合も最近APLの理解が急速に深まりつつあります。日本アイビーエムでは1972年に市場予測、予算計画、経営資料作成等の分野で、ごく小規模にAPLが使用され始め、その後徐々に使用者が増大し、現在一般社内業務処理のために、本社、藤沢研究所、野洲工場等でそれぞれ独立したAPLサービスを実施するに至ってます。APLは、元来、コンピューターのプログラミング言語としてよりも、むしろ人間の論理をより簡潔に、より正確に表現し他人に伝えるための記号言語として設計されました。したがってAPLプログラミングは、APL外の世界とのかかわりあいを持たないかぎり、OSとか、アクセス・メソッドとか、バイトとか、ワードとか、活動小数点とか1つの時代の、1つのメーカーの1つのコンピューターの設計に左右される知識と無縁であると云えます。したがってDPの素人がAPLのプログラマー、もしくはユーザーの過半数を占めています。しかしながらAPLは全くのDPの素人ばかりで効果的に使用することは不可能です。何故ならば、APLもDPの枠組みの中で稼動し、DP資源の利用の全体的なバランスの中で運用されなければならないからです。APLの利用者のために、最適なデータ・ベースの設計をおこなうことも企業のDP部門の仕事であります。ただデータ・ベースはその管理の仕組みも大切ですが、利用されることがより重要でありますので、既成概念にとらわれることのない、新らしい試みという観点から経験を積みあげていくことが重要だと思われます。
著者
兵頭章子 大内 拓磨 滝沢 誠
雑誌
情報処理学会研究報告データベースシステム(DBS)
巻号頁・発行日
vol.1991, no.22, pp.1-10, 1991-03-11

本論文では、階層型トランザクションのデッドロックの解除方法について述べる。従来のデータベースシステムでは、デッドロックが生じると、デッドロックサイクル内のある一つのトランザクションを選び、ログにある更新前の状態をデータベースに戻すことで、そのトランザクションをアボートしていた。本論文では、階層型トランザクションの中で、デッドロックを解除するのに必要最低限の部分のみを、補償演算によりアボートする方法を考える。補償演算もまた、トランザクションであり補償演算を実行するために、オブジェクトにロックを要求する。本論文では、補償演算を用いたデッドロックの解除および、補償演算の実行により生じる解除不能なデッドロックについて述べる。また、この解除方法と、解除不能デッドロックの生じない安全なシステムを示す。In this paper, we discuss how to resolve deadlock in the interleaved execution of nested transactions. In conventional database systems, when some deadlock occurs, one deadlocked transaction T is selected and is wholy aborted by using the log which includes the old states. In our method, only a part of T which is necessary to resolve the deadlock is tried to be aborted by executing the compensate operations. The compensate operations are also transactions and they require locks on the objects. In this paper, we show that there exists deadlock named unresolvable deadlock, which can not be resolved by executing the compensate operation. Also, we show a method for resolving the unresolvable deadlock and a safe system no unresolvable one occurs.
著者
川口 知昭 土居 明弘 角谷 和俊 田中 克己
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.1998, no.57, pp.111-118, 1998-07-08
被引用文献数
1

不特定多数のユーザが参加するインターネット等を利用した放送サービスでは、ユーザは単に映像ストリームを受信するだけではなく、ユーザ自身が映像ストリームの提供者になることも可能である。また、ライブ中継においてはリアルタイムに変化する映像ストリームの提供も可能である。しかし、従来の番組進行は静的に決まっており、リアルタイムな内容変更は困難である。本稿では、内容記述された映像ストリームをスクリプトを用いた番組進行記述により編集することで、動的な番組構成を実現可能とする。本論文では、動的な番組構成の可能なシステムとしてScoopCastを提案し、試作システムとその実装について述べる。We propose an annotating and broadcasting mechanism for live video streams via the Internet. This mechanism provides two functionalities: (1) realtime description for raw video stream, (2) realtime mixing with video streams and realtime broadcasting the edited streams. We have been developing a prototype system called ScoopCast based on our proposed mechanism. In this paper, we describe an annotation method for raw video streams using keywords. And we explain a synthesis method with a dynamic video stream skeleton. Furthermore, we discuss implementation issues of ScoopCast on the multicast network environments.
著者
正田備也 濱田 剛 柴田 裕一郎 小栗 清
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.88, pp.67-72, 2008-09-14

本論文では,latent Dirichlet allocation (LDA) のための collapsed 変分ベイズ推定を Graphics Processing Unit (GPU) を用いて高速化する方法を提案する. LDA は,ベイズ理論に基づくマルチトピック文書モデルとして知られているが, Expectation-Maximization (EM) アルゴリズムが利用可能な probabilistic latent semantic indexing (PLSI) など他の文書モデルに比べ,パラメータ推定が複雑で膨大な計算を要する.そこで, LDA のための deterministic なパラメータ推定方法として優れている collapsed 変分ベイズ推定を, GPU を用いて高速化した.実験では約 500 万組の文書と単語のユニークなペアについて, 1 つの Nvidia GeForce 8800 GT 上で collapsed 変分ベイズ推定を実行, 20 Gflops の計算速度を得た.In this paper, we propose a method for executing collapsed variational Bayesian inference for latent Dirichlet allocation (LDA) on Graphics Processing Unit (GPU). While LDA is a well-known multi-topic document model based on Bayesian methods, it requires complicated inference, which leads to enormous computations in comparison with other document models, e.g. probabilistic latent semantic indexing (PLSI), to which Expectation-Maximization (EM) algorithm is applicable. Therefore, we accelerate collapsed variational Bayesian inference, known as an efficient deterministic inference method for LDA, by using GPU. In the experiments, we used about 5 million unique pairs of documents and words. We achieved 20 Gflops on a single Nvidia GeForce 8800 GT.
著者
蓬莱 博哉 灘本 明代 田中 克己
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.2003, no.71, pp.265-272, 2003-07-16
参考文献数
13

これまで我々は,「容易に」「楽しく」「片手間に」Webコンテンツを取得するために,Webコンテンツを放送型コンテンツに変換してきた.本論文では,この放送型コンテンツをより親しみのあるコンテンツに変換することを目的とし,Webコンテンツを対話型番組に変換することを行う.本論文で提案する対話型番組とは漫才を用いた放送型コンテンツの事である.Webコンテンツを漫才に変換することにより,幅広い年齢のユーザ層にとって内容の理解を容易にするとともに,これまでWebコンテンツ取得時に必要であった能動的操作を軽減する事が可能となる.そこで,本論文ではまず漫才の形式化に取り組み,Webコンテンツから漫才形式に基づいた対話型番組に自動変換する機構を提案する.We propose a framework for transforming Web contents into humorous conversation that aims at exploring easy-to-understand and enjoyable ways to access Web contents. In this paper, we especially focus on transforming multiple Web pages into a Japanese traditional humorous talk show (Manzai). By watching and listening to a transformed Manzai content instead of reading original Web contents, users of all ages can understand the contents easily. Furthermore, since the transformed contents can be viewed in a less-clicking-more-watching style, it can reduce the positive operations (scrolling, clicking). In this paper, first, we present our framework to analyze and formulate Manzai contents. Next, we propose a way to automatically transform multiple Web pages collected under a theme into Manzai-type contents.
著者
柳瀬 隆史 高須 淳宏 安達 淳
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告データベースシステム(DBS) (ISSN:09196072)
巻号頁・発行日
vol.1998, no.57, pp.117-124, 1998-07-08
参考文献数
7
被引用文献数
1

音楽データベースの大規模化が進む中、従来の書誌情報からによる検索以外に、演奏内容からの検索への要求が高まっている。本稿では、音楽演奏情報の内容からの検索において、インデクシングを自動で行う手法を提案する。提案手法では、楽曲の主旋律(メロディ)を自動的に分割して得られるフレーズをインデクシングの単位する。フレーズへの自動分割においては、楽曲中に類似したフレーズが繰り返し現れるという特徴を利用し、DPマッチングを用いた手法を提案し、MIDIデータを用いた実験によりその有効性を評価する。As music databases grow, needs to retrieval capabilities based on contents of musical performances are also increasing in addition to a traditional method based on bibliographical information of songs. In this paper, we propose an auto-indexing method in retrieval based on contens of digital information of musical performances such as MIDI. To this end, we first extract phrases, which are assumed as a unit for indexing, from automatically segmenting melodies into "Sub-melodies". In the proposed method of automatic segmentation into phrases, DP matching is employed, exploiting repeated occurrences of similar phrases in a song. The effectiveness of our method was evaluated through an experiment using MIDI data.