著者
橋本 誠志
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告デジタルドキュメント(DD) (ISSN:09196072)
巻号頁・発行日
vol.2006, no.128, pp.91-98, 2006-11-30

ネットワーク上に個人データが流出した場合、司法手続による救済は本質上手続終結に長時間を要する。このデジタル情報の即時流通性との間のタイムラグにより、データの2次流出が発生し、手続中に被害が拡大し、今後その役割を十分に果たしえなくなることが考えられる。この問題への対応として、筆者は自動実行型代替的紛争処理(ADR)機能を有する電子的自力救済型個人データ保護制度の設計を試みてきた。本稿では、特に制度運営のための制度参加者の費用負担方法を検討する。These days, it is difficult for the present judicial system to play a part as a main framework for relief of privacy infringement due to serious time lag problems between strict judicial procedures and instantaneous data circulation on the network. The author has architected a remedy system, using an electronic self-help approach, against deteriorations to privacy infringement in the trouble of occurrence of personal data leak on the Internet. This paper suggests user's cost responsibility for this system.
著者
川口 浩司 沼崎 慎吾 柳下 精一郎 土井 憲雄
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告デジタルドキュメント(DD) (ISSN:09196072)
巻号頁・発行日
vol.2003, no.78, pp.9-16, 2003-07-25

本稿では、XMLをメモリ上に効率的に格納し、高速に検索や集計を行うインメモリXMLデータベース「Karearea」の機構について紹介する。XMLデータのRDBへの格納方式には万能のものはなく、ネイティブXMLデータベースではパフォーマンスやメモリ消費の面で不十分という評価がされることが多い。筆者らはメモリベースの高速処理エンジンを核に、高速な検索や多次元集計の可能なXMLデータベースを開発した。また、メモリ上にXMLデータを格納した際のメモリ使用量や、検索や集計を行った場合の処理時間を計測し、その効果を確認した。In this paper, we introduce the mechanism of an in-memory XML database "Karearea." We developed the in-memory XML database, which stores XML efficiently in memory and performs searching and multi-dimensional summarizing at high speed, applying a high-speed processing engine of memory base in the core. We confirmed the effects of Karearea by measuring memory usage and processing time for searching or summarizing.
著者
市野 順子 箕牧数成 山口 和泰 垣 智 東 郁雄 古田 重信
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告デジタルドキュメント(DD)
巻号頁・発行日
vol.2002, no.28, pp.143-150, 2002-03-15

近年,様々な形式の電子文書が普及し,蓄積されている.しかし,それらの再利用や検索についてはあまり考慮されていない.本研究では,文書中の図表に着目し,様々な形式の電子文書から図表領域を特定し,図表に関連する様々な情報を網羅的に抽出することを目指す.本稿では図表領域及び,図表に関連するテキスト情報を抽出する手法について述べる.提案手法はルールベースを基本としている.11文書90図表を対象に抽出を行ったところ,図表領域の特定は,再現率97%,適合率80%,キャプション,本文図表説明文の抽出は,それぞれ3位適合率85%,3位適合率90%の結果を得た.Although electronic documents have come into wide use and a mass of data is stored, reuse or retrieval of these documents has not been considered much. In this study, focusing on the charts in documents, we attempt to specify chart areas and extract information about charts from electronic documents in various forms. In this paper, the method of extraction of chart areas and text information is examined. The algorithm is based on rules. An experiment in the validity of chart retrieval was made on 11 documents and 90 charts, and the results show: recall 97% and precision 80% in specifying chart areas; and precision (3-CUTOFF) 85% and 90% in extracting captions and chart explanations respectively.
著者
吉川 慎一 植松 利晃 坂内 悟
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告デジタルドキュメント(DD) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.95, pp.23-30, 2008-09-19
被引用文献数
2

二次情報を用いた文献検索システムは,膨大な文献データから特定の文献を探し出す目的で利用されている。探し出した文献の一次情報 (全文) を入手する方法として,従来は文献を所蔵している図書館へ出向く,複写サービスを利用する等が行われていたが,デジタルアーカイブ化が進むことにより,二次情報からの全文リンクを使用して一次情報を直接表示,入手することが可能になってきている。本発表では,全般的な動向と JST が提供する JDreamⅡ での全文リンクインタフェースの変更による利用状況の変化について調査し,報告する。Article search system using secondary information is used with the aim of finding a specific article among enormous article data. Ways to acquire a primary information (full text) previously were going to the library that holds the article or using photocopy service, etc. However recent development of digital archive has made it possible to display and download the primary information from links from the secondary information. This presentation reports a general trend of the above change and, how have access and usage of article search system (JDreamll provided by JST) changed due to a change of interface with links to primary information.
著者
大野 邦夫
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告デジタルドキュメント(DD) (ISSN:09196072)
巻号頁・発行日
vol.2007, no.8, pp.41-48, 2007-01-26
被引用文献数
1

今日の日本における紙の文書において、縦書きの文書が一般的である。しかし現状のWeb文書は、縦組みの日本語には対応していない。今後の日本語の情報の電子化を考えると、WebやXML文書が使いやすい縦組みの日本語をサポートすることが望まれる。さらに、近年急成長を遂げる中国や台湾、韓国などの漢字文化圏のWebやXML文書の動向を考えると、漢字組版機能を、W3Cの正式な規定として提供することは、W3Cにとっても、会員企業にとっても望ましいことである。そのような背景に基づき、2006年10月18日に開催されたXSL-WGのワークシヨツプにおいて、日本語組版機能をXSLFO20に加えることを提案したので、その内容について紹介する。Though vertical layout is very popular in Japanese printed document, current web document seldom uses vertical layout. Considering the future Japanese document, to support vertical layout in web or XML document will be expected. Besides, recent quick development of eastern Asia coun tries as China and Korea web based Kanji layout standard will be required for W3C and its corporate members. Then Japanese layout requirement studied through JAGAT study team was proposed to the workshop of XSLFO2.0.which was held on October 18 2006. This paper describes the outline of the proposal.
著者
今村 誠 伊藤山彦 増塩 智宏
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告デジタルドキュメント(DD) (ISSN:09196072)
巻号頁・発行日
vol.2003, no.11, pp.17-24, 2003-01-31
被引用文献数
2

2001年ごろから、Webコンテンツに意味情報を付与することによりWebの有用性を飛躍的に高めようとするセマンティックWebが注目されるようになってきた。そして、W3C(WorldWideWeb Consortium)では、この意味情報を表現するメタデータやオントロジを記述する言語の標準化を進めている。本稿では、セマンティックWebが普及するか否かは、メタデータやオントロジの作成コストに見合った効果が得られる応用システムがどれだけ現れるかにかかっているとの問題意識をもって、最近のセマンティックWebの標準化動向を概観した上で、今後の方向性を示唆する応用システム事例を紹介する。紹介する応用分野は、文書管理、知識経営(Knowledge Management)、EAI(Enterprise Application Integration)とEC(Electronic Commerce)、検索ポータル、および個人情報管理である。The Semantic Web, which intends to increase the usability of the web highly by adding semantic information to web contents, has been paid much attention recently. W3C (WorldWideWeb Consortium) has been standardizing metadata and ontology description languages. We think that whether the Semantic Web will be widespread or not depends on the emergence of new applications whose benefits are superior to the creation cost of metadata and ontology. In this paper, we survey the latest standardization trends and introduce some system examples which suggests future directions of the semantic web applications. Introduced application fields are document management, knowledge management, EAI (Enterprise Application Integration) and EC(Electronic Commerce), search portal, and personal information management.
著者
秋元 良仁 亀山 渉
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告デジタルドキュメント(DD) (ISSN:09196072)
巻号頁・発行日
vol.2007, no.34, pp.9-16, 2007-03-27
被引用文献数
1

近年の情報技術の進展に伴い、ユーザが利用できるコンテンツの量は飛躍的に増大している。特に博物館における文化財のディジタルコンテンツ化の進展は著しく、これらのコンテンツにアクセスするためのユビキタスな情報環境基盤も整いつつある。このような状況では、メタデータを用いて多様なデータベースからユーザの要求に応じて意味のあるコンテンツを横断的に紡ぎ出す技術が求められる。そこで、本稿では、異なるメタデータスキーマで管理される複数のデータベースを横断的に利用するために、各スキーマ間の類似性を記述できる言語「ファジィ・スキーマ」を導入する。更に、ファジィ・スキーマを用いて各メタデータスキーマを統合できる機構の構築を検討する。As information technology has progressed recently, the amount of contents that can be used increases. And, there is an enviroment in which lots of contents can be accessed at anytime and anywhere. In this situation, a technology is needed to extract useful information from various contents by using metadata in order to meet the user's requirements. In this paper, first, we summarize the current state of metadata technology and problems. then, we propose the concept called Fuzzy Schema which can flexibly construct metadata schema. And we describe the design of Fuzzy Schema language taking an example of metadata schema of museum. And, we also propose metadata schema integration based on museum information.
著者
飯尾 和彦 木村 聡宏 小林 透 忠海 均
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告デジタルドキュメント(DD) (ISSN:09196072)
巻号頁・発行日
vol.1997, no.49, pp.7-14, 1997-05-23

既存の非SGML文書をSGML文書に変換するためにはDTDに従って多くのタグを人手で文書に埋め込む必要がある。これは、コストがかかり、SGML普及上の大きな問題点となっている。本論文では、既存の非SGML文書をSGML文書に変換する方式とその評価結果について述べる。変換方法は、以下の通りである。()テキスト文書に簡単なタグつけを施す。この結果できた文書を一次変換文書と呼ぶ。()これらのタグと一次変換文書に現れる位置や特徴を手がかりとして、SGML文書へ自動変換する。本方式により、SGMLの経験者がSGMLエディタを利用してSGML文書に変換するような場合と比較しても1/4?1/3の時間でタグつけできることが実験から明らかになった。It is needed to be put many tags into papers when we want to convert non SGML document into SGML document. However it is costly and is one of main problems for utilizing SGML. This paper describes the method to convert non SGML document into SGML document and the evaluation of it. The method is followings: (i) Insert small tag set into text. The resulting document is called first translated document. (ii) Translate first translated document into SGML document automatically by analyzing these tag, location and features. It is found that even SGML expert can convert document three or four times effectively than using SGML editor by using this method.
著者
茶木修一 清末 悌之 中濱 清志 秦泉寺浩史 阿部 匡伸
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告デジタルドキュメント(DD) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.70, pp.55-60, 2008-07-17

日本市場におけるキーテレホンシステム、所謂ビジネスホンは 1969 年に製品化され、以後、 1980 年代前半の電子化、1980 年代後半のディジタル化などを経て現在に至っている。本稿では、ピジネスホンのマルチライン機能を CSCW (Computer Supported Cooperative Work) の観点からとらえ、音声を中心としたオフィスワーカ間のコラボレーションサービスを今後求められてくると想定される IP プロトコルのネットワーク上に構築する場合に、どのような管理対象に対してどのような管理方法を用いるべきかについて考察する。多様なサーピズを柔軟に構築することができるフレームワークをめざす。A key telephone system and a so-called business phone in a Japanese market are commercialized in 1969, and have arrived through the computerization in the first half of the 1980's and the digitalization in the latter half of the 1980's. In this paper, it is considered what kind of method of management to base when constructing it on the network of the IP protocol assumed to use the multi-line functions of the key telephone system from the viewpoint of CSCW (Computer Supported Cooperative Work), and for the collaboration service between office workers that centers on the voice to be going to be requested in the future. We aim at the framework that can flexibly construct various services.
著者
鈴木 俊哉 佐藤 大
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告デジタルドキュメント(DD) (ISSN:09196072)
巻号頁・発行日
vol.2007, no.77, pp.37-42, 2007-07-27

情報交換を目的とする文字集合の規格として,現在はISO10646文字集合,文字符号化方式としてはUmcodeを用いることが国際的な標準である.しかし,インド系文字は音素分解にもとづき文字符号を定義しているため,表示・印刷には複雑なレンダリング処理が必要となる.広く普及しているローマ字専用の処理系ではこれが不可能であるため,ローマ字用の処理系でもインド系文字が扱えるよう,様々な図形分解に基く符号化方式が応急処置的に作成されてきた.これらにより符号化されたデータが広く配布されているが,符号化方式は標準化されていないため,文書のアーカイブやデータ抽出に問題がある.本稿は,北方ブラフミ文字の例としてチベット文字のレガシ方式をとり,符号化方式の分析と自動識別方法を検討する.チベット文字レガシ符号の中には漢字集合に匹敵する大きさを持つものがあり,クメール文字とは異なりPDFなどではフォントがサブセット化されている可能性がある.このような場合の識別方式についても検討する.For Brahmic scripts used in India, Central and South East Asia, ISO/IEC 10646 defines the character sets by phonetic decomposition of Brahmic scripts with refering Indie national standard IS 13194. These character sets expect the complicated text layout system to render the coded text for display or printing purpose. To reduce the implementation cost by reusing Roman text layout system, there are various non-standardized legacy encoding schemes for Brahmic scripts. In this report, we investigate the legacy encoding schemes for Tibetan script as an example of northern Brahmic script which uses many ligatures. We found legacy encoding system for precomposed Tibetan glyphs. The glyphset of these encodings are so large that the subsetted font in the documents are expected to be quite smaller than whole glyph set. We discuss the encoding detection algorithm by subsetted font.
著者
角川裕次
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告デジタルドキュメント(DD) (ISSN:09196072)
巻号頁・発行日
vol.1999, no.10, pp.1-8, 1999-01-29

VFlibはC言語で記述されたフォントライブラリで、フォントより字形を取り出すための関数群より構成される。VFlibは各種フォントの内部データ形式を隠し、統一的なAPIでフォントより字形を取り出せるようにしている。そのため、新たなフォント形式がVFlibで利用できるようになったとき、VFlibを使っているプログラムは変更なしで新たなフォント形式のフォントが利用できるようになる。また、プログラムの開発者は、フォントファイルの内部データ形式を知らなくても、様々なフォントを利用できるようになる。本稿では、VFlibの機能と内部構造を説明する。そしてVFlibを使用した応用プログラム例として、T_EX組版システムで生成されるDVIファイルの表示、印刷を行うプログラムについて述べる。VFlib is a font library written in C providing several functions to obtain bitmaps of characters. VFlib hides the internal structure of font files and provides a unified API for all supported font formats. Application software using VFlib can support various font file formats and when a new font format is supported by VFlib, application software need not be modified to use such new fonts. Therefore, application software can use fonts without aware about font file formats. In this paper, we explain the structure and API of VFlib. Then, we introduce T_X DVI document viewers and printers as examples of application software using VFlib.
著者
中渡瀬 秀一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告デジタルドキュメント(DD)
巻号頁・発行日
vol.2002, no.28, pp.39-46, 2002-03-15

本論文ではテキストデータを解析して,そこから類義語のグループを自動抽出する方法を提案する。提案する方法ではテキストを形態素解析した情報より2部グラフを構成し,その中の完全2部グラフが類義語のグループを構成するという傾向を利用して類義語の自動抽出を行う。この方法は大量のデータから多くの類義語候補を用意に収集するのに有用である。また2部グラフを構成する双方の頂点集合が類義語グループとそのグループの観点として解釈できるため,類義語のグループと同時にその観点も構成することができる。さらにグラフ間の順序関係によって類義語間の類似度を与えることもできるという特徴をもつ。This paper proposes a method for similar words groups extraction from nouns in a corpus. This method is based on maximal complete bipartite graph included bipartite graph made from compound nouns. In this bipartite graph, one node set tends to be a similar words group and the other node set to be a group of view point words, when the graph is complete. Further, this method can give also similarity measurements between words using relations among those similar words groups.
著者
中山 浩太郎 原 隆浩 西尾 章治郎
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告デジタルドキュメント(DD) (ISSN:09196072)
巻号頁・発行日
vol.2004, no.59, pp.23-28, 2004-05-28
被引用文献数
1

近年,電子カルテに代表される医療分野での情報化・電子化が急速に進んでいる.特に,患者情報をPDAで閲覧する病院内モバイル技術や3D-CG の医用イメージ技術を用いた新しいカルテ等の研究が盛んである.そのため,医療の現場ではモバイル端末上で3D 医用イメージを閲覧できるシステムが要求されている.しかし,PDA や携帯電話をはじめとするモバイル端末では,搭載できるCPU の性能やメモリ量,バッテリー等が問題となり,多くの計算が必要となる3D-CG のレンダリング処理エンジンの実装が未だ不十分である.そこで,本研究では,筆者らが開発したモバイル端末用3D フレームワーク「3D-Raven」を電子カルテに導入することにより,モバイル端末上でも利用可能な3D 電子カルテシステムを実現した.Medical information technologies, such as EMR(Electronic Medical Record), have dramatically advanced in the past few years. Especially, "mobile" and "medical imaging (3D)" are important keywords in the stream. However, high-quality 3D graphics still remain beyond the computational capability of mobile device because of the limitation of CPU, memory, battery, and so on. In this paper, we propose a 3D framework for mobile device, which we call "3D-Raven". This enables mobile device to render high-quality 3D graphics.
著者
稲垣 博人 早川 和宏 田中 一男
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告デジタルドキュメント(DD) (ISSN:09196072)
巻号頁・発行日
vol.1998, no.107, pp.17-24, 1998-11-27
被引用文献数
1

デジタル化した情報が消費者に自由に行き来する情報流通社会において,種々の情報の流通・配信を効率的かつ効果的に行なうためのテキストコンテンツ要約手法について述べる.デジタル社会においては,ユーザが効率的に情報を取捨選択できるようにするため,ユーザの嗜好・リソース・状況に応じて最適なテキストコンテンツに変換して配信することが要求される.そのため,種々の要約タスクに応じて,最適な自然言語解析を用い,要約を生成する必要がある.本稿では,テキストコンテンツの要約手法として話題解析に基づく表層的な要約手法と,深層処理を利用するイベント解析に基づく要約手法を提案する.それぞれの手法によって生成される要約文の特徴や処理の特殊性などの要約特性について述べる.In the information circulation world, text contents summarization is needed for effective and efficient circulation of information. To achieve effective and efficient communication between person, we have to maintain user preference, resource, and situation. There is not the only one best abstraction method, because of the difference of abstract characteristics in these abstract method. In this paper, we introduce two abstract methods. One is utilizing surface analysis method using topic in the document. The other is using deep semantic analysis based on event calculus in the document. Both abstraction methods have different characteristics to generate abstract, but it is necessary to merge both characteristics to gain better abstract.