著者
水上 明 伊藤毅志
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告エンタテインメントコンピューティング(EC) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.26, pp.23-28, 2008-03-07
参考文献数
2
被引用文献数
1

近年、新しい入力インターフェースを用いたゲーム機が現れ、注目を集めている。ゲームの操作方法と共に複雑化していった従来型の操作デバイスと比べて、これらの入力装置は、直感的でわかりやすく、操作自体が新鮮であるという際立った特徴を持つ。本研究では、新しい入力デバイスとして、視線入力装置を用いて入力を行うリアルタイムゲームのシステムを構築した。また、入力の特徴を踏まえサンプルゲームを製作、従来型デバイス使用時との比較、および評価を行った。Recently, the game machines that use new input interface appear , and they are paid attention. Input devices of them have a remarkable feature that it is intuitive,comprehensible, and the operation is fresh compared with old model. We developed computer game system with using Eye-Gaze tracking system. It contains some sample games that use feature of Eye-Gaze input. We also use other devices to play sample games , and evaluate it.
著者
齊藤進
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告数理モデル化と問題解決(MPS) (ISSN:09196072)
巻号頁・発行日
vol.2002, no.59, pp.5-8, 2002-06-26

ウイルス進化論を模した遺伝的アルゴリズムが開発され、組み合わせ問題に適用された。この研究におけるアルゴリズムはひとつの個体とたくさんのウイルスを用いる。個体はウイルスにより攻撃され、感染され、改良される。ウイルスは二つの遺伝子(トップ遺伝子とテイル遺伝子)からなる。もし個体が攻撃によって改善されれば、感染が起こる。局所解を抜け出すために、感染に余裕率を設けている。感染後、ウイルスのテイル遺伝子は突然変異される。もし同じウイルスが数回攻撃し、感染しなかったならば、トップ遺伝子が突然変異される。個体はこの突然変異により、効率的に改善される。最適解を得るために、部分攻撃がまた有効である。A genetic algorithm that simulates the virus evolutionary theory has been developed and applied to combinatorial optimization problems. The algorithm in this study uses only one individual and a population of viruses. The individual is attacked, infected and improved by the viruses. The viruses are composed of two genes (a top gene and a tail gene). If the individual is improved by the attack, infection occurs. To escape from local minima, an infection allowance is set. After the infection, the tail genes are mutated. If the same virus attacks several times and fails to infect, the top genes of the virus are mutated. The individual can be improved effectively using this mutation. To obtain the optimal solution, "sub-attack" is also useful.
著者
稲垣 直樹
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告. EIP, [電子化知的財産・社会基盤] (ISSN:09196072)
巻号頁・発行日
vol.26, pp.29-40, 2004-12-04
参考文献数
9

一般的に「日本語全文検索用データベースは、検索速度と再現率の向上、適合率の低減問題が、経済的に成立するかのトレードオフ問題を解決することにあるとされている。多くの「全文検索用データベース」は、速度向上技法として「検索用インデックス・テーブル方式」を採用している。そのテーブル作成は「辞書」と「形態素解析ソフト」を使って機械的に処理している。本報告は、3種の異なる商用「判例データベース」を実務的な同一任意語で検索し、その検索結果から、検索用インデックスや前段階工程である「法律辞書」と「日本語形態素解析ソフト」利用の成果の出来映えを、構文解析的に比較検証したものである。検索結果が判例を探す目的に合致しているか…の視点で、商用「判例DB」の有用性を実測した。同一任意語検索における結果の考察から、独特の構文をもつ「判例DB」には、法律分野専門の「形態素解析ソフト」も必要であり、また「判例DB」の再現率や適合率向上のため、将来の「判例用連想語検索」への道程を示すものである。
著者
飯田 龍 乾 健太郎 松本 裕治
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告自然言語処理(NL) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.90, pp.45-52, 2008-09-17
被引用文献数
4

ゼロ照応解析の問題を結束性と首尾一貫性の観点から検討する.結束性の観点からは,Walker [21] のキャッシュモデルの実現方法を検討し,統計的機械学習に基づく実装を提案する.このキャッシュモデルを用いて文間ゼロ照応の先行詞候補削減を試み,評価実験を通じて先行詞同定時に解析対象とする先行詞候補を激減できたことを報告する.また,首尾一貫性の観点からは,含意関係認識で利用される推論知識獲得の手法を照応解析の手がかりとすることで解析精度にどのように影響するかについて調査する.新聞記事を対象に先行詞同定の実験を行い,導入した推論規則が解析に有効に働くことを示す.This paper approaches zero-anaphora resolution in the perspectives of cohesion and coherence.From the perspective of cohesion, we examine how to use the cache model addressed by Walker [21], and propose a machine learning-based approach for implementing the cache model. Empirical evaluation is conducted in order to reduce the number of antecedent candidates by the proposed cache model, and this results show that the number of the antecedent candidates of each zero-pronoun is dramatically reduced on the task of antecedent identification. From the perspective of coherence, on the other hand, we investigate whether or not the clues introduced in the area of the automatic inference rules acquisition on entailment recognition improve the performance of anaphora resolution. Through the experiments of the antecedent identification task, we demonstrate the impact of incorporating the inference rules into zero-anaphora resolution.
著者
樋地 正浩 布川 博士 白鳥 則郎
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告グループウェアとネットワークサービス(GN) (ISSN:09196072)
巻号頁・発行日
vol.1993, no.56, pp.9-16, 1993-06-25

協調作業を支援するシステムの構築には,協調作業の分析によるモデル化とそれに基づく記述言語が必要である.本稿では,社会学的知見に基づき協調作業を集団と集団を構成する人々,それらの人々の間のコミュニケーションの2つ面から分析を行う.その結果に基づき,協調作業とは何かを明らかにし,協調作業のモデル化に必要な要素の検討を行う.協調型計算モデルをベースとして用い,協調作業をモデル化するための自律的オブジェクトを提案する.自律的オブジェクトは,対象とその状況に応じて交信形態を選択できる自自律的なオブジェクトである.最後に,ここでモデル化した協調作業を記述するための関数を示す.It is necessary to develop computer support for cooperative work based on modeling cooperative work and a description language. In this paper we analyze cooperative work in terms of groups, members and human communication from a social science point of view. We discuss elements of a cooperative work model. Next we suggest an autonomous object for modeling cooperative work in a cooperative computation model. The autonomous object can select a communication form corresponding to communication objects. Finally, we propose some function for describing cooperative work.
著者
原田 実 田淵 和幸 大野 博之
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.43, no.9, pp.2894-2902, 2002-09-15
被引用文献数
25

原田研究室ではこれまで,EDR電子化辞書に記載された情報を元に,日本語文を意味解析し格フレーム群に自動変換するシステムSAGE(Semantic frame Automatic GEnerator)を開発してきた.既存のSAGEは機能的には正しく動作するが,解析時間が文節数の指数オーダのため実利用するには問題があった.また解析精度に対する客観的な検証がされていなかった.そこで本研究では,Jiriらによる英文の構文木への語意割当て用の高速アルゴリズムの考え方をSAGEにおける係り受け木への語意と格決定用に適用して,SAGEの解析速度を向上させた.この結果,解析速度は文節数の線形オーダになった.また,EDRの解析済みコーパスを用いてSAGEの解析精度を自動的に評価するシステムを開発した.その結果,語意正解率は81.1%,格正解率は60.7%,格の宛先正解率は73.3%であった.これによってSAGEは速度面でも精度面でも意味解析システムとして実利用を開始できるレベルに至ったといえる.In the Harada laboratory,a semantic analysis system SAGE (Semantic frame Automatic GEnerator) has been developed,which converts a Japanese sentence into case frames based on the statistical information in the EDR electronic dictionary.Though SAGE operated correctly,there was such a problem in actual use that it requires the time of the exponential order of the number of clauses.In this research,based on Jiri's deterministic algorithm for assigning the word meaning to nodes of the parse tree of English sentence,the deterministic algorithm for deciding the meaning of words represented by nodes and the deep case of the relations among such nodes in the dependency tree of Japanese sentence is developed.As a result, the analytical speed became the linear order of the number of clauses.Moreover,the system to evaluate the analytical accuracy of SAGE is developed by using EDR analyzed Corpus.This evaluation revealed that the word meaning accuracy is 81.1%,the destination accuracy of case relation is 73.3% and the case relation accuracy is 60.7%.As a result,it can be said that SAGE has reached to the level that we can begin its acctual use for Japanese semantic analysis.
著者
原田 実 吉川 彰一 永井 英一郎
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ソフトウェア工学(SE)
巻号頁・発行日
vol.1994, no.73, pp.97-104, 1994-09-08

プログラムの保守を効率化するためには、プログラムから仕様への逆生成が重要である.本研究では、ファイル処理問題に対するCOBOLプログラムから形式的な要求仕様を逆生成する手法を提案するとともに、それを実現するシステムCOBOL Reverse Engineer for Modules:CORE/Mを開発した.プログラム理解の結果を表す要求仕様としては、等関係仕様を採用した.この仕様は、ファイル処理問題における実体や関連の属性項目間の関係と出力・更新要求を等関係式という数式の集合で表したもので、要求を非手続的に表現できる.ここでは、各計算式の項目は、"."を介してそれが所属する実体の識別子によって、また"_"を介してそれが格納されているファイル名によって修飾されている.従って、等関係式はその左辺項目の充分な意味定義になっている.CORE/MはまずCOBOLプログラムを構文解析し、ブロック構造に展開する.次にブロックが処理対象とする実体や関連を表す照合基準を抽出する.この照合基準を元に、実体識別子とファイル修飾子を導出し、ブロックに含まれる処理文内の項目を適切に修飾して等関係式に変換し出力する.事例として、176行のCOBOLプログラムを変換した結果、元のプログラムと同値の等関係式仕様を得た.今後の課題として、等価変換を用いて行儀の悪いプログラムも理解できるようにすることなどがある.I propose a technique of reverse engineering of COBOL programs, and develop a "COBOL Reverse Engineer-CORE/M-" based on this technique. CORE/M generates the non-procedural EOS specifi-cation from COBOL programs, especially performing the file processing. EOS specification consists of a set of equations, called equality relation. Each equality relation shows the relationship among the attribute items of entities. In this, each item is modified with "." by the entity having it as an attribute, and suffixed with "_" by the file storing it. CORE/M, first, parses the COBOL program, and develops it into a block structure. Next, CORE/M decides which entities are processed under what conditions in each block. It can be thought that all the statements in a block are processing the same entity fulfilling the same condition. Thus, CORE/M basically modifies every item in such a statement with the same entity identifier and the same file modifier. CORE/M actually converted the sample Cobol pro-gram consisting of 176 lines, and has generated its EOS specification bearing the same meanig.
著者
中野 正寛 渋木 英潔 宮崎 林太郎 石下 円香 森 辰則
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告自然言語処理(NL) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.90, pp.107-114, 2008-09-17
被引用文献数
3

本稿では情報信憑性の判断に役立つ要約について扱う.プロードバンド化の進展やブログの普及に伴って爆発的に増加する情報の中には利用者に不利益をもたらす情報も含まれており,情報の信憑性判断を支援する技術の実現は重要な課題である.我々は情報信憑性の判断に役立つ要約の自動生成に向けて,複数の作業者の人手により情報信憑性判断のための要約を作成する実験を行った.そして,得られた要約文章の安定性や複数作業者間の一致度を分析し,情報信憑性の判断に役立つ要約を作成する際に人間が重要視する情報を調査した.実験結果では,要約対象として収集した文書から要約に必要な記述を抜き出すまでの何段階かの絞り込みで中程度の一致が期待できる事がわかった.事後の作業者へのアンケート調査によれば,要約として適当な長さと考えたのは 1 000 から 3 000 文字程度であり,作業者がまとまっていることである.また,情報信憑性の判断に役立つ要約の自動生成に向けて,作業者が作成した要約を参照要約とし,それに対応する原文からの文の抜粋に関するデータを整備した.In this paper, we investigated processes of text summarization that supports the judgment of the information credibility. The realization of technology that supports the judgment of the information credibility is one of important issues, because information harmful to users creeps into the huge amount of available information in the era of information explosion. Aiming at automated summarization, we conducted experiments in which multiple subjects manually created text summaries from the viewpoint of the judgment of the information credibility. We studied the stability of the summarization and the degree of agreement in the results of extraction of important information. We also investigated the information that subjects supposed to be important in the process of the creation of summaries, by using questioners after the experiments. The experimental results show that moderate agreement can be expected in the result of extraction of important information. The length of summaries was between about 1,000 and 3,000 characters. According to the questioners, the documents that were well-organized and information about information holders were supposed to be important. Aiming at the automated summarization, we also prepared the information of the extracted sentences that correspond to the created summaries.
著者
鈴木 潤 藤野 昭典 磯崎 秀樹
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告自然言語処理(NL) (ISSN:09196072)
巻号頁・発行日
vol.2007, no.94, pp.21-28, 2007-09-25
参考文献数
9

本稿では,半教師あり条件付確率場(Semi supervised conditional random fields)について議論をおこなう.自然言語処理の多くのタスクでは )効果的なモデル学習のために単語やその連接といった特徴を利用する必要があり,一般的に数万次元以上という高次元かつスパースな特徴空間を用いて学習をおこなう必要がある。よって,これらのタスクでは,半教師あり学習の枠組みにおいても,高次元スパース特徴空間に頑健な枠組が求められるそこで。本稿では文献[1]の枠組をベースにし,高次元スパース特徴空間に対して頑健な半教師あり条件付確率場を新たに提案する.また,固有表現抽出およびチヤンキングタスクを用いて半教師あり条件付確率場の性能と性質について検証をおこなった提案法により,従来の教師あり条件付確率場[2],エントロピー正則化に基づく半教師あり条件付確率場[3]と比較して大幅に良い結果が得られたまた,エントロピー、正則化に基づく半教師あり条件付確率場は,理論的にも実験的にも,高次元スパース特徴空間を用いた学習では性能の向上が期待できないことを明らかにする.This paper proposes a novel semi-supervised conditional random field which provides good characteristics with respect to handling the large and sparse feature spaces. Experiments on two real NLP tasks with extremely large feature spaces, such as named entity recognition and syntactic chunking, show that our proposed method significantly improves the state-of-the-art performance obtained from supervised CRFs[2], and semi-supervised CRFs employing the entropy regularization approach[3]. Moreover, this paper reveals that, theoretically and experimentally, semi-supervised CRFs based on the entropy regularization approach[2] cannot work well for improving the performance of tasks with large and sparse feature spaces.
著者
大渕竜太郎 増田 宏 青野 雅樹
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.41, no.3, pp.559-569, 2000-03-15
被引用文献数
1

各種のデジタルコンテンツを対象とし,電子透かしと呼ばれる情報をコンテンツ自体に埋め込み,この情報を著作権管理などの目的で利用しようとする研究が行われている.最近その埋め込み対象として3次元モデルが加わったが,これまでの電子透かし手法は3次元ポリゴンメッシュやその属性を対象として開発されおり,そのままでは(形状)CADモデルには適用できない場合がほとんどである.これは,CADモデルの多くは主たる形状定義プリミティブとしてポリゴンではなくパラメータ曲線・曲面を用いていること,またCADモデルでは既存の手法による透かし埋め込みにともなうトポロジや幾何形状の変更を許さない用途が圧倒的に多いこと,の2つの理由による.本論文は,non-uniform rational B-spline(NURBS)曲線および曲面を対象とした新たなデータ埋め込みアルゴリズムを提案する.このアルゴリズムは,再パラメータ化に用いる有理線形関数の持つ自由度を使って情報を埋め込む.再パラメータ化はNURBS曲面・曲線の幾何形状を厳密に保存し,また,有理線形関数による再パラメータ化はNURBSの次数や節点数を変えないためモデルのデータ量も保存する.本論文ではさらに,NURBSに限定しない種々のパラメータ曲線・曲面を対象とした情報埋め込み手法の概略を,幾何形状の保存とデータ量の保存という2つの要件で分類・整理して列挙した.Digital watermarking adds various information to digital contents for copyright management and other applications. 3D model has recently been recognized as a watermarking target data type. However, existing watermarking algorithms target polygonal meshes and their attributes for watermarking so that they can't be readily applied to the majority of (geometric) computer aided design (CAD) models for two major reasons. First, these CAD models employ parametric curves and surfaces, not polygonal meshes, as their main shape-defining primitives. Second, most CAD applications do not tolerate modifications of model topology and/or geometry that are introduced by existing watermarking algorithms. This paper proposes a new watermarking algorithm for non-uniform rational B-spline(NURBS) curves and surfaces, which employs rational linear reparameterization for embedding messages. The algorithm exactly preserves the shape,-that is, the geometry and topology-of its watermarking targets. Furthermore, it preserves the data size of the model. We consider these two properties, exact preservation of shape and preservation of data size, to be important in various applications of CAD models. In addition to the shape- and data size-preserving data embedding algorithm for NURBS curves and surfaces, this paper outlines additional methods for embedding data in various types of parametric curves and surfaces.
著者
大塚 浩司 大町 真一郎 阿曽 弘具
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告. DBS,データベースシステム研究会報告 (ISSN:09196072)
巻号頁・発行日
vol.140, no.2, pp.415-420, 2006-07-14
参考文献数
6

共通のトピックに関するウェブページの集合であるウェブコミュニティを抽出する手法の1っとしてHITSアルゴリズムが知られている.HITSアルゴリズムは,ウェブコミュニティを"オーソリティ"と"ハブ"と呼ばれる2種類のウェブページからなる2階層の構造をしていると仮定し,これを2部グラフと見なして抽出することを目的としている.しかし,一般にウェブコミュニティはより複雑なリンク構造を持っている.本論文では,3階層以上の多階層のリンク構造を持つウェブコミュニティを抽出することを目的とし,オーソリティ・ハブに加えて中間ノードを導入したウェブコミュニティ抽出法を提案する.提案手法により,HITSアルゴリズムでは抽出しにくいページをウェブコミュニティのメンバとして抽出することが可能であることを実験により示す.
著者
大石康智 亀岡 弘和 柏野 邦夫 武田 一哉
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告音楽情報科学(MUS) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.78, pp.89-96, 2008-07-30
被引用文献数
1

歌声の基本周波数 (F0) 軌跡から,歌唱者が意図する旋律概形と歌声の動的変動成分を同時推定する手法を提案する.これまで,旋律概形を表す区分的に一定な階段状の入力信号に、ビブラートやオーバーシュートなどの動的変動因子を表す 2 次系のインパルス応答を畳み込むことによって,F0 軌跡を生成するための制御モデルが提案された.しかし,観測される F0軌跡だけから,それぞれの信号を推定する逆問題は不良設定問題であるため,従来のモデルではこの問題を解くことができなかった.そこで,我々は階段状の拘束をもつ特殊な入力信号を隠れマルコフモデル (HMM) でモデル化し,2 次系を含むシステムの伝達関数を全極モデルで表現することで,Viterbi 学習と線形予測分析 (LPC) 的な解法の反復により,モデルパラメータを効率的に推定するアルゴリズムを提案する.本稿ではその定式化と実装を行い,観測される F0 軌跡から旋律概形と動的変動成分をともに推定できること,さらに推定されたパラメータによって F0 軌跡を生成可能であることを確認する.In this paper, we propose a novel representation of F0 contours that provides a computationally efficient algorithm for automatically estimating the parameters of a F0 control model for singing voices. Although the best known F0 control model, based on a second-order system with a piece-wise constant function as its input, can generate F0 contours of natural singing voices, this model has no means of learning the model parameters from observed F0 contours automatically. Therefore, by modeling the piece-wise constant function by Hidden Markov Models (HMM) and approximating the transfer function of the system by the all-pole model, we estimate model parameters optimally based on iteration of Viterbi training and an LPC-like solver. Our representation is a generative model and can identify both the target musical note sequence and the dynamics of singing behaviors included in the F0 contours. Our experimental results show that the proposed method can separate the dynamics from the target musical note sequence and generate the F0 contours using estimated model parameters.
著者
永富 洋文 デニス・アルトナ・ルデニャ・ロマニャ 武藏 泰雄 松葉 龍一 杉谷 賢一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告インターネットと運用技術(IOT) (ISSN:09196072)
巻号頁・発行日
vol.2006, no.97, pp.25-30, 2006-09-15

とある大学のDNSサーバにおけるIPv6ベースのDNSクエリパケットの流量について統計的解析を行ったところ、次の様な結果を得た。(1) IPv4ベースのセキュリティインシデントとの同期や、(2) IPv6のみを介してセキュリティスキャンの前準備をしている痕跡が見られた。これらの結果は、IPv6についてもIPv4の場合と同様に、ネットワーク流量を監視する必要があることを示している。We investigated statistically on the IPv6 source IP address-based DNS query traffic a university campus network through January 1st to December 31st, 2005. The results are summarized, as follows: (1) Several security incidents in the IPv6-based DNS query traffic can be observed in or synchronized with the IPv4-based DNS query one like a mass mailing worm (MMW)- or spamming from the bot worm (BW)-infected PC terminals, and (2) we can also find a suspicious IPv6 based PTR resource record (RR) based DNS query traffic like a typical reverse domain resolution access in preparation for the next security scanning. Therefore, it can be clear that we should pay much attention not only IPv4 address based packet traffic but also IPv6 address based one when detecting the security incident in the campus or enterprise network system.
著者
野口 和人 氏原 慎弥 黄瀬 浩一 岩村 雅一
出版者
一般社団法人情報処理学会
雑誌
研究報告コンピュータビジョンとイメージメディア(CVIM) (ISSN:09196072)
巻号頁・発行日
vol.2009, no.29, pp.205-210, 2009-03-06

カメラ付き携帯電話を入力デバイスとした画像認識では,撮影した画像のぶれやぼけが認識精度低下の原因となる.そのため,ぶれやぼけに対処する手法が重要となる.本稿では,局所特徴量の近似最近傍探索による認識手法に対して,原画像に様々がぶれやぼけを与えた画像を生成し学習する生成型学習を導入することによって対処する.生成型学習を導入するにあたって問題となるのは,学習データの増加にともなって最近傍探索に必要なメモリ量と処理時間が増大することである.これは,特に大規模なデータベースを用いた場合に問題となる.提案手法では,多段階化とスカラー量子化によってこれを解決する. 1 万枚の画像データベースを用いた実験の結果,生成型学習を用いない手法と比べて認識率が 12.3% 向上することがわかった.For image recognition with a camera phone, defocus and motion-blur cause a serious decrease of the image recognition rate. In this report, we employ generative learning, i.e., generating blurred images and learning based on them, for a recognition method using approximate nearest neighbor search of local features. Major prob- lems of generative learning are long processing time and a large amount of memory required for nearest neighbor search. The problems become serious when we use a large-scale database. In the proposed method, they are sloved by cascading recognizers and scalar quantization. From experimental results with 10,000 images, we have confirmed that the proposed method improves the recogniton rate by 12.3% as compared to a method without generative learning.
著者
植田 寛郎 大渕竜太郎 遠藤州
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.43, no.8, pp.2478-2488, 2002-08-15
被引用文献数
3

近年地理情報システムの利用が拡大し,その中核となるデジタル地図データの知的所有権保護の重要性が増してきている.本論文では,ベクトル型地図データに対して,デジタルデータの知的所有権保護技術の1つである電子透かしを適用することを検討する.ベクトル型地図は,建物の外郭,等高線,道路などの地物を2次元空間の頂点とその集合である折れ線や多角形で表現する地図である.本論文の電子透かし手法は,与えられた矩形の地図データを多数の小領域に分割し,その各々の小領域に含まれる頂点を移動してその座標の平均値を変化させて透かしを埋め込む.本手法の電子透かしは頂点座標値への乱数値の重畳,頂点の追加や削除,頂点の平行移動や回転,切り取り,その他の妨害に対してある程度の頑強性を持つ.Widespread use of geographical information systems prompted the investigations into protecting intellectual properties of digital maps.This paper proposes a digital watermarking algorithm that aims to protect intellectual properties of vector digital maps.A vector digital map represents geographical objects, such as buildings,contour lines, and streets using such (two-dimensional) geometrical primitives as vertices,poly-lines, and polygons.Our algorithm embeds a watermark bit by minutely displacing an average coordinate value of a group of vertices in a rectangular area.The rectangle is created by subdividing the map into rectangular sub-areas based on the density of geometrical primitives.Watermarks produced by this method are resilient, although not totally immune,against additive random noise,topology alterations due to addition and removal of vertices,translation and rotation of vertices, cropping, and other attacks.
著者
児島 治彦 戸井田 徹
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.28, no.8, pp.863-869, 1987-08-15
被引用文献数
9

本論文では 筆記制限がなく 拡張性に優れたオンライン手書き図形認識法について述べる.自由に手書きされた幾何学図形を対象とし ストローク入力と並行して認識を行うオンライン手書き図形認識法として 隣接する線分の構造に着目して認識を行う「隣接線分構造解析法」を提案する.本手法は ストロークが入力されるごとに処理を実行する.入力されたストロークと隣接するストロークとの関係をもとにセグメントを抽出し 認識を行う.拡張性を考慮し 図形作成に基本的に必要な基本図形単位と 基本図形の組み合わせからなる複合図形単位の2段階で 図面固有の知識を用いずに認識を行う.基本図形の識別には 基本図形を構成する頂点の数と連続する頂点間の線分の種別を用いる.複合図形の識別には 複合図形を構成する基本図形の種類と基本図形間の相対的位置関係を用いる.筆記制限なしに収集したデータを対象として認識実験を行った結果 基本図形4 111パタンについては988%の認識率 複合図形の例としてあげたフローチャートおよびHCP チャートについては 40枚の図面に含まれる390の複合図形に対して97.7%の認識率を得て 自由に手書きされた幾何学図形に対する本手法の有効性を確認した.