著者
永田 昌明
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告自然言語処理(NL)
巻号頁・発行日
vol.1997, no.85, pp.9-16, 1997-11-12
参考文献数
14
被引用文献数
4

本稿では、小さな単語リストと大量のプレーンテキストから日本語の単語分割プログラムを作成する方法を提案する。本手法は、単語単位の統計的言語モデル、初期値推定手続き、再推定手続きから構成される。まず文字種に関するヒューリスティクスを用いて訓練テキストから抽出した単語候補を単語リストに加え、単語リスト中の単語と最長一致する訓練テキスト中の文字列の頻度から単語頻度の初期値を推定する。次に単語頻度に基づく統計的言語モデルを用いて訓練テキストを単語分割し、単語リストと単語頻度を再推定する。1719個の単語と390万文字のテキストに対して本手法を用いて単語分割プログラムを訓練したところ、単語分割精度は再現率86.3%,適合率82.5%であった。We present a self-organized method to build a stochastic Japanese word segmenter from a small number of basic words and a large amount of unsegmented training text. It consists of a word-based statistical language model, an initial estimation procedure, and a re-estimation procedure. Initial word frequencies are estimated by counting all possible longest match strings between the training text and the word list. The initial word list is augmented by identifying words in the training text using a heuristic rule based on character type. The word-based language model is then re-estimated to filter out inappropriate word hypotheses. When the word segmenter is trained on 3.9M character texts and 1719 initial words, its word segmentation accuracy is 86.3% recall and 82.5% precision.
著者
高林 哲 小松 弘幸 増井 俊之
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.43, no.12, pp.3698-3705, 2002-12-15
被引用文献数
1

インクリメンタル検索は情報検索やテキスト編集などの用途に広く用いられている.しかし,日本語の入力にはかな漢字変換という障壁があるため,キーボードから1文字入力するごとに検索を進めていくスムーズなインクリメンタル検索は従来,行うことができなかった.本論文では,指定された読みで始まる単語をコンパクトな正規表現に動的に展開してインクリメンタル検索を行う手法Migemoを提案する.我々はMigemoの実装および評価を行い,これまで困難であったスムーズな日本語のインクリメンタル検索が実現できることを示す.最後に各種の応用例を紹介する.Although incremental search is used in a wide range of tasks including information retrieval and text editing,conventional incremental search method cannot handle Japanese texts effectively because Japanese text input requires an indirect input method called Kana-Kanji conversion.In this paper,we introduce a new incremental search method called Migemo to realize the incremental search for Japanese texts.Migemo performs the incremental search by dynamically expanding the input pattern into a compact regular expression which represents all the possible words that match the input pattern.We show how Migemo realize the Japanese incremental search,which is hard to perform effectively so far, through the concrete implementation and evaluation.Various applications are also presented.
著者
伊藤 彰則 王 欽悦 鈴木 基之 牧野 正三
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告自然言語処理(NL) (ISSN:09196072)
巻号頁・発行日
vol.2005, no.50, pp.41-46, 2005-05-26
参考文献数
9

自然な対話の映像の中から笑いを検出するための手法について述べる。笑いは対話中の表情としてもっとも多く見られるものであり、これを検出することはユーザの心的状態の推定にとって有用であると考えられる。また、笑い声を高精度に検出できれば、対話音声の認識誤り削減に有効である。本稿では、カメラで撮影したユーザの顔から表情を認識する手法と、マイクで収録したユーザの音声から笑い声を検出する手法を組み合わせることで、笑いの検出精度を向上させる方法を検討する。顔画像による表情認識では、顔の特徴点検出に基づく特徴量を用い、特定話者の場合で再現率・適合率とも80%以上の精度で自然な対話映像から笑いの表情を認識することが可能になった。また、GMMによる音声の識別と画像情報を組み合わせた笑い声の検出手法を提案した。実験結果より、音声と画像の統合により適合率が向上することが示され、最終的には再現率・適合率とも70%以上の値が得られた。This paper describes a method to detect smiles and laughters from the video of natural dialogue. A smile is the most common facial expression observed in a dialogue. Detecting a user's smiles and laughters can be useful for estimating the mental state of the user of a spoken-dialogue-based user interface. In addition, detecting laughter sound can be utilized to prevent the speech recognizer from wrongly recognizing the laughter sound as meaningful words. In this paper, a method to detect smile facial expression and laughter sound robustly by combining a image-based facial expression recognition method and an audio-based laughter sound recognition method. The image-based method uses a feature vector based on feature point detection from face images. The method could detect smile faces by more than 80% recall and precision rate. A method to combine a GMM-based laughter sound recognizer and the image-based method could improve the accuracy of detection of laghter sounds compared with methods that use image or s und only. As a result, more than 70% recall and precision rate of laughter sound detection was obtained from the natural conversation videos.
著者
水口充
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ヒューマンコンピュータインタラクション(HCI) (ISSN:09196072)
巻号頁・発行日
vol.2007, no.110, pp.23-28, 2007-11-12

文字の位置や大きさなどの属性を時間的に変化させる,動的な文字情報表現がコンピュータによって可能になり,映画やテレビやビデオゲームなどの映像表現として日常的に目にするようになってきた.本稿では,このような文字のアニメーション表現を記述するための XML 言語とその処理系の開発の取り組み,および応用について紹介し,情報表現手法としての可能性について議論する.Animated text, also known as kinetic typography, is the visual expression method that temporally changes displaying attributes such as position and size. As computer has put it to practical use, we can see many works in films, TV programs, and video games today. We report our efforts to make animated text widely applicable, including an XML language for description of animated text, processing modules for the language, and applications. We also discuss its possibility for information visualization.
著者
向井 誠 青野 雅樹
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告自然言語処理(NL)
巻号頁・発行日
vol.2005, no.94, pp.27-32, 2005-09-29

本研究では,RSSで記述されたWebコンテンツ群からユーザの嗜好に沿ったコンテンツの取得にかかる労力を最小限に抑えることを目的に,Webコンテンツの推薦を実現するプロトタイプシステムの設計,実装を行う.既存の検索エンジンでは見つけにくい最新ニュース記事やBlogなどの更新頻度の高いWebサイトに対し,その概要の記述にRSSを用いることが多くなった.しかし,RSSフィードが増加するにつれこれまで同様"情報の洪水"が問題となっている.提案手法ではRSSに記述されたコンテンツに対して内容に基づくフィルタリングを適用し,ユーザの興味に沿ったコンテンツの推薦提示を実現する.Recently, we can find a large amount of contents on the WWW. However, it has been difficult to extract some valuable information for us. In this paper, we propose a recommendation system which is based on Content-based Filtering. Our method aims at helping users to find information from RSS Feed that are in accordance with their personal interests. A method of generating User Profiles based on user preference is a very important task for providing recommendation systems. Therefore, we propose two method of generating User Profiles: Dynamic User Profile and Static User Profile. These Profiles corresponds to some kind of user preference.
著者
高田 雅美 木村 欣司 岩崎 雅史 中村 佳正
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌コンピューティングシステム(ACS) (ISSN:18827829)
巻号頁・発行日
vol.47, no.7, pp.91-104, 2006-05-15
被引用文献数
6

高精度かつ高速に上2 重対角行列を特異値分解するために,我々は,dLV(離散ロトカ・ボルテラ:discrete Lotka-Volterra)系による新たな特異値分解ライブラリを開発している.既存ライブラリとしては,線形数値計算ライブラリLAPACK におけるDBDSQR がある.DBDSQR は,QRs法に基づいた特異値分解ライブラリであるが,計算量が多く,実行時間の面で大規模向きではない.また,いくつかの特異ベクトルのみを計算することも困難である.一方,dLV 系により定式化されたI-SVD(Integrable-Singular Value Decomposition)法は,計算量が抑えられる動作原理を持つ.本論文では,I-SVD 法の実装ライブラリDBDSLV を開発し,実行時間と計算精度について,DBDSQR との比較数値実験を行う.精度を調べる際,真の特異値と特異ベクトルが判明している上2 重対角行列が必要となる.そこで,Golub-Kahan-Lanczos 法によるテスト行列作成法を用いる.実験の結果,DBDSLV は,DBDSQR よりも誤差の少ない特異値と特異ベクトルを非常に短い実行時間で計算されることが確認された.計算された特異ベクトルの直交性も同程度であり,再直交化を行えばDBDSQR を上回ることも分かった.To perform SVD (Singular Value Decomposition) of bidiagonal matrices with high accuracy and high-speed, we develop a library by using the dLV (discrete Lotka-Volterra) system. Today's standard routine for SVD is DBDSQR provided in LAPACK (Linear Algebra PACKage). Since the computation of SVD by DBDSQR is based on the QRs (QR with shift) algorithm, DBDSQR is slow in speed and is unsuitable for large scaled problems. It is also difficult to obtain only a few singular vectors by using DBDSQR. On the other hand, the I-SVD (Integrable-SVD) scheme based on the dLV system enables us to cut down the computational cost by separating the computation process of singular values and vectors. In this paper, for evaluation of computational time and accuracy, we implement the I-SVD scheme to a new routine named DBDSLV and compare it with DBDSQR. For a comparison of accuracy, we use a method for constructing a class of upper bidiagonal random test matrices having true singular values and vectors by means of the Golub-Kahan-Lanczos method. As experimental results, we confirmed that DBDSLV is faster and errors of singular values and vectors in DBDSLV are smaller than those in DBDSQR. Though the orthogonality of computed singular vectors in DBDSLV is in the same order as in DBDSQR, we found that DBDSLV has a better orthogonality through a reorthogonalization.
著者
松澤 由香里 山城 明宏
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ソフトウェア工学(SE) (ISSN:09196072)
巻号頁・発行日
vol.1996, no.32, pp.73-80, 1996-03-22

オブジェクト指向開発を実システムに適用するためには、適切なオブジェクトの選択と大規模システムに対応するための分業化指針が重要な用件となる。この2点の要件に対応する手段として、問題分野に特化したパターンの利用と、OMT法を分業開発用にカスタマイズしたOMT?CD法を提案する。本稿では、特にGUIアプリケーションにおいて最適とされるMVCモデルを実システムに適用した具体的手順と、MVCモデルを利用したサブシステム分割による分業開発法OMT?CD法の運用手順を述べ、評価を行なう。MVCモデルを利用したクラス構造は頑強なものであり、またOMT?CD法により設計/実装における作業効率の向上が確認できた。This paper proposes how to use the MVC Model and the OMT-CD (Cooperative Development) method to architect large scale GUI application. When we develop an actual system, two important guidelines are missing in traditional Object-Oriented development: One is a guide for object's extraction and the other is a guide for cooperative development. To make these guidelines, we firstly applied the MVC model which is one of an effective pattern in GUI domain. Secondly, we constructed a class architecture and then divided the system into subsystems, which are cooperative development unit. The class architecture based on the MVC model is robust and the application of the OMT-CD method can improve the productivity of Object-Oriented software.
著者
丸山 宏 荻野 紫穂
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.35, no.7, pp.1293-1299, 1994-07-15
被引用文献数
19

日本語の形態素解析は正規文法で行えるとされてきたが、今までの形態素解析システムでは、文法は接続表の形で記述されてきた。本論文では、文法を正規文法の生成規則として記述する形態素解析システムについて述ぺ、その利点と限界について議論する。
著者
中田 育男 山下 義行
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.34, no.2, pp.239-245, 1993-02-15
被引用文献数
1

加算や乗算などの演算子を含んだ通常の式の形をしたものの文法は、生成規則だけによる定義より、演算子順位を使った定義のほうが一般には分かりやすく、構文解析の効率もよい。LR構文解析の中で演算子順位を利用した構文解析をする方法はよく知られているが、再帰的下向き構文解析の中での方法は、演算子の順位を示す数値を手続きの引数として渡す方法があるようであるが、あまり報告されていない。本論文では、後者の方法として、再帰的下向き構文解析法における再帰的手続きの呼び出しの引数として、文法のLL(1)性などを調べるのに使われるFollow集合の部分集合を使う方法を提案する。これは、引数として演算子の順位を示す数値を渡す方法より一般的である。また、この部分集合は、再矯的下向き構文解析法でエラー処理のためによく使われる集合に近いものであり、この方法を再帰的下向き構文解析に導入するのは容易である。
著者
田中 久美子 岩崎 英哉
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告自然言語処理(NL)
巻号頁・発行日
vol.1996, no.87, pp.107-114, 1996-09-12

コーパスから得られた共起情報は,共起関係を枝,語をノードとするグラフと見なすことができる.同じ語が複数の意味を持つことがあるという曖昧性によって,この共起グラフは全体でひとつの大きなグラフを形成している,本稿では,曖昧性を「共起関係の推移律」という観点から捉え,共起グラフから同じ意味・話題を成す部分グラフを推移律が成立するように抽出して全体をクラスタ分けするための手法を提案する.クラスタ分けされたグラフの性質などについても考察する.さらに,実際に20Mのコーパスから作成した共起グラフに対して本手法を適用した結果,および,それを用いた主成分分析による記事の分類を行なった結果も合わせて報告する.Co-occurrence information, obtained from a corpus, is a graph, regarding words as nodes and co-occurrences as branches. Subgraphs of different themes stay connected because of ambiguous words. This paper assumes the ambiguity as the non-transitivity in co-occurrence relationship and tries to cluster a graph into subgraphs in which transitivity holds. Several properties of such subgraphs are also discussed. The clustering method is applied to a co-occurrence graph obtained from 20M Japanese newspaper articles and its results are analyzed. They are also used to classify the articles.
著者
村上 明子 那須川 哲哉
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告自然言語処理(NL) (ISSN:09196072)
巻号頁・発行日
vol.2004, no.73, pp.117-124, 2004-07-16
被引用文献数
1

大量のテキストを分析し傾向を捉えるテキストマイニングにおいて、分析の観点で同義表現とみなせる語を代表的な表現に集約することは、表層表現の出現頻度のみで分析をするよりも有効である。そのためには、一般的な同義表現のみならず、分析対象の文書と目的に特化した同義表現の辞書が必要になる。本稿では、筆者別に分けられた文書集合を、表現の一貫性が保たれた文書集合として用いることにより、同義表現抽出の精度を向上させる手法を示す。我々は同一の筆者であれば一つの対象を表現するために、常に同じ表現を使う傾向があると仮定した。この仮定によれば、筆者別に分けられた文書内で似た文脈をもつ語あるいは表現のほとんどが類義表現であっても同義表現ではないといえる。コールセンターの対応記録データを用いて実験を行った結果、この仮定と本手法の有効性が示された。We present a text mining method for finding synonymous expressions based on the distributional hypothesis in a set of coherent corpora. This paper proposes a new methodology to improve the accuracy of a term aggregation system using each author's text as a coherent corpus. Our approach is based on the idea that one person tends to use one expression for one meaning. According to our assumption, most of the words with similar context features in each author's corpus tend not to be synonymous expressions. Our proposed method improves the accuracy of our term aggregation system, showing that our approach is successful.
著者
中渡瀬 秀一
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告デジタルドキュメント(DD)
巻号頁・発行日
vol.2002, no.28, pp.39-46, 2002-03-15

本論文ではテキストデータを解析して,そこから類義語のグループを自動抽出する方法を提案する。提案する方法ではテキストを形態素解析した情報より2部グラフを構成し,その中の完全2部グラフが類義語のグループを構成するという傾向を利用して類義語の自動抽出を行う。この方法は大量のデータから多くの類義語候補を用意に収集するのに有用である。また2部グラフを構成する双方の頂点集合が類義語グループとそのグループの観点として解釈できるため,類義語のグループと同時にその観点も構成することができる。さらにグラフ間の順序関係によって類義語間の類似度を与えることもできるという特徴をもつ。This paper proposes a method for similar words groups extraction from nouns in a corpus. This method is based on maximal complete bipartite graph included bipartite graph made from compound nouns. In this bipartite graph, one node set tends to be a similar words group and the other node set to be a group of view point words, when the graph is complete. Further, this method can give also similarity measurements between words using relations among those similar words groups.
著者
長尾 真 水谷 幹男 池田 浩之
出版者
一般社団法人情報処理学会
雑誌
情報処理 (ISSN:04478053)
巻号頁・発行日
vol.17, no.2, pp.110-117, 1976-02-15
被引用文献数
26

An automatic method is developed which extracts important words(typical words or possibly key words) from Japanese scientific documents. The idea is to extract the words which appear frequently in some payicular documents, but which appear seldom in other documents. To measure this particularity of word usage we utilized the idea of X^2 test. The experiment is done on a text book of chemistry of the middle school, and "Current Bibliography on Science and Technology (Electrical Engineering)" edited by JICST. More than 120,000 Japanese words are handled and the results are fairly satisfactory.
著者
辻河亨 吉田 稔 中川 裕志
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告自然言語処理(NL) (ISSN:09196072)
巻号頁・発行日
vol.2004, no.1, pp.155-162, 2004-01-14
被引用文献数
4

文書中から用語抽出を行う手法としては様々なものが提案されているが,多くはコーパスにおける用語候補の使用における統計量を利用するものであった。本稿では,これまで光が当てられていなかった用語を構成する語基間の関係について,そのグラフ構造に着目する。まずグラフにおける局所的ないし大域的構造を反映する用語抽出の指標を新たに提案し,その上で提案した用語抽出のいくつかの指標,およびそれらの組み合わせを,複数のコーパスを用いて実験的に評価した結果について報告する。Many methods to evaluate termhood of word sequences extracted from documents have been proposed. The majority of them use the statistics of term candidates appearing the corpus. The ignored side, however, is the graph structure whose nodes are basic terms that consist of complex terms. That is exactly what we focus on in this paper. We propose term extraction algorithms which utilize this graph structure. More precisely, the proposed methods assume the whole set of compound terms as a graph and applies web mining method to term extraction. The nodes are element words, the edges coincide with modifying relations between words in the definition of graph, and the importance of terms are ones used to find web communities or in ranking pages by Web search engines. Finally we experimentally evaluate the proposed algorithms with terminology dictionaries on Web.
著者
田中 久美子 岩崎 英哉
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告情報学基礎(FI)
巻号頁・発行日
vol.1996, no.88, pp.49-56, 1996-09-12

コーパスから得られた共起情報は,共起関係を枝,語をノードとするグラフと見なすことができる.同じ語が複数の意味を持つことがあるという曖昧性によって,この共起グラフは全体でひとつの大きなグラフを形成している.本稿では,曖昧性を「共起関係の推移律」という観点から捉え,共起グラフから同じ意味・話題を成す部分グラフを推移律が成立するように抽出して全体をクラスタ分けするための手法を提案する.クラスタ分けされたグラフの性質などについても考察する.さらに,実際に20Mのコーパスから作成した共起グラフに対して本手法を適用した結果,および,それを用いた主成分分析による記事の分類を行なった結果も合わせて報告する.Co-occurrence information, obtained from a corpus, is a graph, regarding words as nodes and co-occurrences as branches. Subgraphs of different themes stay connected because of ambiguous words. This paper assumes the ambiguity as the non-transitivity in co-occurrence relationship and tries to cluster a graph into subgraphs in which transitivity holds. Several properties of such subgraphs are also discussed. The clustering method is applied to a cooccurrence graph obtained from 20M Japanese newspaper articles and its results are analyzed. They are also used to classify the articles.
著者
川谷 宗之 岡本 英彰 松田 一人 北川 哲 大西秀志 番原 睦則 田村 直之
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌プログラミング(PRO) (ISSN:18827802)
巻号頁・発行日
vol.46, no.6, pp.61-61, 2005-04-15

制約プログラミングとは,「ユーザは解決したい問題を制約の形で宣言的に記述するだけで,あとは制約解消系がその制約を満たす解を求めてくれる」という問題解決手法であり,近年注目を集めている.1990 年代には商用の制約解消系が登場し,これまで制約プログラミング手法に基づく生産スケジューリング,資源割当てなどの,実用的なシステムが開発されている.しかしながら,大規模な問題に対しては,制約解消系の処理に大きな計算量が必要とされるという問題がある.一方,近年の急速なネットワークインフラの高速化,普及を受けて新しい分散処理形態であるGrid が注目を集めている.我々の研究チームでは,Grid 計算環境に制約解消系を実装することでそのパフォーマンスを向上させることを目的とし,Grid に適した制約解消系の設計および実装を進めている.本発表では,その一環として実装を行ったGrid 計算環境上の2 つの制約解消系について述べる.まずSunGrid Engine(S.G.E.)上の制約解消系の実装,次にGlobus Toolkit を用いた制約解消系の実装について説明し,最後に,これらの制約解消系と単体計算機上の制約解消系を用いてパフォーマンス比較を行った結果を示す.ベンチマークにはよく知られているJob Shop Scheduling 問題などを用いた.得られた結果のうち,多くの場合において,今回の2 つの制約解消系が単体の計算機上の制約解消系より良い結果を示しており,制約解消系をGrid 計算環境上に実装することによる有効性は十分にあると結論付ける.In constraint programming, all you have to do is to define problems as sets of constraint declaratively, and then, constraint solvers search solutions. Commercial constraint solvers appeared in 1990s and have been used for production scheduling, resource allocation, and others. Constraint solving systems are useful but there are some issues. One of them is that they need much computational power to solve large scaled problems. Meanwhile, the Grid computing is a hot topic on the recent spread of the network infrastructure. In this presentation, we show some experimental results of two constraint solving systems on the Grid. We have developed these two systems on Sun Grid Engine and Globus Toolkit respectively. In each system, constraint solvers are implemented using Cream developed by our group. Cream is a Java class library for constraint programming and provides various optimization algorithms such as Simulated Annealing, Taboo Search, etc. We use Job Shop Scheduling Problem as benchmarks. In performance, our systems on the Grid gave nice speedup compared with Cream on a single machine.
著者
横矢 直和 マーチンD.レビン
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.30, no.8, pp.944-953, 1989-08-15
被引用文献数
9

3次元物体のモデル化と認識を目的とした距離画像解析の初期段階において最も重要な処理はセグメンテーションである.本論文では この問題に対して領域およびエッジに基づくハイブリッドな手法を提案する.距離画像のセグメンテーションを 観察方向に不変な微分幾何学特徴が一様でかつ 距離と法線ベクトルに関する不連続点を含まないような表面領域への分割と定義する・この分割を実現するために まず汲初に初期分割としてルガウス曲率と平均曲率の符号の組合わせに基づく 座標のとり方と観察方向に不変な画素分類(曲率符号マップ)を行い 同時に 距離の不連続点(ジャンプエッジマップ)と法線ベクトルの不連続点(ルーフエッジマップ)を抽出する.そして最後に この3種類の初期分割マップを統・合することによって最終的な分割を得る・本手法は 距離画像を物体の部分表面に対応した領域に分割するとともに 各面を物体認識の観点から重要な観察方向不変な8つの基本曲面タイプに分類することもに また 本手法は多面体と自由曲面物体が混在するような複雑なシーンに対しても有効である.これは人工データとレーザレンジファインダから得られた実データを用いた実験によって確かめられた.
著者
藤野 里美 石澤 太祥 渡邊 敏央 竹内 真理子 小檜山 賢二
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告ユビキタスコンピューティングシステム(UBI) (ISSN:09196072)
巻号頁・発行日
vol.2007, no.14, pp.45-51, 2007-02-22

本研究では,カメラ付携帯電話をインターフェイスとし,各種学問で行われているフィールドワークの記録や モブログを初めとする個人の生活記録などを,電子地図を初めとしたWebベースのシステムに投稿するためのシステム「FieldArchivingSystem(HLS)」の構築を行った.本システムでは 利用者の時空間上の行動データと移動履歴に基づく温度/湿度等の環境センサデータ,写真,テキストメモ等のリアルタイムな収集と閲覧が可能な他 事後的にアーカイブの検索や情報のダウンロードが可能である.環境センサを人間が持って移動する事から,人間による環境センシングとも言える.将来的には携帯電話を利用した新たな'情報収集プラットフォームとなることを想定している.本稿ではHRSの説明,データの呈示例,実験を通じて得られた知見や問題について取り上げ,システム改良への議論につなげる.The purpose of this research is to develop and suggest a new use case in location-based services by exercises with the Field Archiving System (FAS). The FAS is a multiple data collection and archiving system, which integrates handheld terminal with GPS, sensor circuits and cellular phone. The sensor collects location-based natural environmental information; temperature, humidity and wind speed/direction. A series of assessment experiments of the legacy system were conducted for the improvement in system design of FAS. In this paper, the outcomes of assessment experiments are reported.
著者
宮澤 雅史 曽培峰 磯 直行 平田 富夫
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告アルゴリズム(AL) (ISSN:09196072)
巻号頁・発行日
vol.2002, no.103, pp.43-49, 2002-11-08

ユークリッド距離変換はパターン認識やモルフォロジーフィルターなど画像処理の様々な分野で応用されている。本論文ではユークリッド距離変換のための、シストリックアレイを用いたハードウェアアルゴリズムを提案する。計算時間の効率化と乗算器などのハードウェア資源を削減するための工夫をし、サイズ$N ?times N$の2値画像に対しクロック数$3N-1$でユークリッド距離変換処理を実行する。そのために必要なハードウェア量は$O(N^2)$である。The Euclidean distance transform is applied in various fields of image processing, such as pattern recognition and morphological filter.In this paper, we propose a hardware algorithm using a systolic array that performs Euclidean distance transform. It is designed so that hardware resources, such as multipliers and comparators, are reduced and processing speed is efficient. It performs Euclidean distance transform for an input of $N \times N$ binary image in $3N-1$ clocks, and the size of the required hardware resources is $O(N^2)$.
著者
黒瀬 浩 服部 進実
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告電子化知的財産・社会基盤(EIP) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.91, pp.77-82, 2008-09-18

学習者が解決すべき課題を設定して,発表と他学習者からの指摘に対する考察を繰り返す課題解決型学習において,学習者の課題解決プロセスの活性化を支援するシステムを提案する.議事録に記載された質問,指摘から Wiki コンテンツを検索し,課題解決の対応状況を可視化する.また,フォークソノミータグを用いて課題解決のプロセスを共有し,学習者のリフレクション促進と学習者間のインタラクションの活性化を支援する.In this paper, we have developed a reflection support system with wiki and folksonomy tags for learning process that problems to be set by graduate student are repeatedly proposed and some solutions are pointed out by other students, in order to get reflective consideration to the student. Interaction and reflection process of the graduate student can be activated by visualization and sharing of problem solving process information with wiki contents and folksonomy tags.