著者
高野 健太郎 大村 賢悟 柴田 博仁
出版者
情報処理学会
雑誌
研究報告ヒューマンコンピュータインタラクション(HCI) (ISSN:18840930)
巻号頁・発行日
vol.2011, no.4, pp.1-8, 2011-01-14
被引用文献数
3

本稿は,電子書籍端末の読みやすさを評価することを狙いとする.26 名の被験者に紙の書籍,iPad,Kindle,ノート PC を用いて短編小説を読んでもらい,読書速度,読書時の認知負荷,メディアに対する主観評価の観点から読みやすさを比較した.結果として,第 1に,ページめくりを含まない場合は 4 種類のメディアでの読書速度は同水準であり,ページめくりを含む場合は Kindle とノート PC に比べて紙の書籍と iPad での読みは有意に速かった.第 2に,NASA-TLX を用いた読書時の認知負荷の測定の結果,4 種類のメディア間に認知負荷の有意な差は認められなかった.最後に,メディアに対する主観評価では,iPad の評価は表示品質,操作性,読書端末としての総合評価では肯定的な評価であり,読書時の疲労やメディアの重量に対しては否定的な評価であった.一方,Kindle の評価は表示品質や読書時の疲労,メディアの重量に対しては肯定的な評価であったが,操作性や読書端末としての総合評価では否定的な評価であった.また,いずれの主観評価項目でも紙の書籍は,異なるメディアのなかで最も高い評価を得た.This paper aims to evaluate readability of electronic books. Twenty six subjects read short stories using paper books, iPad, Kindle, and a notebook PC. We evaluated readability through an experiment comparing reading speed, cognitive load, and subjective evaluation. At first, no significant differences were found in the reading speed between the four media in the case of reading without turning pages. However, in the case of reading that includes turning pages, subjects read with paper books significantly faster than the case of Kindle and the notebook PC. Second, we measured the cognitive load of reading in each media using NASA-TLX, but we could not find significant differences between the four media. Finally, subjective evaluation shows that iPad had a positive score in the overall evaluation as a reading device, display quality, and usability, but it had a negative score as for fatigue during reading and the weight of the device. On the other hand, Kindle had a positive score as for display quality, fatigue during reading, and the weight of the device, but it had a negative score in the overall evaluation as a reading device and usability. As a total, paper books were evaluated highest between the media in almost all criteria of subjective evaluation.
著者
平沢 純一 村上 久幸 田中 幸 木伏 祐治
出版者
情報処理学会
雑誌
研究報告音声言語情報処理(SLP) (ISSN:18840930)
巻号頁・発行日
vol.2010, no.10, pp.1-4, 2010-10-22
被引用文献数
1

音声認識エンジンを用いて音声認識 HMI の製品・サービスを開発するカスタマは,品質 (認識精度) について何をどのようにリクエストしてくるのか?を紹介しながら,音声認識エンジンのベンダはどのような技術サポートを提供することが可能なのか?を議論する.議論のポイントは,「カスタマからの期待」 と 「現在の音声認識技術で可能な技術サポートの現実レベル」 との間に存在する溝を,どのようにして埋めたらよいのか?である.This article describes how customers developing products and services with speech HMI would question and request for speech recognition engine vendors in terms of speech recognition accuracy requirement. It also discusses what types of support speech vendors can provide in response to their requests. The key issue here is to fill the gaps between customers' expectations and what speech vendors could actually provide.
著者
岩元 祐輝 菅谷 保之 金谷健一
出版者
情報処理学会
雑誌
コンピュータビジョンとイメージメディア(CVIM) (ISSN:18840930)
巻号頁・発行日
vol.2011, no.19, pp.1-8, 2011-01-13
被引用文献数
1

多画像から3次元形状復元を行うバンドル調整のアルゴリズムを最新の研究に基づいて詳細に記述する.本論文で着目するのはカメラ回転の適切な取扱い方,および特徴点と画像数が多いときの計算とメモリの効率化であり,これらがバンドル調整実装の骨子となる.そして,2画像からの基礎行列の計算,および多画像からの3次元復元に対する実験行い,その性能を評価する.We describe in detail the algorithm of bundle adjustment for 3-D reconstruction from multiple images based on our latest research results. The main focus of this paper is the handling of camera rotations and the efficiency of computation and memory space usage when the number of feature points and the number of frames are large. An appropriate consideration of these is the core of the implementation of bundle adjustment. Doing experiments of fundamental matrix computation from two images and 3-D reconstruction from multiple images, we evaluate the performance of bundle adjustment.
著者
松本 裕治 浅原 正幸 岩立 将和 森田 敏生
出版者
情報処理学会
雑誌
研究報告自然言語処理(NL) (ISSN:18840930)
巻号頁・発行日
vol.2010, no.18, pp.1-6, 2010-11-11
被引用文献数
1

科研費領域研究研究 「日本語コーパス」 の一環として開発してきたコーパス管理ツール 「茶器」 の機能と現状について報告する.茶器は,形態素解析 (品詞情報),係り受け解析のアノテーション (注釈) が付与されたコーパスを格納し,様々な検索,検索結果や統計情報の表示,注釈誤りの修正などの機能をもつツールであり,注釈付きコーパスの格納,検索,作成,修正のための環境を提供する.主な機能は,文字列,形態素列,文節係り受け構造などを指定したコーパスの検索と,検索結果の KWIC 表示と係り受け木の表示,種々の統計情報の表示,注釈付けエラーの修正などである.現在は,茶筌/ MeCab による形態素解析,南瓜による係り受け解析結果をデータベースに取り込む機能を提供するが,特に言語には依存せず,任意の言語の品詞/依存構造注釈付きコーパスを扱うことができる.This paper introduces a annotated corpus management system ChaKi that has been developed under the auspices of the Japanese Corpus Project (Grantin-Aid for Scientific Research in Priority Areas). The system handles morphologican and dependency structure annotated corpora and facilitates various functions such as storing, retrieving, creating and error-correcting annotated corpora. String, word and dependency structure based corpus retrievals are possible, and the results are shown as KWIC format or as dependency trees. While the current system transfers corpora with the ChaSen/MeCab or CaboCha output format into databases, it is language independent and can be applied flexibly to any POS/dependency structure annotated corpora.
著者
児玉 公信
出版者
情報処理学会
雑誌
研究報告デジタルドキュメント(DD) (ISSN:18840930)
巻号頁・発行日
vol.2010, no.6, pp.1-6, 2010-11-19

複数の人間活動システムが,それぞれの仕事を独立に実行しながら,一方で連携する状況は,ビジネスのシステムではよく見られる.しかし,独立したシステムはそれぞれ微妙に異なる意味論を持っており,システム間のコミュニケーションにおいて誤解やムダを発生させる原因となっている.また,こうしたシステム間連携が,互いのビジネスプロセスにコミットすればするほど,意味論,プロトコル,媒体の多様化が必然となり,コミュニケーション形態の多様性は爆発する.これは,EDI (Electronic Data Interchange) の決定版がいまだ存在しないことを見ても分かる.本報告では,こうしたビジネスシステム間のコミュニケーションが本来,共約不可能性を含意することを前提としつつ,その多様性をどのように制御できるかについて,概念モデリングを援用して試論する.The situation in which several Human Activity Systems cooperate while executing a work by themselves is frequently seen in business systems. However, each system has slightly different semantics, and it causes the misunderstanding and uselessness in the communications among the systems. Further, as such systems commit more tightly with each business processes, the diversification of semantics, protocols, and medium becomes more inevitable, and the diversity in the communications explodes. The fact that the definitive edition of EDI (Electronic Data Interchange) has not been present proves it.In this report, assuming that the communication among such business systems implies the incommensurability, we discuss tentatively how the diversity can be controlled from the viewpoint of the conceptual modeling.
著者
水田 昌孝 熊野 雅仁 小野 景子 木村 昌弘
出版者
情報処理学会
雑誌
研究報告数理モデル化と問題解決(MPS) (ISSN:18840930)
巻号頁・発行日
vol.2010, no.10, pp.1-6, 2010-12-09

我々は以前に,文書ストリームからバースト潜在トピック抽出する t-LDA 法を提案した.t-LDA 法は,潜在トピックを抽出するために文書生成確率モデル LDA (Latent Dirichlet Allocation) を用い,バーストトピックを同定するために時間フィルタを導入している.そして,LDA と時間フィルタに基づいて,時間情報を持つ 2 つの文書間の類似度を構築し,階層的クラスタリング法を適用することで文書ストリームからバースト潜在トピックを抽出している.本稿では,人工データを用いた実験により t-LDA 法の定量的な有効性を検証し,オンラインニュースデータを用いた実験により t-LDA 法の有効性を実証する.We previously proposed the t-LDA method that extracts bursty latent topics from a documet stream. The method utilizes Latent Dirichlet Allocation (LDA), which is a probabilistic generative model of documents, for extracting latent topics, and introduce a time-filter for identifying bursty topics. It constructs a measure of similarity between two documents with time-stamps on the basis of LDA and the time-filter, and extract bursty latent topics from a document stream by applying a hierarchical agglomerative clustering method. In this paper, we quantitatively verify its effectiveness by using synthetic data, and demonstrate its effectiveness by using real online news data.
著者
岡部 晋典 福島 幸宏 村田 良二 後藤真
出版者
情報処理学会
雑誌
研究報告 人文科学とコンピュータ(CH) (ISSN:18840930)
巻号頁・発行日
vol.2011, no.7, pp.1-3, 2011-01-15

人文科学研究には当然ながらさまざまな資料を必要とする。コンピュータを応用した研究もその例外ではない。この小特集セッションでは、人文科学とコンピュータに関わる研究の基礎となる資料について、それを扱う諸機関の現状と資料の特性を確認すると同時に、人文科学とコンピュータ研究への効果的な活用方法や、これら諸機関ではどのようなデジタル化が望まれているのかを再確認したい。In this special session, we discuss about the research materials becoming basic of "the computer and the humanities study". We discuss the characteristic of the research materials of the museum, library and archives. In addition, We argue the effective usage to the humanities and a computer study. And we consider what we expect design of digitization at the museum, library and archives.
著者
山石 忠弘 林 敏浩 垂水 浩幸
出版者
情報処理学会
雑誌
研究報告コンピュータと教育(CE) (ISSN:18840930)
巻号頁・発行日
vol.2010, no.12, pp.1-5, 2010-11-13
被引用文献数
1

プログラミング教育において,座学でプログラムの知識を身に付けた学習者が,ソースプログラムを正しく読み取れないことがある.原因として,プログラムが動く仕組み理解できていないので,プログラム処理がわからないと考える.本研究では,プログラム処理がわからない学習者に対して,踊りによるプログラム処理の可視化を行うことで,プログラム処理の理解支援を行う.Many learners who have the programming knowledge by classroom lecture, but they cannot read source programs correctly in some cases. As for the cause, we think students cannot understand the process of programs because they do not have enough knowledge about how programs run. For such students, this research assists to understand the process of programs by visualizing them as dance.
著者
高間 浩樹 越前 功 吉浦 裕
出版者
情報処理学会
雑誌
研究報告コンピュータセキュリティ(CSEC) (ISSN:18840930)
巻号頁・発行日
vol.2009, no.27, pp.1-6, 2009-05-21

取調べの可視化によって自白の任意性が客観的かつ容易に確認可能になるとの期待がある,一方,取調べの妨げや裁判の非効率化につながるとの指摘もある.①取調べの可視化に対する期待を実現するために技術によってどのような支援ができるか,②取調べの可視化について指摘される問題点を技術によってどのように軽減することができるか,という観点から取調べの可視化について分析し,(1)ヒューマンエラーの防止,(2)開示の完全性,(3)プライバシーの保護,(4)可視化記録の閲覧の効率化,という4つの技術課題を明らかにした.このうち(1)~(3)を解決する方法として,個々の被疑者を区別せず全ての取調べを自動的に記録し,一元管理する方法,顔・声紋識別を用いて一元管理された記録中から当該被疑者の記録のみを漏れなく検索する方法を提案し,これらを統合した取調べ可視化システムを提案する.In this paper, we analyze problems in visual interrogation recording and clarify four technical requirements for IT technologies to solve these problems; (1) preventing human errors, (2) guaranteeing completeness of record disclosure, (3) protecting privacy of irrelevant people, and (4) enabling effective survey of long record. To meet these requirements, we propose a method that automatically records interrogation without discriminating each suspects, a method that uses face and voice recognition techniques to retrieve all records of the target suspect without retrieving those of other suspects, and the system that integrates these methods.
著者
池田 和史 柳原 正 服部 元 松本 一則 小野 智弘
出版者
情報処理学会
雑誌
研究報告データベースシステム(DBS) (ISSN:18840930)
巻号頁・発行日
vol.2010, no.39, pp.1-8, 2010-11-05

評判解析や文書の要約、検索などを高精度に行うために、係り受け解析や格解析が用いられるが、ブログや電子掲示板上の文書を対象とする場合、口語的な記述が多数見られるため、十分な解析精度が得られないことが課題となる。本稿では、口語的な記述に頻繁に見られる助詞落ち表現が解析精度低下の原因の1つであることに着目し、助詞落ちを自動的に推定し、欠落した助詞を補完することで解析精度を向上する手法を提案する。提案手法では、新聞などの助詞落ちの少ない正規の文書から意図的に助詞落ちを発生させた文書を正例、助詞落ちを発生させていない文書を負例として識別器を学習させ、解析対象である口語文書の助詞落ち箇所を推定する。加えて、推定した助詞落ち箇所の前後の単語をキーとして新聞文書を検索することで、適切な助詞を自動的に補完する。性能評価実験では、Webから収集したブログ文書に対して、人手により助詞落ち箇所と補完すべき助詞を付与し、提案手法における助詞落ち推定精度および補完精度の評価を行った。加えて、助詞を補完することによる係り受け解析精度の向上についても評価した。In this paper, we propose algorithms for reducing the errors of the dependency analysis on colloquial style sentences by complementing the omission of postpositions which makes dependency analysis errors. In our algorithms, the omission of postpositions is detected by a classifier which is trained by the features extracted from formally written documents such as newspaper sentences. As positive examples of the classifier, we automatically omit the postpositions from newspaper sentences, and as negative examples, we used the newspaper sentences as they are. After estimating the omission of the postpositions, complementation candidates of the omitted postpositions are automatically retrieved from newspapers. In the experimental evaluations, we collect blog documents which contain colloquial style sentences and manually labeled the omitted postpositions on them. We evaluated the estimation accuracy, complementation accuracy, and improvement of the dependency analysis accuracy.
著者
久保田 悠司 高橋 大介
出版者
情報処理学会
雑誌
研究報告ハイパフォーマンスコンピューティング(HPC) (ISSN:18840930)
巻号頁・発行日
vol.2010, no.19, pp.1-7, 2010-12-09

近年,科学技術計算の分野で GPGPU が注目されている.科学技術計算では,特に疎行列ベクトル積を用いることが多いため,疎行列ベクトル積の高速化が重要である.疎行列には多くの格納形式があるが,疎行列によって最適な格納形式は異なる.そこで,本研究では与えられた疎行列によって最適な格納形式に変換してから,疎行列ベクトル積を行うことで高速化を図る.まず予備実験として,いくつかの疎行列の格納形式について,疎行列ベクトル積を実装し,実行速度を測定した.その後,予備実験の結果をもとに自動選択するためのパラメータを決定し,自動選択アルゴリズムを実装する.また,実装したアルゴリズムを,反復法による連立一次方程式の求解を用いて評価した.その結果,多くの疎行列において最適な格納形式を選択し高速化することに成功した.Sparse matrix vector multiplication is one of the most often used functions in scientific and engineering computing.The storage schemes for sparse matrices have been proposed,however,each sparse matrices have an optimal storage scheme,In this paper,we propose an auto-tuning algorithm of sparse matrix vector multiplication by selecting storage schemes automatically on GPU,We evaluated our algorithm using Conjugate Gradient solver.As a result,we found that our algorithm was effective in many sparse matrices.
著者
徳永 旭将 池田 大輔 中村 和幸 樋口 知之 吉川 顕正 魚住 禎司 藤本 晶子 森岡 昭 湯元 清文 CpmnGroup
出版者
情報処理学会
雑誌
研究報告数理モデル化と問題解決(MPS) (ISSN:18840930)
巻号頁・発行日
vol.2010, no.14, pp.1-6, 2010-12-09

一般に,前兆現象は突発現象にそのものに比べて非常に目立ちにくく,その開始時刻は曖昧である.従来よく用いられてきた変化点検出法を適用した場合,このような微小で緩慢な変化は見逃されやすい.Tokunaga et al.1) では,Ide and Inoue2) の提案した特異スペクトル分析を応用した変化点検出法 (SST) を,多次元データを用いたアルゴリズム (MSST) へと拡張することで,鋭敏に前兆現象の開始時刻を推定出来ることを示した.MSST は,緩慢な変化も検出できる鋭敏な手法であるが,実データへの適用では誤検出が問題になる.本稿では,突発現象の大まかな開始時刻を予め検出し,さらに検出された時刻の前後で前兆現象の開始時刻と終了時刻を個別に探索することで,誤検出を劇的に減少させることができることを示す.
著者
田邊 昇 Boonyasitpichai Nuttapon 中條 拓伯
出版者
情報処理学会
雑誌
研究報告ハイパフォーマンスコンピューティング(HPC) (ISSN:18840930)
巻号頁・発行日
vol.2010, no.16, pp.1-10, 2010-12-09

各種プロセッサのメモリシステムにおける不連続アクセスにおける問題を解決するために筆者らは先行研究で後付けが可能な Scatter/Gather 機能を有する拡張メモリシステムを提案した。これまで Wisconsin ベンチマーク、疎行列ベクトル積などのアプリケーションで評価を行ない、有効性を示してきた。それらの評価研究では提案拡張メモリシステム側のスループットを十分にできるということが前提であった。本報告ではその前提が成り立つか否かについて、メモリシステム側のスループットの実現性を DRAMsim2 ベースのシミュレーションによって評価した。その結果、DDR3・8bit 幅・8 チャネル以上で先行研究の結果の正当性を支持する所望のスループットが得られることを確認した.In order to overcome the problems of discontinuous accessing in memory systems of various processors, we have proposed an extended memory system which has an additional function of scattering and gathering. So far, we have been evaluating our proposed system with Wisconsin benchmark suites and sparse matrix vector multiplications etc. In the evaluations, we assumed that throughput of our proposed memory system was sufficient. In this paper, we have confirmed the assumption on feasibility of throughput of the memory system is correct or not with a simulator based on DRAMsim2. As the result, we have confirmed desired throughput which can justify the proceeded results can be implemented with DDR3 of 8 bits width over 8 channels.
著者
大野 邦夫 角山 正樹
出版者
情報処理学会
雑誌
研究報告デジタルドキュメント(DD) (ISSN:18840930)
巻号頁・発行日
vol.2010, no.1, pp.1-8, 2010-11-19

UML により得られるクラス図を XML 文書として実装する手法は、XMI、MDA などが知られているが、特定業界の特定分野に特化された形式でしか使用されていない。より単純で汎用的な手法を CLOS と LISP の S 式を用いて実現したので紹介する。属性を用いない場合、XML と S 式は共に木構造情報を管理するので対応付けることが可能である。CLOS のインスタンスに S 式のリストを用いこの手法を用いて XML に変換することにより、クラス図に対応する XML 文書を生成する方法を考案した。具体的な事例として、ジョブカードの各種様式をクラス図としてモデル化し、XML に変換し、さらに XSLT を用いて Web に表として出力させた場合を取り上げ、その有効性について述べる。Though UML Class Diagrams can be implemented to XML data or document through XMI and MDA, they are introduced to limited fields within certain industries. This paper describes a more general and simplermethod of crating and managing XML information from the UML class diagram. XML data without attribute can be expressed by symbolic equation of LISP language, because they both express the tree datamodel. Based on this analogy, object instance data created from hierarchical classes can be converted to XML data through the list data as CLOS instance variables. As an example, governmental Job Card formats are converted to XML from the UML class diagrams, and finally displayed as Web table data of HTML through XSLT.
著者
Charles Riley
出版者
情報処理学会
雑誌
研究報告 デジタルドキュメント(DD) (ISSN:18840930)
巻号頁・発行日
vol.2011, no.9, pp.1-8, 2011-01-14

In Africa, there are many countries where the official languages are written in Latin scripts, because of their historical formation. But their own writing systems has been developed since 19-20th century, and some of them are proposed to the international standards. The famous example is N'Ko script standardized in 2006. In this report, the status of the standardization for the scripts that are not standardized yet (Vah, Kpelle, Loma, Garay, Bete etc) is summarized.In Africa, there are many countries where the official languages are written in Latin scripts, because of their historical formation. But their own writing systems has been developed since 19-20th century, and some of them are proposed to the international standards. The famous example is N'Ko script standardized in 2006. In this report, the status of the standardization for the scripts that are not standardized yet (Vah, Kpelle, Loma, Garay, Bete etc) is summarized.
著者
安積 武志 光来 健一 千葉 滋
出版者
情報処理学会
雑誌
研究報告システムソフトウェアと オペレーティング・システム(OS) (ISSN:18840930)
巻号頁・発行日
vol.2011, no.3, pp.1-8, 2011-01-17

クラウドコンピューティングにおいて、ユーザに提供している仮想マシン (VM) からの踏み台攻撃はデータセンタにとって大きな問題である。VM から踏み台攻撃が行われると、データセンタが攻撃者とみなされる可能性がある。ファイアウォールで踏み台攻撃の通信を遮断することができるが、踏み台にされた VM からの通信を完全に遮断してしまうとサービス可用性が低下してしまう。高いサービス可用性を保つため、我々は仮想マシンモニタ (VMM) で動作するきめ細かいパケットフィルタ xFilter を提案する。xFilter は VM のメモリ解析を行って取得したゲスト OS 内の情報を用いることで、踏み台攻撃を行っているプロセスからのパケットのみを破棄する。踏み台攻撃を検出する侵入検知システムも VMM で動作させることで、パケットの送信元を特定する精度を高めている。いくつかの最適化を行うことで xFilter のオーバーヘッドを小さくすることができた。In the cloud computing era, stepping-stone attacks via hosted virtual machines (VMs) are critical for data centers. When VMs attack external hosts, data centers may be regarded as attackers. External firewalls are useful for stopping such attacks, but the service availability of stepping-stone VMs remarkably lowers if all packets from the VMs are dropped. For higher service availability, we propose a fine-grained packet filter running in the virtual machine monitor (VMM), which is called xFilter. xFilter drops only packets from processes performing stepping-stone attacks by using information in guest operating systems. It analyzes the memory of VMs to obtain such information. An intrusion detection system in the VMM accurately specifies attacking processes. Our experimental results show that xFilter achieves low overheads thanks to several optimizations.
著者
黒田 佳世 榎本 友里枝 高田 雅美 城 和貴
出版者
情報処理学会
雑誌
研究報告数理モデル化と問題解決(MPS) (ISSN:18840930)
巻号頁・発行日
vol.2010, no.35, pp.1-6, 2010-12-09

本稿では,本の見開き画像をテキスト化する際に生じる誤認識を修正する機能をもつポータルサイトを設計する.対象とする画像は,国会図書館が所有する近代書籍のデジタル画像とする.このデジタル画像に対して,近代書籍専用の活字文字認識を適用することによりテキスト化は可能であるが,誤認識が生じる.これを修正するために,デジタル画像とテキスト文書を用いる.提案するポータルサイトでは,テキスト文書と画像データを対応させるメタデータを作成することによって,テキストに対応する画像を表示させることを可能にする.In this paper,we present a design of a portal site which has functions for correcting erratums.These erratums are caused when the facing images,which are owned by Digital Library from Meiji Era in National Diet Library,are transformed into text documents.Although those images can be transformed by using an OCR,which is specialized in early-modern printed books,the OCR infrequently cause erratums.So,to correct them, we take by means of those images and text documents. In this case,we make the metadata by which text can be corresponded to image .
著者
三浦 和起 日野 英逸 村田 昇
出版者
情報処理学会
雑誌
研究報告数理モデル化と問題解決(MPS) (ISSN:18840930)
巻号頁・発行日
vol.2010, no.9, pp.1-6, 2010-12-09

時系列の予測は古くからある重要な問題であり,特に株価の予測は経済動向の予測や資産運用の指針として需要が高い.コンピュータ性能の発達と共に,学習理論を用いた経済時系列データに関する研究が活発に行われているが,株価のメカニズムを捉えることは依然として困難な問題である.本稿では,単一の予測モデルにより株価を一点で予測するのではなく,複数の予測モデルの学習を行い,各モデルに適切な重みを付けることで予測値の分散を低減する手法を提案する.基礎となる予測モデルは遺伝的プログラミングを用いて構成する.各予測モデルの重みは,学習用データと予測モデルの出力値とのクロスエントロピーが最小となるように定める.提案した予測手法の有用性を,人工データ及び日経平均株価の 1 分足の予測によって検証する.Prediction of time series data is a long standing important problem. Especially, prediction of stock price is much in demand for forecasting the economic trend and guideline for asset maintenance. Although there are growing number of studies on learning theory based time series prediction, the prediction of stock prices is still being very difficult task. In this study, the stock prices is predicted not only using one predictor, but using a set of predictors generated by the method of Genetic Programming (GP). Each element predictor is given non-negative weight, and the weight is optimized to minimize the cross entropy between the true learning stock prices and the weighted sum of predicted values. The proposed stock price prediction method is evaluated using both an artificial data and real-world stock price data.
著者
水田 昌孝 熊野 雅仁 小野 景子 木村 昌弘
出版者
情報処理学会
雑誌
研究報告数理モデル化と問題解決(MPS) (ISSN:18840930)
巻号頁・発行日
vol.2010, no.10, pp.1-6, 2010-12-09

我々は以前に,文書ストリームからバースト潜在トピック抽出する t-LDA 法を提案した.t-LDA 法は,潜在トピックを抽出するために文書生成確率モデル LDA (Latent Dirichlet Allocation) を用い,バーストトピックを同定するために時間フィルタを導入している.そして,LDA と時間フィルタに基づいて,時間情報を持つ 2 つの文書間の類似度を構築し,階層的クラスタリング法を適用することで文書ストリームからバースト潜在トピックを抽出している.本稿では,人工データを用いた実験により t-LDA 法の定量的な有効性を検証し,オンラインニュースデータを用いた実験により t-LDA 法の有効性を実証する.We previously proposed the t-LDA method that extracts bursty latent topics from a documet stream. The method utilizes Latent Dirichlet Allocation (LDA), which is a probabilistic generative model of documents, for extracting latent topics, and introduce a time-filter for identifying bursty topics. It constructs a measure of similarity between two documents with time-stamps on the basis of LDA and the time-filter, and extract bursty latent topics from a document stream by applying a hierarchical agglomerative clustering method. In this paper, we quantitatively verify its effectiveness by using synthetic data, and demonstrate its effectiveness by using real online news data.
著者
相原 健郎 林 晋
出版者
情報処理学会
雑誌
研究報告 デジタルドキュメント(DD) (ISSN:18840930)
巻号頁・発行日
vol.2011, no.5, pp.1-5, 2011-01-14

本報告では,文献資料を用いた研究用ツール SMART-GS について紹介する.人文学研究において扱われる手書き文献資料は,そもそもそれらの判読・翻刻自体が困難な場合が多く,読み解く過程が研究において重要である.したがって,これらの文献画像を文字認識等の技術を用いて文字化することを前提とする方法論では,それらの過程の支援にはならない.そこで林は,文献画像を文字化せず画像のまま扱う 「画像化主義」 を提唱した.SMART-GS は,文献資料を画像のまま扱い,類似画像検索等の機能を用いて関連記述を動的に抽出することが可能なツールである.本報告では,SMART-GS の概要を使用例などを示しながら紹介するとともに,現在開発が進められている複数研究者らが使うことを前提とした 「協働型」 への拡張について述べる.This report introduces a tool that supports researchers to decipher digital document images. In humanities research, reference to primary historical documents is vital. However, the accuracy of existing tools based on OCR text recognition is not good enough for their users, especially researchers in historical fields who handle handwritten materials. Hayashi proposed an alternative approach to handle not textualized contents from materials but images. SMART-GS uses an image search engine to find similar figures to the designated key image. In this report, an outline and some use cases of SMART-GS are described. In addition, the design of collaborative SMART-GS to support group works of deciphering is overviewed.