著者
秦 淑彦 廣瀬 竜男 中西 吉洋 田中 克己
出版者
一般社団法人情報処理学会
雑誌
情報処理学会論文誌データベース(TOD) (ISSN:18827799)
巻号頁・発行日
vol.42, no.4, pp.14-26, 2001-03-15
被引用文献数
4

多数のカメラで撮影され相互に時間同期した多視点映像の応用として,運動会やコンサートなどのイベントにおいてユーザが興味を抱いた被写体を,ユーザが見ているシーンと比べ``よりよく''写している映像シーンを検索することが考えられる.このような応用に対する1つの技術課題は,検索の仕方や被写体に関する十分な知識を持たない一般ユーザが,興味ある被写体を見つけ簡単に問合せを形成できる仕組みを提供することである.もう1つは,ユーザが注目した被写体を``よりよく''写す映像,たとえばズームアップした映像や反対側から撮った映像シーンを探して表示する機能の実現である.本論文ではこれらの課題に対して,カメラメタファに基づく多視点映像の問合せ検索方式を提案する.まず,我々が慣れ親しんだカメラ操作を問合せ形成のためのメタファとする検索カメラを考え,検索カメラのファインダに写る被写体を観察し,興味あるものを探して指定する.次に,興味対象を指定した際の検索カメラの撮影時刻と撮影範囲を問合せ情報として,撮影時刻と撮影範囲をメタデータとして有する多視点映像を時空間上で検索し,興味ある被写体を``よりよく''写している映像区間の集合を得る.検索結果には映像実体データ以外に被写体の写り具合を計算するための情報が含まれ,ユーザの好みに応じた映像を選択して表示する.さらに,提案方式をプロトタイプとして実装し,時空間検索アルゴリズムに対する実験評価を行う.Suppose that, in an event such as a sports meeting or a concert, a user searches and gets video scenes taking interesting objects ``better'' from multiple perspective video that means a collection of mutually-synchronized video data taken by a lot of cameras. For such applications, one of the most important research issues is how to provide a mechanism that a user can find out interesting objects and create appropriate queries easily to get video scenes taking such objects, even if the user does not have enough knowledge about the objects and how to query them. Another issue is how to search video scenes that take the objects ``better''. In this paper, we propose a novel query method with camera metaphor for multiple perspective video. We consider ``query by camera'' with metaphor of video camera operations familiar with an ordinary user in order to create queries. A user finds out and specifies interesting objects while looking at scenes through a query camera's finder. Query parameters are time and focused object areas of the video interval taken by a query camera. Then multiple perspective video data with metadata of their time stamps and focused object areas are searched spatio-temporally. A user can get multiple stream video data taking focused objects and data indicating how the objects are taken in each video scene. We also describe a prototype of our query method and some experimental results of its search algorithm.