著者
掘鉄郎 相澤 清晴
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告オーディオビジュアル複合情報処理(AVM) (ISSN:09196072)
巻号頁・発行日
vol.2003, no.125, pp.157-162, 2003-12-19
被引用文献数
2

近年,コンピュータが我々の日常生活において常に身近な存在となる,ウェアラブル・ユビキタスなコンピューティング環境が整いつつある.本稿ではこのような環境を想定し,小型なカメラにより個人の体験を記録し続けることで,あたかもユーザーの日記・自伝のようなもの(ライフログビデオ)を簡単に作成するようなシステムの構築を試みている.このシステムでは,小型カメラとマイクロフォンから取得したビデオだけではなく,それと同期をとりながら,ユーザーのコンテキストを推定するために様々なセンサー群からのデータを常時取得することができる.加えて,それらセンサー群のデータとデータベース等とを組み合わせて利用することでユーザーのコンテキストを推定し,それに基づいて取得したビデオを効率的に検索することが可能となっている.One of the characteristics of Wearable/Ubiquitous Computing is that computres are embeded in our life. In such computing environments, digitization of personal experiences will be made possible by continuously recording using a wearable video camera. It can lead to "automatic life-log application". In this paper, we attempt to develop "context-based video retrieval system for the life-log applications". This wearable system is capable of continuously capturing data not only from a wearable camera and a microphone, but also from various kinds of sensors to extract the user's context. In addition, the system provides functions which make efficient video browsing and retrieval possible by using data from these sensors and some databases.

言及状況

はてなブックマーク (1 users, 1 posts)

収集済み URL リスト