著者
放地 宏佳 三好 健文 入江 英嗣 吉永 努
雑誌
研究報告ユビキタスコンピューティングシステム(UBI)
巻号頁・発行日
vol.2011, no.11, pp.1-8, 2011-11-17

スマートフォンや情報家電といったネットワーク接続可能なデバイスにより実世界の多種多様な場面で情報処理を活用できるようになった.それに伴って,多種多様な用途を対象としたアプリケーションが求められるようになっている.そこで,多様化するアプリケーションをユーザ自身が開発できるよう,プログラミングに慣れていないユーザであっても,自らのアプリケーションへの要求を自らで満たすことが可能なマッシュアップフレームワーク IDUMO を提案する.IDUMO フレームワークでは,マッシュアップに必要不可欠な機能である,(1) 統一的な入出力インタフェースの定義,(2) プログラム実行モデルの差異の吸収,(3) 容易な開発方法,を提供する.本論文では,IDUMO フレームワークの設計について述べ,アプリケーション開発のケーススタディにより有用性を示す.As smartphones and information appliances are widely used, we can employ information processing in all areas of day-to-day lives. Based on this, various applications are required for each of our activities. In order to make users to develop such required applications easily, a mashup framework IDUMO is proposed. IDUMO framework provides three features to support mashup; 1)unified interfaces for input/output data, 2)adaptability for various program execution models 3)friendly implementation method. In this paper, the design of IDUMO framework is described and the availability is shown by several case studies to implement application with the framework.
著者
入江 英嗣 森田 光貴 岩崎 央 千竃 航平 放地 宏佳 小木 真人 樫原 裕大 芝 星帆 眞島 一貴 吉永 努
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.55, no.4, pp.1415-1427, 2014-04-15

本論文では,光学シースルー方式HMD向けのユーザインタフェースとして,仮想オブジェクトや現実オブジェクトを指で直接指定することのできる"AirTarget"システムを提案する.AirTargetはHMDに取り付けたカメラからユーザの指の位置を検出し,カメラと視線のずれを補正する新規アルゴリズムにより,指先にカーソルを重畳表示する.軽量なアルゴリズムにより指先はマーカレスで検出され,特定の入力デバイスや外部計算機を必要としない.簡単なジェスチャによってコンピュータにコマンドを送ることができ,プログラムの入力インタフェースとして機能する.ユーザは仮想平面上のデスクトップを指差して操作することや,視界に入った現実オブジェクトを指で切り出して画像検索のクエリとすることができる.このような可搬性と操作感から,外出先を含む日常生活のあらゆるシーンにコンピューティングを浸透させるインタフェースとして有効である.Android端末として機能するHMD上に提案システムを実装し,システムのリアルタイム性,検出精度,操作感の評価を行った.提案システムは18フレーム以上のリアルタイム動作を実現し,また,クリックジェスチャ操作を高い認識率および精度で実現した.In this paper, a system "AirTarget", which can point virtual and real object directly with user's finger is proposed for optic see-through HMD devices. The camera attached to the HMD device detects the position of user's fingertip, calibrates the gap between the sight of the camera and eye, and displays the cursor overlapped to the finger on the virtual plain. Finger detection is done in markerless image processing, so that it does not require specific input devices or external computer. This system enables to send control commands by simple gesture, working as a self-contained interface. The user is able to point a virtual object with their finger, and able to cut out an object of the real sight which can be used as a query of the image searching. Such portability and operability enforces AirTarget as an effective interface to be attached to every scene of daily life including outdoors. We implemented the proposal system on the HMD as an Android device and evaluated its real-time properties, detection accuracy, and operability. The algorithm achieved more than 18fps which is sufficient to real time operation. Also, the quick gesture operation was achieved in high accuracy and recognition rate.