著者
澤田 枝里香 淡路 達人 森下 圭介 古川 正紘 有賀 友恒 木村 秀俊 藤井 智子 武市 隆太 清水 紀芳 井田 信也 常磐 拓司 杉本 麻樹 稲見 昌彦
出版者
特定非営利活動法人 日本バーチャルリアリティ学会
雑誌
日本バーチャルリアリティ学会論文誌 (ISSN:1344011X)
巻号頁・発行日
vol.13, no.3, pp.375-383, 2008-09-30 (Released:2017-02-01)
参考文献数
21
被引用文献数
2

This system is an interface realized with the symbiosis of the input/output of wind and graphics. This system brings the new communication medium of "wind" into the bidirectional interaction between the virtual environment and the real environment by integrating the graphic presentation with the input and output of wind on a special screen. The user can interact with the virtual environment in the screen through his/her breath and wind emission. Conversely, actions from the virtual environment to the user are performed by wind changing dynamically. As a result, the user can share not only sights and sounds but also the cutaneous sensation by wind with the system, and interact with the virtual environment feeling a non-conventional deep relationship.
著者
澤田 枝里香 井田 信也 常磐 拓司 杉本 麻樹 稲見 昌彦 淡路 達人 森下 圭介 古川 正紘 有賀 友恒 木村 秀俊 藤井 智子 武市 隆太 清水 紀芳
出版者
特定非営利活動法人 日本バーチャルリアリティ学会
雑誌
日本バーチャルリアリティ学会論文誌 (ISSN:1344011X)
巻号頁・発行日
vol.13, no.3, pp.375-383, 2008
参考文献数
21
被引用文献数
3

This system is an interface realized with the symbiosis of the input/output of wind and graphics. This system brings the new communication medium of "wind" into the bidirectional interaction between the virtual environment and the real environment by integrating the graphic presentation with the input and output of wind on a special screen. The user can interact with the virtual environment in the screen through his/her breath and wind emission. Conversely, actions from the virtual environment to the user are performed by wind changing dynamically. As a result, the user can share not only sights and sounds but also the cutaneous sensation by wind with the system, and interact with the virtual environment feeling a non-conventional deep relationship.
著者
清水 紀芳
出版者
電気通信大学
雑誌
特別研究員奨励費
巻号頁・発行日
2006

本年度は,身体性を有するユーザインタフェースに関する研究における最終年度に当たり,初年度及び次年度の研究成果を用い,ユーザインタフェースが身体性を持つことの意義に関する調査と,人型ロボットの動作生成や運動を指示するための操作方法の検討を行った.情報世界内の人と同様の身体性を持つCGアバタを操作する際に,それと同形状のロボットをユーザインタフェースとして用意する.そして,ロボットとCGアバタの動作を同期させることで,ユーザは直感的にCGアバタを操作することが出来る.この身体性を有するユーザインタフェースでCGアバタを操作するシステムを,日本科学未来館にて4ヶ月間展示を行い,ワークショップも数日間開催して一般の人々に体験してもらうことで,人型ロボットをユーザインタフェースとして使用する意義に関して知見を得ることが出来た.また,人型ロボットの動作や運動を指示する操作手法として,カメラ画像内に映るロボットに対して直感的にペン入力で操作を行うシステムを作成した.これは拡張現実感技術を組み合わせる事により,モニタ上にペンで移動方向を指示することにより,実世界のロボットを直感的に指示した方向へ歩行させることや,ペンでのジェスチャ入力を用いることにより座る,立つといった複数の動作指示も可能とした.ロボットは多くの関節を持つため,複数の関節を用いた動作を生成する際には多くの時間が必要となっていた.これに対し,CGキャラクタのモーション作成では,逆運動学を用いることで手先位置や胴体の位置を指示するのみで複数の関節を同時に,容易に指示することが可能である.このモーション作成手法を実世界での人型ロボットに対して利用することで,多関節を持つロボットの動作作成を容易にすることを可能にした.