著者
小島 將 苗村健
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告オーディオビジュアル複合情報処理(AVM) (ISSN:09196072)
巻号頁・発行日
vol.2004, no.126, pp.185-190, 2004-12-10

筆者らはこれまでに、動空間の多視点画像をレンズアレイを用いて取得し、実時間で被写体空間の自由視点画像を合成・表示するシステムを提案してきた。本システムではカメラアレイの代わりにレンズアレイを用いるため、より多数の視点からより高密度な多視点画像を取得することが可能である。しかしその反面、各視点の画像(要素画像)の画素数は少なくせざるを得ない。このとき、合成画像の画質は要素画像の画素数など、撮像系の設定条件に大きく影響されるため、筆者らは撮像光学系におけるサンプリング理論についても検討を続けてきた。本稿では、このサンプリング理論に基づき、合成画像を高画質化するために撮像系を拡張・改良し、レンズアレイとカメラアレイを併用したシステムを提案する。また、提案システムを用いて理論の実験的な検証を行う。We have proposed an image-based rendering system which can capture a dynamic 3D scene and synthesize its arbitrary views in real time.Since our system uses a lens-array,it can capture a larger number of multiple viewpoint images more densely.However,the number of pixels in an elemental image,which corresponds to an image captured by one of the array of cameras,is quite small.The number of pixels in an elemental image has a great effect on the quality of synthesized images,so we have also studied a sampling theory on the capturing optical system.In this paper,for enhancing the quality of synthesized images,we propose a novel system which uses a combination of lens array and camera array based on our sampling theory.We also examine our theory by experiments using the proposed system.
著者
田口 裕一 高橋 桂太 苗村健
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.27, pp.79-86, 2008-03-10
被引用文献数
5

64台のネットワークカメラアレイを用いた実時間全焦点自由視点映像合成システムについて報告する.本システムでは,所望の視点位置における画素単位の奥行きマップを実時間で推定し,高品質な全焦点自由視点映像を合成する.画像合成処理をすべてGPU上で実装することにより,CPUとGPUで効率的な並列計算を行うシステムを1台のPCで実現した.これにより,解像度QVGAの入力多視点映像を用いて,フレームレート24fpsでの自由視点映像合成が可能となった.さまざまなシーンにおける高品質な自由視点映像を実験結果として示す.We present a real-time video-based rendering system using a network camera array. Our system consists of 64 commodity network cameras which are connected to a single PC through Gbit Ethernet. To render a high-quality novel view, we estimate a view-dependent per-pixel depth map in real-time based on a layered representation. The rendering algorithm is fully implemented on GPU, which allows our system to efficiently perform independent and parallel processing of CPU and GPU. Our system renders free-viewpoint videos at 24 fps using QVGA input video resolution. Experimental results show high-quality images synthesized from various scenes.
著者
苗村健
雑誌
情報処理
巻号頁・発行日
vol.47, no.4, pp.356-361, 2006-04-15