著者
松村 未来 アヌラグアグラワル 中澤 篤志 竹村 治雄
出版者
一般社団法人情報処理学会
雑誌
情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM) (ISSN:09196072)
巻号頁・発行日
vol.2008, no.115, pp.169-176, 2008-11-20

本研究では,取得したレーザーレンジデータと Google Maps 画像を共に複数クラスに領域分割し,クラスの関係を考慮した位置合わせを行うことによって,実環境をモデリングする手法を提案する.実環境のモデリングにおいて,近年レーザーレンジセンサなどの距離センサが広く用いられている.しかし市街地のような広域環境をモデリングするためには,環境中の様々な場所で獲得した複数の距離 (レンジ) データに対して,位置合わせを行う必要がある.本手法ではまず初めに得られたレンジデータとその周囲の地理情報をそれぞれ,あらかじめ設定したいくつかのクラスに領域分割する.その後,両データのクラスが一致する地点を探索することで,レンジデータ撮影地点の判別や,相互の位置合わせを実現する.In this research, we propose a method for taking expansive 3D models of environments using highly-ac curate laser range data. Laser range data is taken using distance sensors called laser range sensors, which have grown in use over recent years, including such practical applications like Google's street-view. However, trying to model a large-scale environment like a city requires taking data from various locations around the environment, and this data must be aligned with respect to each other. In our method, we initially decide on a location to model, taking range and map data for it and classifying it into multiple regions. We then find the location and orientation on the map that allows the two results to match, giving the location and orientation of the captured range data.