著者
松林 達史 清武 寛 幸島 匡宏 戸田 浩之 田中 悠介 六藤 雄一 塩原 寿子 宮本 勝 清水 仁 大塚 琢馬 岩田 具治 澤田 宏 納谷 太 上田 修功
出版者
一般社団法人 人工知能学会
雑誌
人工知能学会論文誌 (ISSN:13460714)
巻号頁・発行日
vol.34, no.5, pp.wd-F_1-11, 2019-09-01 (Released:2019-09-01)
参考文献数
29

Forming security plans for crowd navigation is essential to ensure safety management at large-scale events. The Multi Agent Simulator (MAS) is widely used for preparing security plans that will guide responses to sudden and unexpected accidents at large events. For forming security plans, it is necessary that we simulate crowd behaviors which reflects the real world situations. However, the crowd behavior situations require the OD information (departure time, place of Origin, and Destination) of each agent. Moreover, from the viewpoint of protection of personal information, it is difficult to observe the whole trajectories of all pedestrians around the event area. Therefore, the OD information should be estimated from the several observed data which is counted the number of passed people at the fixed points.In this paper, we propose a new method for estimating the OD information which has following two features. Firstly, by using Bayesian optimization (BO) which is widely used to find optimal hyper parameters in the machine learning fields, the OD information are estimated efficiently. Secondly, by dividing the time window and considering the time delay due to observation points that are separated, we propose a more accurate objective function.We experiment the proposed method to the projection-mapping event (YOYOGI CANDLE 2020), and evaluate the reproduction of the people flow on MAS. We also show an example of the processing for making a guidance plan to reduce crowd congestion by using MAS.
著者
リム アンジェリカ 水本 武志 大塚琢馬 古谷 ルイ賢造カイエ 尾形 哲也 奥乃 博
出版者
情報処理学会
雑誌
情報処理学会論文誌 (ISSN:18827764)
巻号頁・発行日
vol.52, no.12, pp.3599-3610, 2011-12-15

聞く,見るは,共演者が仲間の演奏者とテンポを合わせて演奏するために重要なスキルである.画像キュー(cue,合図)を検知し,他の演奏者に耳を傾けることによって,演奏者はいっせいに演奏を始め,テンポの緩急の合図に合わせ,さらに,いっせいに演奏を終えることができる.本稿では,人間のフルート奏者がアンサンブルリーダを担い,ロボットは伴奏者として人間の演奏に追従する問題を扱う.まず,フルート奏者の3種類のジェスチャを提案し,画像キューによる認識,音響ビートと画像キューとの統合によるテンポ推定について述べ,テルミン演奏共演ロボットのジェスチャ認識について報告する.初期実験で3タイプの画像キューが83%以上で検出できること,また,画像キューと音響ビート検出とを組み合わせることにより,テンポ検出が0.5秒以内に行えればビート追跡が安定することが分かった.この結果,フルート奏者の指示に合わせて共演者音楽ロボットがテルミンを演奏し,歌を歌うことが可能となった.Listening and watching are important skills for co-players to play in time with fellow musicians. By detecting visual cues and listening to other players, musicians can start together, stop together, and follow a leader's visual cues of changes in tempo. In this paper, we formalize three visual cues for the case of flutists, and describe how our thereminist robot co-player system detects them. Initial experiments show over 83% detection rates for our 3 types of visual cues. Additionally, by coupling visual cues and acoustic beat detection, the robot can extract a tempo in half a second. The resulting robot co-player can play theremin and sing a song with the lead of a human flutist.
著者
奥乃 博 中臺 一博 大塚琢馬
出版者
一般社団法人情報処理学会
雑誌
情報処理 (ISSN:04478053)
巻号頁・発行日
vol.50, no.8, pp.729-734, 2009-08-15

音楽のリズムに合わせて振舞う音楽ロボットを目標に据えると, 音楽情報処理の課題が見えてくる.