著者
井上 智章 築地原 里樹 ガルシア リカルデス グスタボ アルフォンソ 丁 明 高松 淳 小笠原 司
出版者
一般社団法人 日本家政学会
雑誌
一般社団法人日本家政学会研究発表要旨集
巻号頁・発行日
vol.70, pp.245, 2018-07-28

目的 移動ロボットを用いた生活の見える化、生活時間の獲得を目指す。生活中の行動の中で、会話やテレビ視聴、スマホ、新聞、雑誌を見るなど、見ている対象を推定することでわかる行動の判別を、ロボットやコンピュータ技術を利用してどれくらい認識できるかを検討する。<br><br>方法 画像の解像度の関係から、正確な視線方向をロボットのカメラから推定することは難しいので、顔向きと視線の向きが一致すると仮定した。深層学習ベースの物体認識YOLOを用いた人・物体認識や、OpenFaceを用いた顔向き推定に基づき、見ている対象を推定する。推定精度が向上するように、ロボットの移動戦略を実装する<br><br>結果 正面を向いた人が見た物体の推定精度が最も高く、8割以上推定に成功した。ただし、向きが正面から大きく離れると精度が悪化することが確認された。そこで、できるだけ顔の正面になるようにロボットを移動させることによって、様々な場合で8割以上の推定を維持することに成功した。