著者
湯口 彰重 河野 誠也 石井 カルロス寿憲 吉野 幸一郎 川西 康友 中村 泰 港 隆史 斉藤 康己 美濃 導彦
出版者
一般社団法人 日本ロボット学会
雑誌
日本ロボット学会誌 (ISSN:02891824)
巻号頁・発行日
vol.40, no.10, pp.932-935, 2022 (Released:2022-12-24)
参考文献数
8

We propose an autonomous mobile robot Butsukusa, which describes its observations and internal states during the looking-around task. The proposed robot observes the surrounding environment and moves autonomously during the looking-around task. This paper examined several language generation systems based on different observation and interaction patterns to investigate better communication protocol with users.
著者
湯口 彰重 豊田 真行 趙 崇貴 吉野 幸一郎 高松 淳 中澤 篤志 小笠原 司
出版者
一般社団法人 日本ロボット学会
雑誌
日本ロボット学会誌 (ISSN:02891824)
巻号頁・発行日
vol.41, no.10, pp.893-896, 2023 (Released:2023-12-21)
参考文献数
13

Analyzing time-series changes of the contact surface by touching is important to elucidate the touching skills of Humanitude as one of the pervasive multimodal comprehensive care methodologies. However, the transparent flat plates to capture contact surfaces used in the previous studies are far from the actual surfaces of care receivers because the surfaces of humans consist of curved shapes. In this paper, we propose a Frustrated Total Internal Reflection (FTIR) sensing system using a transparent curved plate for the purpose to capture contacting state by using a surface more similar to the human body. We evaluate the equivalent performance between data from the proposed FTIR sensing system and an FTIR sensing system using a transparent flat plate by calculating time-series contact areas and the quantitative indices representing theHumanitude's touching motion. Through these experiments, we conclude that the proposed system can obtain the same data quality for the contact areas and the indices as the FTIR system using the flat plate.
著者
中村 泰貴 河野 誠也 湯口 彰重 川西 康友 吉野 幸一郎
雑誌
研究報告自然言語処理(NL) (ISSN:21888779)
巻号頁・発行日
vol.2022-NL-253, no.6, pp.1-7, 2022-09-22

ロボットをはじめとする人間を支援するシステムは,観測から状況を正しく理解し,人間が必要とする支援行動を出力する必要がある.特に人間を対象とした支援において,システムがどのような状況理解を行い,どのような動作行動の生成しようとしているかは,言語で表現することが重要である.そこで本研究では,現在の状況からシステムが行うべき行動を予測しその内容を言語で説明する,動作行動予測とその言語化 (captioning operative action) に取り組む.具体的には,ある状況とそこに対して何らかの支援行動が行われた理想状態の画像を入力とし,どのような支援行動が行われたかを説明する言語化タスクによって動作行動予測を実現するシステムを構築した.この際,こうした状況を説明する補助情報であるシーングラフの予測を補助タスクとして用いることで,シーングラフのアノテーションが存在しないテストセットに対しても精度高く動作行動の予測・言語化を行うことができることが確認された.