東北大学、視覚と触覚を統合したロボット操作AI「TactileAloha」を開発

・両手作業を自動生成、マジックテープやジップタイの操作も可能に

 東北大学大学院工学研究科の林部充宏教授らの研究グループは、7月14日、視覚情報に加えて触覚センサーからの情報を活用し、ロボットが環境に応じて両手の動作を自動生成・制御できるAI技術「TactileAloha(タクタイルアロハ)」を開発したと発表した。これにより、マジックテープやジップタイのように、表裏や質感の違いを判断しなければならない作業にも柔軟に対応できるようになる。

 本研究は、東北大学と香港大学、さらに香港の研究機関「Centre for Transformative Garment Production(TransGP)」との国際共同研究により実施された。触覚センサーの情報を統合することで、視覚情報だけでは判別が難しかった素材の質感や向きの違いなどを判断し、両手での適切な操作が可能となった。従来の視覚ベースの手法と比べ、より高いタスク成功率が確認されたという。

 研究チームは、複数の感覚情報を統合処理する「マルチモーダルAI」の一環としてこの技術を位置づけており、人間に近い柔軟な判断と動作をロボットが実現するための重要なステップだとしている。日常生活や製造現場、介護分野などでのロボット活用が進む中、本技術の実用化が期待される。

 研究成果は、ロボット工学の専門誌「IEEE Robotics and Automation Letters」の2025年7月2日付に掲載された。

■用語解説
• マルチモーダルAI:視覚・聴覚・触覚など複数の感覚情報を同時に処理・判断できるAI技術。人間のような総合的な判断能力の実現を目指す。
• マジックテープ:面ファスナー。フックとループが接着する構造で、衣類やバッグなどで使われる。
• ジップタイ:結束バンド。電線の束ねや梱包に使われるプラスチック製の固定具。

■論文情報
• タイトル:TactileAloha: Learning Bimanual Manipulation with Tactile Sensing
• 著者:Ningquan Gu、Kazuhiro Kosuge、Mitsuhiro Hayashibe(責任著者)
• 掲載誌:IEEE Robotics and Automation Letters
• DOI:10.1109/LRA.2025.3585396

 ニュースリリース