ページの本文へ

Hitachi

2021年5月28日
株式会社日立製作所

株式会社日立製作所と早稲田大学理工学術院の尾形 哲也(おがた てつや)教授の研究グループは、これまでロボットの作業能力の限界によって導入が進んでいなかった作業現場の自動化をめざし、複雑な動作を容易に実現することができる深層学習型のロボット制御技術を開発しました。本技術は、ロボットの手先や対象物の特徴情報を学習により自動抽出することで、形状が変わる物体のハンドリング(例えば、ケーブルやカバーの設置、液体および粉体を取扱う作業など)をプログラミングレスで習得できます。さらに、対象物の物理的特徴(色や形状など)と動作内容(掴むや押すなど)を含んだ言語指示から、学習していない動作を連想して実行することが可能です。今後、ロボットが導入されていない、さまざまな現場作業を自動化することで、人の作業を支援するシステムを構築し、少子高齢化に伴う労働力不足の解決をめざします。

動画:形状が変わる物体のハンドリングに対応する深層学習型ロボット制御技術(解説)

ロボット動作の学習に、国立研究開発法人産業技術総合研究所のAI橋渡しクラウド(ABCI)を活用しました。

本研究成果の一部は、5月31日~6月6日に開催されるThe 2021 International Conference on Robotics and Automation (ICRA 2021) のWorkshop*1 と、6月6日~8日に開催される日本機械学会 ロボティクス・メカトロニクス講演会2021 (ROBOMECH2021) のポスターセッションにて発表予定です。

開発した技術の詳細

今回開発した深層学習型ロボット制御技術は、以下の技術により構成されています。

1. 軌道計画に重要な情報を自動抽出する動作生成技術

従来のロボット制御技術では、物体認識で得られた情報をもとに、対象物の向きや形状に対する想定可能なすべての動作を人手でプログラム(軌道計画)していました。そのため、布や紐など接触により形状が変化する不定形物を操作する動作では、すべての状況をプログラムで記述するのは難しいという課題がありました。これに対し本技術は、人がロボットに所望の動作を複数回教示するだけで、ロボットの視覚・触覚情報から着目すべき情報(対象物の位置や方向など)と、その時に取るべき動作を自動抽出し*2 、不定形物作業中の新たな状況に対する動作も、プログラミングレスで実行することが可能になりました。

図1 軌道計画に必要な情報を自動抽出する動作生成技術の仕組み

図1 軌道計画に必要な情報を自動抽出する動作生成技術の仕組み

2. 言語指示から指示対象物と動作を推定する連想技術

人の言語指示(音声やテキスト文などの人が理解できる情報)に基づいて所望の動作を実現するためには、言語指示と動作の関係をすべて人手でプログラムしていました。そのため、動作や対象物を追加する度に言語指示との対応付けを行う必要がありました。本技術は、ロボットの動作と対象物、そして言語指示の関係を学習し、データベースに記憶します。対象物の物理的特徴(色や形状など)と動作内容(掴むや押すなど)を含んだ言語指示から、データベースに記憶した類似動作の連想結果を動作生成モデルに入力することで、未学習の言語指示から所望の動作を自律的に実行する技術を開発しました*3 。これにより、言語指示と動作の関係をすべてプログラムする必要がなくなり、対応可能な動作バリエーションの増大を実現しました。

図2 指示対象物と動作を連想する連想技術の仕組み

図2 指示対象物と動作を連想する連想技術の仕組み

*1
Tetsuya Ogata,“Deep Predictive Learning: Real-Time Motion Adaptation for Prediction Error Minimization”, Virtual Workshop on Robot Learning in Real-world Applications: Beyond Proof of Concept, IEEE ICRA2021, (2021年5月)
*2
一藁秀行ら,“触覚センサと深層学習を用いた布バッグのジッパー開け動作”,日本機械学会ロボティクス・メカトロニクス講演会(2021年6月)
*3
伊藤洋ら,“言語指示に基づいた注意予測による把持動作生成”,日本機械学会ロボティクス・メカトロニクス講演会(2021年6月)

照会先

株式会社日立製作所 研究開発グループ