セミナー
録画視聴の申込は12/15まで
2023国際ロボット展併催セミナー
生産革新をもたらす!
AIロボットマニピュレーションの最前線と産業応用
~学習する産業用ロボットの実現に向け
開催主旨
2010年代半ば以降、AI(Machine Learning、Deep Learningなど)の応用が急速に進展し、各産業分野での利用例が報告されています。ロボット分野も同様に、AIとの融合、すなわちDeep Learningや(深層・転移)強化学習(Deep Q-Network)、模倣学習などを用いた動作生成モデルの構築により、産業用ロボットの教示作業の簡素化やインテリジェンス化が取り組まれています。例えば、深層強化学習は膨大なサンプルデータを必要とし、時間とコストの制約から適用が難しいという課題がありましたが、最近は、サンプル効率や学習安定性を高めた手法や少ない試行回数で学習できる手法が提案され、「学習するロボット」の道が拓きつつあります。「ロボット」という言葉から想起される、汎用性とインテリジェンスを備える産業用ロボットへの期待が高まっています。
本講座では、AI利用による動作計画・動作制御の先進的な取り組みを紹介し、学習・進化する知能化システム(=これからの産業用ロボット)による生産革新の姿を展望します。コンタクトリッチタスクにおける機械学習の適用方法や、少ない試行回数で獲得できるモデルベース強化学習手法と柔軟物把持への有効性などを解説します。併せて、米Google DeepMind社が発表した、VLA(Vision-Language-Action)モデル「RT-2」による行動計画および把持計画への適用を考察します。
本セミナーは当日、会場でのご参加が難しい方に向け後日の録画参加も可能としています。録画のご視聴方法(参加用URL等)はご登録くださいましたメールにお知らせいたします。当日参加された方も後日の録画視聴は可能です。なお、後日の録画参加の申込は12/15(金)まで受け付けています。
概要
日時 | 2023年12月29日まで録画視聴が可能 録画参加の申込は12/15まで受付 3時間構成の内容となっています |
---|---|
会場 | 後日の録画参加(お申込みいただきました後、ご視聴のためのURLをお知らせします) |
受講料 | 受講料:27,500円(テキスト代、公開期間中の録画視聴、税込、1名分) ※翌月末(2024年1月末)の入金に対応しております。※後日の録画参加の申込は12/15まで受付。テキストはPDFでお知らせします。 |
主催 | 日刊工業新聞社 |
お問い合わせ先 | 日刊工業新聞社 西日本支社 総合事業本部 セミナー係 TEL : 06-6946-3382 FAX : 06-6946-3389 E-mail : seminar-osaka@media.nikkan.co.jp |
会場アクセス
プログラム
□解説1(14:05~14:55) |
「組立・研磨・搬送などコンタクトリッチタスクを可能にする ロボット教示と動作生成のための機械学習方法」 (講師:埼玉大学 工学部 電気電子物理工学科 准教授 辻 俊明 氏) (概 要) 組立・研磨・搬送などにおいて、ロボットの操作物(対象物)と環境との接触状態が時々刻々と変化するタスクを「コンタクトリッチタスク」と表現されます。ただし、こうしたタスクにおいては教示の難易度が高く、かつかつ環境変動の影響を受けやすいため、その動作生成にはノウハウが求められます。そこで、講師らは力情報(衝突緩和や力加減など)の役割に着目し、位置および力の教示にもとづく動作生成手法の開発に取り組んでいます。 「解説1」では、コンタクトリッチタスクの基礎となる力制御とそれにもとづく動作生成の技術を紹介。そして、模倣学習や強化学習の技術をどのように動作生成に応用されているか、また、どのようなアーキテクチャの設計が有効かを、事例を通じて解説します。 |
□解説2(15:00~15:50) |
「柔軟要素を持つロボットの部品組立作業学習 ~モデルベース強化学習による柔軟物ハンドリングの適用効果~」 (講師:オムロンサイニックエックス株式会社 シニアリサーチャー 濱屋 政志 氏) (概 要) 柔軟要素を持つロボットは柔軟要素が変形し、対象物体になじむため、組立作業など接触を多く含む作業に適しています。それゆえ、不確実性や誤差を許容するロボットフレームワークとして注目を集めています。ただし対象のダイナミクスが複雑となり、手動でモデルや制御戦略の設計が困難となります。学習によるアプローチが望まれるますが、接触を多く含む作業にかかるデータ収集に相当なコストを要します。こうした課題に対し、講師らは少ない試行回数ながらデータ収集を行い、組立戦略を設計するモデルベース強化学習手法を開発しました。 「解説2」では、本学習手法(転移強化学習やSim-to-Real転移学習)と有効性を解説します。また、柔剛の切り替えができる軽量柔軟手首を有する柔軟ロボットを設計しており、ハードウエアを含む改善案も紹介します。 |
□解説3(16:00~16:40) |
「VLAモデル「RT-2」のロボットマニピュレーションへの適用と有効性」 (講師:SooZooRobo-techno 代表 滝沢 一博 氏) (概 要) 2023年7月に米Google DeepMind社が発表した、視覚と言語を行動に翻訳するVLA(Vision-Language-Action)モデル「RT-2」が注目を集めています。RT-2 は、Web上のテキストと画像でトレーニングされたTransformerベースのモデルであり、ロボットのアクションを直接出力できるのが特徴。RT-2はWeb上のデータから知識を転送してロボット動作に情報を付与することができる。従来、動作生成のためには把持対象をはじめ膨大な定義が求められましたが、こうした作業を不要とし、教示レスを実現する可能性があります。 「解説3」では、ROSをはじめロボット制御に詳しい専門家が、公開情報をもとにRT-2のモデルを分析するとともに、RT-2のような視覚言語トレーニングデータによる動作生成への適用と有効性を考察した内容を紹介します。 |
□質疑応答(16:40~17:00) |