SlideShare ist ein Scribd-Unternehmen logo
1 von 15
1
Deep Lagrangian Networks: Using Physics as Model Prior
for Deep Learning (ICML2019)
Koki Yamane, University of Tsukuba
書誌情報
• タイトル
– Deep Lagrangian Networks: Using Physics as Model Prior for Deep Learning
• 著者
– Michael Lutter, Christian Ritter, Jan Peters
• 所属
– ダルムシュタット工科大学コンピュータサイエンス学科(ドイツ)
• ICRL 2019
• https://arxiv.org/abs/1907.04490
2
概要
• ニューラルネットワークを使ってロボットの動力学モデルを学習
– リアルタイム,オンライン学習
– 物理学の事前知識を用いることで効率化
• 提案手法:Deep Lagrangian Networks (DeLaN)
– オイラー・ラグランジュ方程式を前提知識として利用
– 物理法則に従った運動方程式を効率的に学習
– 学習速度,外挿性能を改善
3
前提知識:解析力学
4
コリオリ力+遠心力
重力 関節トルク
オイラーラグランジュ方程式
DeLaN
• 解析的手法
– 設計値または測定した質量、長さ、慣性モーメントから重力g(q)と慣性行列
H(q)を推定
– 加工や測定誤差,変化に対応できない
• FF-NN
– 物理法則を満たす保証はない
• DeLaN
– 運動方程式のパラメータ(重力g(q),慣性行列H(q))をNNとして表現
– 慣性行列H(q)は直接表現するのではなく、下三角行列L(q)をNNとして表現
• 対称性を補償
• パラメータの削減
5
DeLaN
6
g(q),H(q)をNNで学習 運動方程式を計算
実験設定
• 2種類の実験
– 2DoF(シミュレーション)
– 7DoF(実ロボット)
• 4つの手法を比較
– 通常の逆動力学モデル
– PD制御
– フィードフォワードニューラルネットワーク
– DeLaN(提案手法)
• オンライン学習
– 実験中にリアルタイムに逆運動学モデルを学習
– 500Hz(2ms)
7
実験結果 2DoFマニピュレータ(シミュレーション)
8
• FF-NNに比べ,DeLaNは速く,正確に学習できている!
実験結果 2DoFマニピュレータ(シミュレーション)
9
• FF-NNとDeLaNで文字を書いた時の関節
トルクのMSEを比較
• Train Characters(横軸)は学習データの個数
– Train Charactersが1の場合は,1個の文
字でモデルを学習し,残りの19個の文
字で性能を評価
• 全てのパターンでDeLaNがFF-NNより
MSEが少ない
• 特に学習データが少ない場合の差が大き
い
– 外挿性能の向上
実験結果 2DoFマニピュレータ(シミュレーション)
10
● 関節トルクしか与えていないにも関わらず,重
力やコリオリ力,遠心力を分解して推定可能
実験2 7DoFマニピュレータ
• 使用ロボット: Barrett WAM
• ダイレクトケーブルドライブ
– 剛体力学のみではモデル化不能
• 動作
– コサイン軌道
– 文字
11
実験結果 7DoFマニピュレータ(実ロボット)
12
• 解析モデルが最も高精度
• FFと比較するとDeLaNは
外挿性能が向上している
• DeLaNが最も高精度
• シミュレーションのパ
ラメータは解析モデル
と変えている
(randamization?)
• FF-NNが最も高精度
• 摩擦などの非保存力を
学習した?
• ただし外挿性能がない
2DoF sim 7DoF sim 7DoF real
まとめ
• Deep Lagrangian Networks (DeLaN)を提案
– ラグランジュ力学を導入した深層ネットワーク
– 物理学的な事前情報を組み込むことで単純化
– 物理法則を満たすことを保証
– オンライン学習
– 過学習を抑制
• 課題
– 非保存力(摩擦など)を考慮していない
• シミュレーションではうまくいったが,実ロボットでは失敗
• 剛体力学の枠組みに制限されてしまう
– 外挿性能は向上しているが,学習したデータに対してはFF-NNと同等以下
13
以後の研究例
• Lagrangian Neural Networks (Miles Cranmer et al, 2020)
– https://arxiv.org/abs/2003.04630
– ラグランジアン自体を学習
– 任意のラグランジアンを学習できる
• 剛体力学以外にも適用可能
• 相対論的粒子のシミュレーション実験
• Hamiltonian Neural Networks (Sam Greydanus et al, 2019)
– https://arxiv.org/abs/1906.01563
– ハミルトニアンを用いる
– AEで画像から抽出した特徴量を入力とする振り子の実験
14
感想
• どこまで条件を与えてどこまで学習させるか
– 特定のユースケースに特化させるか,汎用性を重視するか
• リアルタイムモデル学習の可能性
– ロボットの変形などにも対応できる?
– 制御手法に合わせたハードウェアの発展
• 解析力学+ニューラルネットワークの可能性
– 解析力学の変数が抽象化されている点とニューラルネットワークの抽象的な
特徴量の組み合わせは相性が良さそう
15

Weitere ähnliche Inhalte

Mehr von Deep Learning JP

Mehr von Deep Learning JP (20)

【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
 
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
 
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル
 
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
 
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
 
【DL輪読会】大量API・ツールの扱いに特化したLLM
【DL輪読会】大量API・ツールの扱いに特化したLLM【DL輪読会】大量API・ツールの扱いに特化したLLM
【DL輪読会】大量API・ツールの扱いに特化したLLM
 
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
 
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
 

[DL輪読会]Deep Lagrangian Networks: Using Physics as Model Prior for Deep Learning (ICML2019)