SlideShare ist ein Scribd-Unternehmen logo
1 von 9
Downloaden Sie, um offline zu lesen
Pre-Survey 2020
2020-04-20 ~ 2020-04-26
Robotpaper.Challenge
> Paper-URL list on this survey
1. https://ieeexplore.ieee.org/document/8967863
2. https://arxiv.org/abs/1907.11035
3. https://ieeexplore.ieee.org/document/8968508
4. https://ieeexplore.ieee.org/document/8716302
5. https://arxiv.org/abs/1903.03227
6. https://arxiv.org/abs/1903.03340
7. https://ieeexplore.ieee.org/document/8968294
Vision-based Automatic Control of a 5-Fingered Assistive Robotic Manipulator for
Activities of Daily Living
Chen Wang, Daniel Freer, Jindong Liu, and Guang-Zhong Yang
まとめた人:makihara
- 深層学習における物体検出手法を用いて,5指ハンドの制御を行う手法.
- RGB画像を入力としたFaster R-CNNなどの手法の改良で物体の形状に応じた把持形態を選択している.3点把持,
引っ掛け把持,囲い込み把持とパワーグラスプといった4つの把持形態に物体ごとに分類している.
- 深度画像を用いて物体にハンドをアプローチし,分類された把持形態の基づいて力制御フィードバックをおこなって把持を行い,
持ち上げによって安定性を確認した.
- VGG16を用いた画像ベースの把持位置検出手法を用いて把持を行い,比較的高い精度で,非常に早いFPSで検出ができてい
る.
Robot Learning of Shifting Objects for Grasping in Cluttered Environments
Lars Berscheid, Pascal Meißner, and Torsten Kröger
まとめた人:makihara
- bin-pickingタスクにおいて,把持の予備動作として学習ベースのShifting(ずらし)動作を行うことで把持の成功率を上げる手法.
- 最適なShifting動作のために,把持の成功率が高くなるように報酬を設定して自己教師あり学習をおこなっている.別の操作を報
酬として動作の学習を行ったことが特徴となっている.
- 積み木以外の様々な未知の物体が積み重なった状況においても,予備動作を含む把持に成功している.
- 時間当たりのピッキングのスピードも最適化しており,定義された把持のスコア(0-1)が0.75あたりで把持を行わせる時が最もス
ピードが早い.
Domain-Independent Unsupervised Detection of Grasp Regions to grasp Novel Objects
Siddhartha Vibhu Pharswan, Mohit Vohra, Ashish Kumar and Laxmidhar Behera
まとめた人:makihara
- 教師なし学習のk-meansを使って把持領域を特定し,深度画像を用いて詳細な把持位置と姿勢を決定している手法.
- 把持領域内にグリッパの先端となる点をサンプリングし,そのサンプリングした場所の深度が大きい部分を選択するGrasp Decide
index(GDI)が特徴的.グリッパを深く差し込むことで把持の成功率が向上することを指標として用いている.
- 様々な種類の未知物体,乱雑に積み重なった状況でのbin-pickingタスクが行うことができている.
- bin-pickingタスク競技会のAmazon Robotics Challenge 2017, Amazon Picking Challenge 2016でこの手法が実装された.
- 乱雑でない状況では95.5%, 乱雑であれば88.18%といった高い成功率を出すことができている.
Generating Coordinated Reach-Grasp Motions with Neural Networks
Eunsuk Chong, Jinhyuk Park, Hyungmin Kim, and Frank C. Park
- human demonstrationから学習するロボットハンドシステムにおける把持動作と物体までの軌道生成のframeworkの提案
- frameworkはConvolutional Restricted Bolzman Machine(CRBM)を用いており,3つの段階に分けられている.始めの段
階として,ロボットの初期状態と物体の位置が与えられたCRBMによって動作の種類を決定する.次の段階では,目標物
体の位置と姿勢を用いて軌道を生成する.最後の段階では,前段階で生成した軌道においてforce closureになるように最
適化を行う.
- 検証はシミュレーション環境で行い,5指のハンドがエンドエフェクタとして搭載している6自由度のマニピュレータを使用し
た.また,タスクとしてハンマーの把持を設定した.
まとめた人:souta hriose
Pixel-Attentive Policy Gradient for Multi-Fingered Grasping in
Cluttered Scenes
Bohan Wu, Iretiayo Akinola and Peter K. Allen
- 最近のon-policyのRLでは,複雑なタスクを行う為にエージェントをsimulationにて学習させることが多い.しかし,Multi-Finger
のGripperを用いた把持においてはsimulationとrealに大きなギャップが存在する.また,合わせてOn-policyの複雑性も高くな
る.
- そこで,robotの動作を完全に取得可能な程度に,robotの自由度を増加させた時にrobotの把持性能を向上をさせる為の学
習サンプルの複雑さがどの程度managerableなのかを検証する.
- inputとしてDepth -imageを用いて6自由度のhandのGrasping Poseと関節角度を出力するシステムとしている.
- 強化学習のアルゴリズムとしてPolicy-gradientを使用。
まとめた人:souta hriose
Learning to Estimate Pose and Shape of Hand-Held Objects from RGB Images
Mia Kokic,Danica Kragic, Jeannette Bohg
- RGB imageから把持している物体の3D形状と6D pose推定.
- HOPS-Netと呼ばれるCNNを用いて,把持している物体のsegment imageから物体のPoseと3D形状を出力する.
- CNNの学習には,simulator上での人間の手と手で掴んだ物体の合成データより学習させた.
- 現実の画像と合成したデータのギャップを埋める為に,CircleGANを用いて合成データのレンダリングより,オブジェクトのテク
スチャを出力した.
- 結果として,物体のPose及び形状推定において,把持している手の情報を入れることによって推定精度の向上が確認された.
まとめた人:souta hriose
Multi-step Pick-and-Place Tasks Using Object-centric Dense Correspondences
Chun-Yu Chai, Keng-Fu Hsu, and Shiao-Li Tsao
- hoseholdの物体のPick-and-Placeでは,Graspと移動させた時の成功率をどのように向上させるかが焦点になっている.
- しかし,実際のhouseholdの物体は同じような物体でも大きさが異なっていたり,または配置する場所が異なる場合が多くある.そ
のような場合に,Pick-and-Placeを学習ベースで行うと,Simulationからreal world間のギャップやデータセットの用意が問題にな
る.
- そこで,複数種類のPick-and-Placeにおいて,1回のデモンストレーションから,タスクの特性を学習するネットワークを提案した.
ネットワークでは,geometricからの情報とsegmatationからの情報を一致させるように学習する.
- タスクとして,積み上げとソートを行い両社とも,90%以上の成功を確認した.
- youtubehttps://github.com/cychai1995/mcdons previous eworkhttps://arxiv.org/abs/1806.08756
まとめた人:souta hriose

Weitere ähnliche Inhalte

Mehr von robotpaperchallenge

Mehr von robotpaperchallenge (10)

Icra2020 v1
Icra2020 v1Icra2020 v1
Icra2020 v1
 
Icra2020 v2
Icra2020 v2Icra2020 v2
Icra2020 v2
 
強化学習勉強会_No3
強化学習勉強会_No3強化学習勉強会_No3
強化学習勉強会_No3
 
強化学習勉強会_No2
強化学習勉強会_No2強化学習勉強会_No2
強化学習勉強会_No2
 
強化学習勉強会_No1@産総研
強化学習勉強会_No1@産総研強化学習勉強会_No1@産総研
強化学習勉強会_No1@産総研
 
Robotpaper.Challenge 2019-10
Robotpaper.Challenge 2019-10Robotpaper.Challenge 2019-10
Robotpaper.Challenge 2019-10
 
robotpaper.Challenge概略_v2@mixi
robotpaper.Challenge概略_v2@mixirobotpaper.Challenge概略_v2@mixi
robotpaper.Challenge概略_v2@mixi
 
Robotpaper.Challenge 2019-09 ver2
Robotpaper.Challenge 2019-09 ver2Robotpaper.Challenge 2019-09 ver2
Robotpaper.Challenge 2019-09 ver2
 
Robotpaper.Challenge 2019-08
Robotpaper.Challenge 2019-08Robotpaper.Challenge 2019-08
Robotpaper.Challenge 2019-08
 
RobotPaperChallenge 2019-07
RobotPaperChallenge 2019-07RobotPaperChallenge 2019-07
RobotPaperChallenge 2019-07
 

Pre-Survey 2020 04-20:2020-04-26

  • 1. Pre-Survey 2020 2020-04-20 ~ 2020-04-26 Robotpaper.Challenge
  • 2. > Paper-URL list on this survey 1. https://ieeexplore.ieee.org/document/8967863 2. https://arxiv.org/abs/1907.11035 3. https://ieeexplore.ieee.org/document/8968508 4. https://ieeexplore.ieee.org/document/8716302 5. https://arxiv.org/abs/1903.03227 6. https://arxiv.org/abs/1903.03340 7. https://ieeexplore.ieee.org/document/8968294
  • 3. Vision-based Automatic Control of a 5-Fingered Assistive Robotic Manipulator for Activities of Daily Living Chen Wang, Daniel Freer, Jindong Liu, and Guang-Zhong Yang まとめた人:makihara - 深層学習における物体検出手法を用いて,5指ハンドの制御を行う手法. - RGB画像を入力としたFaster R-CNNなどの手法の改良で物体の形状に応じた把持形態を選択している.3点把持, 引っ掛け把持,囲い込み把持とパワーグラスプといった4つの把持形態に物体ごとに分類している. - 深度画像を用いて物体にハンドをアプローチし,分類された把持形態の基づいて力制御フィードバックをおこなって把持を行い, 持ち上げによって安定性を確認した. - VGG16を用いた画像ベースの把持位置検出手法を用いて把持を行い,比較的高い精度で,非常に早いFPSで検出ができてい る.
  • 4. Robot Learning of Shifting Objects for Grasping in Cluttered Environments Lars Berscheid, Pascal Meißner, and Torsten Kröger まとめた人:makihara - bin-pickingタスクにおいて,把持の予備動作として学習ベースのShifting(ずらし)動作を行うことで把持の成功率を上げる手法. - 最適なShifting動作のために,把持の成功率が高くなるように報酬を設定して自己教師あり学習をおこなっている.別の操作を報 酬として動作の学習を行ったことが特徴となっている. - 積み木以外の様々な未知の物体が積み重なった状況においても,予備動作を含む把持に成功している. - 時間当たりのピッキングのスピードも最適化しており,定義された把持のスコア(0-1)が0.75あたりで把持を行わせる時が最もス ピードが早い.
  • 5. Domain-Independent Unsupervised Detection of Grasp Regions to grasp Novel Objects Siddhartha Vibhu Pharswan, Mohit Vohra, Ashish Kumar and Laxmidhar Behera まとめた人:makihara - 教師なし学習のk-meansを使って把持領域を特定し,深度画像を用いて詳細な把持位置と姿勢を決定している手法. - 把持領域内にグリッパの先端となる点をサンプリングし,そのサンプリングした場所の深度が大きい部分を選択するGrasp Decide index(GDI)が特徴的.グリッパを深く差し込むことで把持の成功率が向上することを指標として用いている. - 様々な種類の未知物体,乱雑に積み重なった状況でのbin-pickingタスクが行うことができている. - bin-pickingタスク競技会のAmazon Robotics Challenge 2017, Amazon Picking Challenge 2016でこの手法が実装された. - 乱雑でない状況では95.5%, 乱雑であれば88.18%といった高い成功率を出すことができている.
  • 6. Generating Coordinated Reach-Grasp Motions with Neural Networks Eunsuk Chong, Jinhyuk Park, Hyungmin Kim, and Frank C. Park - human demonstrationから学習するロボットハンドシステムにおける把持動作と物体までの軌道生成のframeworkの提案 - frameworkはConvolutional Restricted Bolzman Machine(CRBM)を用いており,3つの段階に分けられている.始めの段 階として,ロボットの初期状態と物体の位置が与えられたCRBMによって動作の種類を決定する.次の段階では,目標物 体の位置と姿勢を用いて軌道を生成する.最後の段階では,前段階で生成した軌道においてforce closureになるように最 適化を行う. - 検証はシミュレーション環境で行い,5指のハンドがエンドエフェクタとして搭載している6自由度のマニピュレータを使用し た.また,タスクとしてハンマーの把持を設定した. まとめた人:souta hriose
  • 7. Pixel-Attentive Policy Gradient for Multi-Fingered Grasping in Cluttered Scenes Bohan Wu, Iretiayo Akinola and Peter K. Allen - 最近のon-policyのRLでは,複雑なタスクを行う為にエージェントをsimulationにて学習させることが多い.しかし,Multi-Finger のGripperを用いた把持においてはsimulationとrealに大きなギャップが存在する.また,合わせてOn-policyの複雑性も高くな る. - そこで,robotの動作を完全に取得可能な程度に,robotの自由度を増加させた時にrobotの把持性能を向上をさせる為の学 習サンプルの複雑さがどの程度managerableなのかを検証する. - inputとしてDepth -imageを用いて6自由度のhandのGrasping Poseと関節角度を出力するシステムとしている. - 強化学習のアルゴリズムとしてPolicy-gradientを使用。 まとめた人:souta hriose
  • 8. Learning to Estimate Pose and Shape of Hand-Held Objects from RGB Images Mia Kokic,Danica Kragic, Jeannette Bohg - RGB imageから把持している物体の3D形状と6D pose推定. - HOPS-Netと呼ばれるCNNを用いて,把持している物体のsegment imageから物体のPoseと3D形状を出力する. - CNNの学習には,simulator上での人間の手と手で掴んだ物体の合成データより学習させた. - 現実の画像と合成したデータのギャップを埋める為に,CircleGANを用いて合成データのレンダリングより,オブジェクトのテク スチャを出力した. - 結果として,物体のPose及び形状推定において,把持している手の情報を入れることによって推定精度の向上が確認された. まとめた人:souta hriose
  • 9. Multi-step Pick-and-Place Tasks Using Object-centric Dense Correspondences Chun-Yu Chai, Keng-Fu Hsu, and Shiao-Li Tsao - hoseholdの物体のPick-and-Placeでは,Graspと移動させた時の成功率をどのように向上させるかが焦点になっている. - しかし,実際のhouseholdの物体は同じような物体でも大きさが異なっていたり,または配置する場所が異なる場合が多くある.そ のような場合に,Pick-and-Placeを学習ベースで行うと,Simulationからreal world間のギャップやデータセットの用意が問題にな る. - そこで,複数種類のPick-and-Placeにおいて,1回のデモンストレーションから,タスクの特性を学習するネットワークを提案した. ネットワークでは,geometricからの情報とsegmatationからの情報を一致させるように学習する. - タスクとして,積み上げとソートを行い両社とも,90%以上の成功を確認した. - youtubehttps://github.com/cychai1995/mcdons previous eworkhttps://arxiv.org/abs/1806.08756 まとめた人:souta hriose