SlideShare ist ein Scribd-Unternehmen logo
1 von 38
Downloaden Sie, um offline zu lesen
NIPS2017論文紹介
LightGBM: A Highly Efficient Gradient
Boosting Decision Tree
Takami Sato
NIPS2017論文読み会@クックパッド
2018/1/27NIPS2017論文読み会@クックパッド 1
アジェンダ
• 導入&近年のGBDTの状況
• GBDTとは
• LightGBMとは
– GOSS (Gradient-based One-side Sampling)
– EFB (Exclusive Feature Bundling)
• 数値実験
• まとめ&私見
2018/1/27NIPS2017論文読み会@クックパッド 2
自己紹介
2018/1/27NIPS2017論文読み会@クックパッド 3
名前: 佐藤 貴海 (さとう たかみ) @tkm2261
専門: 連続最適化 (半正定値計画問題)
略歴: (株)ブレインパッド
⇒ (株) リクルートコミュニケーションズ
⇒ ニート
職業: データ分析&Web開発&PM
趣味: 自転車、Kaggle
宣伝: Kaggler Slackぜひ来てね!
2018/1/27NIPS2017論文読み会@クックパッド 4
https://kaggler-ja.herokuapp.com/
2018/1/27NIPS2017論文読み会@クックパッド 5
今日はKaggleを席巻するGBDTの実装
LightGBMの論文を紹介します
GBDT(Xgboost) がKaggleを席巻 (2016年)
2018/1/27NIPS2017論文読み会@クックパッド 6
More than half of the winning
solutions in machine learning
challenges hosted at Kaggle
adopt XGBoost
http://www.kdnuggets.com/2016/03/xgboost-implementing-winningest-kaggle-algorithm-spark-flink.html
Awesome XGBoost
• Vlad Sandulescu, Mihai Chiru, 1st place of the KDD Cup 2016 competition. Link to the arxiv paper.
• Marios Michailidis, Mathias Müller and HJ van Veen, 1st place of the Dato Truely Native? competition.
Link to the Kaggle interview.
• Vlad Mironov, Alexander Guschin, 1st place of the CERN LHCb experiment Flavour of Physics
competition. Link to the Kaggle interview.
• Josef Slavicek, 3rd place of the CERN LHCb experiment Flavour of Physics competition. Link to the
Kaggle interview.
• Mario Filho, Josef Feigl, Lucas, Gilberto, 1st place of the Caterpillar Tube Pricing competition. Link to the
Kaggle interview.
• Qingchen Wang, 1st place of the Liberty Mutual Property Inspection. Link to the Kaggle interview.
• Chenglong Chen, 1st place of the Crowdflower Search Results Relevance. Link to the winning solution.
• Alexandre Barachant (“Cat”) and Rafał Cycoń (“Dog”), 1st place of the Grasp-and-Lift EEG Detection.
Link to the Kaggle interview.
• Halla Yang, 2nd place of the Recruit Coupon Purchase Prediction Challenge. Link to the Kaggle interview.
• Owen Zhang, 1st place of the Avito Context Ad Clicks competition. Link to the Kaggle interview.
• Keiichi Kuroyanagi, 2nd place of the Airbnb New User Bookings. Link to the Kaggle interview.
• Marios Michailidis, Mathias Müller and Ning Situ, 1st place Homesite Quote Conversion. Link to the
Kaggle interview.
2018/1/27NIPS2017論文読み会@クックパッド 7
Awesome XGBoost: Machine Learning Challenge Winning Solutions
https://github.com/dmlc/xgboost/tree/master/demo#machine-learning-challenge-winning-solutions
現在いろんなGBDT実装が存在
• Scikit-learn
• qGBRT
• gbm on R
• Spark MLLib
• H2O
• XGBoost
• LightGBM
• Catboost (本論文では比較されず)
2018/1/27NIPS2017論文読み会@クックパッド 8
現在いろんなGBDT実装が存在
• Scikit-learn
• qGBRT
• gbm on R
• Spark MLLib
• H2O
• XGBoost
• LightGBM
• Catboost (本論文では比較されず)
2018/1/27NIPS2017論文読み会@クックパッド 9
xgboostが元論文で圧勝
[Chen+ 2016]
今回割愛するが、
経験的にはxgboostより遅く、
スコアも劇的に改善した経験はない。
LightGBMは2017年末に登場してから一気にメジャーに
2018/1/27NIPS2017論文読み会@クックパッド 10
https://www.kdnuggets.com/2017/08/lessons-benchmarking-fast-machine-learning-algorithms.html
本論文が出る前から検証がされて、速度・精度共にxgboostを上回る
LightGBMはいったいなんなのか?
2018/1/27NIPS2017論文読み会@クックパッド 11
Decision Tree Random Forest Gradient Boosting Tree
?LightGBM
本論文を読み解いて解説します。
ここから色々持ってきてます
2018/1/27NIPS2017論文読み会@クックパッド 12
XGBoostとかの詳しい解説はこちらを参照下さい。
https://www.slideshare.net/tkm2261/overview-of-tree-algorithms-from-decision-tree-to-xgboost
結論
LightGBM
2018/1/27NIPS2017論文読み会@クックパッド 13
=
GBDT (Gradient Boosting Decision Tree)
GOSS (Gradient-based One-side Sampling)
EFB (Exclusive Feature Bundling)
+
+
LightGBMはソフトウェア名ではなくアルゴリズム名
論文内表記
2018/1/27NIPS2017論文読み会@クックパッド 14
ただ正確にはXGBoost+GOSS+EFBが正しいかも(後述)
論文内表記
2018/1/27NIPS2017論文読み会@クックパッド 15
論文の構成も
1章: Introduction
2章: GBDT
3章: GOSS
4章: FEB
5章: 数値実験
なのでGBDTとGOSSとFEBがわかればLightGBMわかったといえる
でも、、、
LightGBM
2018/1/27NIPS2017論文読み会@クックパッド 16
=
GBDT (Gradient Boosting Decision Tree)
GOSS (Gradient-based One-side Sampling)
EFB (Exclusive Feature Bundling)
+
+
GOSSってデフォルトだとoffだったり
GBDTとは
2018/1/27NIPS2017論文読み会@クックパッド 17
Gradient Boosting Decision Tree (GBDT) とは
The Elements of Statistical Learning 2nd edition, p. 359
2018/1/27NIPS2017論文読み会@クックパッド 18
psedo-residual
各反復で負の勾配にフィットする学習を行う
決定木の分岐点の求め方
2018/1/27NIPS2017論文読み会@クックパッド 19
Pre-sorted Algorithm
特徴の値の中点やpercentile点など、
分岐となりえる点を列挙し分岐毎に探査。
正確だが重い
Histogram-based
Algorithm
ヒストグラムを作ってそのビンを分岐単位とする。
早いが損失最小の分岐とは限らない。
Pre-sorted Algorithm Histogram-based Algorithm
XGBoost ◯
(デフォルト)
◯
LightGBM ✕ ◯
qGBRT ✕ ◯
Scikit-learn ◯ ✕
Gbm on R ◯ ✕
◆ 対応状況
XGBoostとは
GBDT自体の提案は2001年 [Friedman 2001]、それにXGBoostは、
2018/1/27NIPS2017論文読み会@クックパッド 20
• 損失関数から直接の分岐スコアを求める手法を提案
• 疎な特徴に対する高速な分岐手法の提案
• スケールする圧倒的な実装
GBDT自体の提案は2001年 [Friedman 2001]、それにXGBoostは、
• 損失関数から直接の分岐スコアを求める手法を提案
• 疎な特徴に対する高速な分岐手法の提案
• スケールする圧倒的な実装
LightGBMは
2018/1/27NIPS2017論文読み会@クックパッド 21
XGBoostの多分一番の貢献
LightGBMにも引き継がれる
LightGBMではまた別の方法で
疎構造を利用(EFB等)
後発の有利を活かしてLightGBMのほう
が実装がキレイな気がする。
どちらも凄い開発者たち
なのでXGBoost+GOSS+EFBが感覚的には合う
LightGBMとは
2018/1/27NIPS2017論文読み会@クックパッド 22
LightGBMの特徴である
2018/1/27NIPS2017論文読み会@クックパッド 23
本発表ではこの後、
を順次解説していきます。
GOSS (Gradient-based One-side Sampling)
EFB (Exclusive Feature Bundling)
木系学習器の学習を高速化するには
2018/1/27NIPS2017論文読み会@クックパッド 24
一般論として、木系学習器の学習を高速に行うには
の2パターンが存在します
• データを減らす
• 特徴を減らす
木系学習器の学習を高速化するには
2018/1/27NIPS2017論文読み会@クックパッド 25
そのため各手法は
こういう対応になっています。
• データを減らす
• 特徴を減らす
GOSS (Gradient-based One-side Sampling)
EFB (Exclusive Feature Bundling)
GOSS (Gradient-based One-side Sampling)
• AdaBoostみたいにsample weightはGBDTにない
• 各反復の勾配(疑似残差)で代用しよう
• 十分勾配が小さいデータは無視して良さそう (well-trained)
• 単純にデータを取り除くとデータの分布がおかしくなる
• サンプリングした分を割り戻して整合性をとろう
• 勾配の絶対値の上位𝑎 × 100 %と、
残りのデータの𝑏 × 100%をサンプリングして各反復で使用
サンプリングした側の勾配は
1−𝑎
𝑏
倍して使用
2018/1/27NIPS2017論文読み会@クックパッド 26
GOSSの思想
分岐スコアが分散の場合
2018/1/27NIPS2017論文読み会@クックパッド 27
左側分岐の分散 右側分岐の分散
この辺の決定木のアルゴリズムが思い出せない方は
次ページの例を参照
コレが分岐前の分散より
一番下がる分割を分岐点にする
参考:分岐スコアが分散の場合の分岐
2018/1/27NIPS2017論文読み会@クックパッド 28
Regression
sex survived age
female 1 29
male 1 1
female 0 2
male 0 30
female 0 25
male 1 48
female 1 63
male 0 39
female 1 53
male 0 71
Predict age of a person from Titanic Dataset.
491.0
calculate variances
weighted average
Variance
sex Var #people
male 524.56 5
female 466.24 5
survived Var #people
0 502.64 5
1 479.36 5
495.4
Varience: 498.29
7.29 Down
2.11 Down
GOSSによる近似分岐スコア
2018/1/27NIPS2017論文読み会@クックパッド 29
勾配の大きいデータA
分散の小さいサンプリング
されたデータB
サンプリングした分
を割り戻し
左側分岐と同様
• 勾配の絶対値の上位𝑎 × 100 %と、
残りのデータの𝑏 × 100%をサンプリングして各反復で使用
サンプリングした側の勾配は
1−𝑎
𝑏
倍して使用
GOSSによる近似誤差
2018/1/27NIPS2017論文読み会@クックパッド 30
• 分岐においてデータが両側に𝑂( 𝑛)個以上ある場合は、
第二項が支配的になる
• つまり𝑂( 𝑛)で近似誤差は減っていくので、非常に良い近似との
こと
GOSSによる近似誤差
2018/1/27NIPS2017論文読み会@クックパッド 31
• 𝑎 = 0のときはランダムサンプリングとおなじになるが、
• 基本的に𝐶0,𝛽 > 𝐶 𝑎,𝛽−𝑎となる限りは誤差が小さくなる。
つまり単純なサンプリングよりは大体良い近似となりそう
の場合
一般的な損失関数について
本論文では分散による分岐スコアしか扱って無いが、
おそらく内部ではXGBoostと同じ分岐スコアをつかってるはずなので
2018/1/27NIPS2017論文読み会@クックパッド 32
Gain of xgboost’s criterion when a node splits to 𝐿 𝐿 and 𝐿 𝑅
恐らくヘッシアンについても
同じ割り戻しの操作をする
と思われる
EFB (Exclusive Feature Bundling)
• 分岐点の探索が一番重い。特徴の数だけやる必要
• 大規模データでは疎な特徴がとても多く、
非ゼロ要素のパターンに全く被りが無いことも多い(exclusive)
(one-hot encodingした特徴等)
• 非ゼロ要素が被らない特徴はまとめて(bundling)、
一つの特徴と扱っても特に問題は発生しない
• まとめれば纏めるほど計算量は下がる
𝑂 #𝑑𝑎𝑡𝑎 × #𝑓𝑒𝑎𝑡𝑢𝑟𝑒 → 𝑂(#𝑑𝑎𝑡𝑎 × #𝑏𝑢𝑛𝑑𝑙𝑒)
2018/1/27NIPS2017論文読み会@クックパッド 33
EFBの思想
Bundleの数を一番小さくしたい
出来る限り特徴を纏めるほど計算量は下がるが、
2018/1/27NIPS2017論文読み会@クックパッド 34
グラフ 𝐺 = (𝑉, 𝐸)を、
𝑉 : 特徴の集合
𝑒𝑖𝑗 ∈ 𝐸: 特徴iと特徴jの非ゼロ要素のパターンに全く被りが無い
とすると、この問題はグラフ彩色問題と等価なのでNP-hard
Theorem 4.1
Boundle発見の貪欲法
• 基本アイデアはグラフの次数が多い特徴量から順にbundleを
作成していく貪欲法
• 『非ゼロ要素のパターンに全く被りが無い』ではなく、
ある一定の被りまでは許す
• グラフの次数は特徴が多い場合に計算コストが重いので、
非ゼロ要素数の少ない順に貪欲法をする
『非ゼロ要素数の少ない』 ≒ 『被りが少ない』
• ヒストグラムのビンをずらしてbundleから各特徴へ復元出来る
ようにする
• 𝑂 #𝑓𝑒𝑎𝑡𝑢𝑟𝑒2
かかるが最初に一回やるだけなので問題ない
2018/1/27NIPS2017論文読み会@クックパッド 35
数値実験
2018/1/27NIPS2017論文読み会@クックパッド 36
LightGBM GBDT + BOSS + FEB
lgb_baseline Without BOSS & FEB
xgb_his Xgboost with histogram Algorithm
xgb_exa Xgboost with Pre-sorted Algorithm
• LightGBMが最も高速・高精度
• EFBが速度向上にかなり寄与
GOSSとSGB(Stochastic Gradient Boosting)との比較
2018/1/27NIPS2017論文読み会@クックパッド 37
GOSSの方がsampling ratioに関わらず精度が高い
まとめ&私見
• LightGBM は GBDT + GOSS + EFB
• GOSSで全データを走査せずに分岐スコアを算出
– でもLightGBMのデフォルトはgossがオフ。これは一体。。。
– 論文の理論解析がGOSSだけなので執筆上の都合かも
• EFBで特徴量をまとめて計算量を削減
– EFBはhistogram-based algorithmと結びついているので、
LightGBMにpre-sorted algorithmはない
• 速度を可能な限り上げるために実装を考えた感じが、
行間からにじみ出てておりKagglerとして感謝しかない
2018/1/27NIPS2017論文読み会@クックパッド 38

Weitere ähnliche Inhalte

Was ist angesagt?

Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてSho Takase
 
LightGBMを少し改造してみた ~カテゴリ変数の動的エンコード~
LightGBMを少し改造してみた ~カテゴリ変数の動的エンコード~LightGBMを少し改造してみた ~カテゴリ変数の動的エンコード~
LightGBMを少し改造してみた ~カテゴリ変数の動的エンコード~RyuichiKanoh
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向ohken
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたぱんいち すみもと
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 
adversarial training.pptx
adversarial training.pptxadversarial training.pptx
adversarial training.pptxssuserc45ddf
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)Shota Imai
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Modelscvpaper. challenge
 
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Plot Hong
 
探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディット探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディットH Okazaki
 
XGBoostからNGBoostまで
XGBoostからNGBoostまでXGBoostからNGBoostまで
XGBoostからNGBoostまでTomoki Yoshida
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
ナレッジグラフ入門
ナレッジグラフ入門ナレッジグラフ入門
ナレッジグラフ入門KnowledgeGraph
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANsDeep Learning JP
 
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object DetectionDeep Learning JP
 
強化学習 DQNからPPOまで
強化学習 DQNからPPOまで強化学習 DQNからPPOまで
強化学習 DQNからPPOまでharmonylab
 

Was ist angesagt? (20)

Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 
LightGBMを少し改造してみた ~カテゴリ変数の動的エンコード~
LightGBMを少し改造してみた ~カテゴリ変数の動的エンコード~LightGBMを少し改造してみた ~カテゴリ変数の動的エンコード~
LightGBMを少し改造してみた ~カテゴリ変数の動的エンコード~
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
adversarial training.pptx
adversarial training.pptxadversarial training.pptx
adversarial training.pptx
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
 
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
 
探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディット探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディット
 
XGBoostからNGBoostまで
XGBoostからNGBoostまでXGBoostからNGBoostまで
XGBoostからNGBoostまで
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
ナレッジグラフ入門
ナレッジグラフ入門ナレッジグラフ入門
ナレッジグラフ入門
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs
 
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
 
強化学習 DQNからPPOまで
強化学習 DQNからPPOまで強化学習 DQNからPPOまで
強化学習 DQNからPPOまで
 

Ähnlich wie NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree

Kaggle&競プロ紹介 in 中田研究室
Kaggle&競プロ紹介 in 中田研究室Kaggle&競プロ紹介 in 中田研究室
Kaggle&競プロ紹介 in 中田研究室Takami Sato
 
NeurIPS'21参加報告 tanimoto_public
NeurIPS'21参加報告 tanimoto_publicNeurIPS'21参加報告 tanimoto_public
NeurIPS'21参加報告 tanimoto_publicAkira Tanimoto
 
QuantumGISセミナー(ESJ59版, QGIS1.6Ver用)
QuantumGISセミナー(ESJ59版, QGIS1.6Ver用)QuantumGISセミナー(ESJ59版, QGIS1.6Ver用)
QuantumGISセミナー(ESJ59版, QGIS1.6Ver用)IWASAKI NOBUSUKE
 
CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)MasanoriSuganuma
 
Esj59 qgis handson-1
Esj59 qgis handson-1Esj59 qgis handson-1
Esj59 qgis handson-1OSgeo Japan
 
CNNの構造最適化手法について
CNNの構造最適化手法についてCNNの構造最適化手法について
CNNの構造最適化手法についてMasanoriSuganuma
 
121215 foss4 g_nagoya_qgis_handson
121215 foss4 g_nagoya_qgis_handson121215 foss4 g_nagoya_qgis_handson
121215 foss4 g_nagoya_qgis_handsonTakayuki Nuimura
 
QGISハンズオン初級編(FOSS4G 2012 Hokkaido)
QGISハンズオン初級編(FOSS4G 2012 Hokkaido)QGISハンズオン初級編(FOSS4G 2012 Hokkaido)
QGISハンズオン初級編(FOSS4G 2012 Hokkaido)IWASAKI NOBUSUKE
 
kaggle Freesound Audio Tagging 2019 4th place solution
kaggle Freesound Audio Tagging 2019 4th place solutionkaggle Freesound Audio Tagging 2019 4th place solution
kaggle Freesound Audio Tagging 2019 4th place solution理 秋山
 
萩野服部研究室 スキー合宿 2012 自己紹介(酒井)
萩野服部研究室 スキー合宿 2012 自己紹介(酒井)萩野服部研究室 スキー合宿 2012 自己紹介(酒井)
萩野服部研究室 スキー合宿 2012 自己紹介(酒井)Masahiro Sakai
 
グラフ構造のデータモデルをPower BIで可視化してみた
グラフ構造のデータモデルをPower BIで可視化してみたグラフ構造のデータモデルをPower BIで可視化してみた
グラフ構造のデータモデルをPower BIで可視化してみたCData Software Japan
 
ChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdf
ChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdfChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdf
ChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdfGinpei Kobayashi
 
Robust Large-Scale Machine Learning in the Cloud
Robust Large-Scale Machine Learning in the CloudRobust Large-Scale Machine Learning in the Cloud
Robust Large-Scale Machine Learning in the CloudYuto Yamaguchi
 

Ähnlich wie NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree (15)

Kaggle&競プロ紹介 in 中田研究室
Kaggle&競プロ紹介 in 中田研究室Kaggle&競プロ紹介 in 中田研究室
Kaggle&競プロ紹介 in 中田研究室
 
NeurIPS'21参加報告 tanimoto_public
NeurIPS'21参加報告 tanimoto_publicNeurIPS'21参加報告 tanimoto_public
NeurIPS'21参加報告 tanimoto_public
 
QuantumGISセミナー(ESJ59版, QGIS1.6Ver用)
QuantumGISセミナー(ESJ59版, QGIS1.6Ver用)QuantumGISセミナー(ESJ59版, QGIS1.6Ver用)
QuantumGISセミナー(ESJ59版, QGIS1.6Ver用)
 
CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)
 
Esj59 qgis handson-1
Esj59 qgis handson-1Esj59 qgis handson-1
Esj59 qgis handson-1
 
CNNの構造最適化手法について
CNNの構造最適化手法についてCNNの構造最適化手法について
CNNの構造最適化手法について
 
121215 foss4 g_nagoya_qgis_handson
121215 foss4 g_nagoya_qgis_handson121215 foss4 g_nagoya_qgis_handson
121215 foss4 g_nagoya_qgis_handson
 
QGISハンズオン初級編(FOSS4G 2012 Hokkaido)
QGISハンズオン初級編(FOSS4G 2012 Hokkaido)QGISハンズオン初級編(FOSS4G 2012 Hokkaido)
QGISハンズオン初級編(FOSS4G 2012 Hokkaido)
 
121012 gisa qgis_handson
121012 gisa qgis_handson121012 gisa qgis_handson
121012 gisa qgis_handson
 
kaggle Freesound Audio Tagging 2019 4th place solution
kaggle Freesound Audio Tagging 2019 4th place solutionkaggle Freesound Audio Tagging 2019 4th place solution
kaggle Freesound Audio Tagging 2019 4th place solution
 
萩野服部研究室 スキー合宿 2012 自己紹介(酒井)
萩野服部研究室 スキー合宿 2012 自己紹介(酒井)萩野服部研究室 スキー合宿 2012 自己紹介(酒井)
萩野服部研究室 スキー合宿 2012 自己紹介(酒井)
 
グラフ構造のデータモデルをPower BIで可視化してみた
グラフ構造のデータモデルをPower BIで可視化してみたグラフ構造のデータモデルをPower BIで可視化してみた
グラフ構造のデータモデルをPower BIで可視化してみた
 
ChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdf
ChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdfChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdf
ChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdf
 
M5 sinchir0
M5 sinchir0M5 sinchir0
M5 sinchir0
 
Robust Large-Scale Machine Learning in the Cloud
Robust Large-Scale Machine Learning in the CloudRobust Large-Scale Machine Learning in the Cloud
Robust Large-Scale Machine Learning in the Cloud
 

Mehr von Takami Sato

Kaggle Santa 2019で学ぶMIP最適化入門
Kaggle Santa 2019で学ぶMIP最適化入門Kaggle Santa 2019で学ぶMIP最適化入門
Kaggle Santa 2019で学ぶMIP最適化入門Takami Sato
 
Quoraコンペ参加記録
Quoraコンペ参加記録Quoraコンペ参加記録
Quoraコンペ参加記録Takami Sato
 
Data Science Bowl 2017 Winning Solutions Survey
Data Science Bowl 2017Winning Solutions SurveyData Science Bowl 2017Winning Solutions Survey
Data Science Bowl 2017 Winning Solutions SurveyTakami Sato
 
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...Takami Sato
 
Overview of tree algorithms from decision tree to xgboost
Overview of tree algorithms from decision tree to xgboostOverview of tree algorithms from decision tree to xgboost
Overview of tree algorithms from decision tree to xgboostTakami Sato
 
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entriesIcml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entriesTakami Sato
 
AAをつくろう!
AAをつくろう!AAをつくろう!
AAをつくろう!Takami Sato
 
High performance python computing for data science
High performance python computing for data scienceHigh performance python computing for data science
High performance python computing for data scienceTakami Sato
 
Scikit learnで学ぶ機械学習入門
Scikit learnで学ぶ機械学習入門Scikit learnで学ぶ機械学習入門
Scikit learnで学ぶ機械学習入門Takami Sato
 
最適化超入門
最適化超入門最適化超入門
最適化超入門Takami Sato
 
Word2vecで大谷翔平の二刀流論争に終止符を打つ!
Word2vecで大谷翔平の二刀流論争に終止符を打つ!Word2vecで大谷翔平の二刀流論争に終止符を打つ!
Word2vecで大谷翔平の二刀流論争に終止符を打つ!Takami Sato
 
セクシー女優で学ぶ画像分類入門
セクシー女優で学ぶ画像分類入門セクシー女優で学ぶ画像分類入門
セクシー女優で学ぶ画像分類入門Takami Sato
 

Mehr von Takami Sato (12)

Kaggle Santa 2019で学ぶMIP最適化入門
Kaggle Santa 2019で学ぶMIP最適化入門Kaggle Santa 2019で学ぶMIP最適化入門
Kaggle Santa 2019で学ぶMIP最適化入門
 
Quoraコンペ参加記録
Quoraコンペ参加記録Quoraコンペ参加記録
Quoraコンペ参加記録
 
Data Science Bowl 2017 Winning Solutions Survey
Data Science Bowl 2017Winning Solutions SurveyData Science Bowl 2017Winning Solutions Survey
Data Science Bowl 2017 Winning Solutions Survey
 
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
NIPS2016論文紹介 Riemannian SVRG fast stochastic optimization on riemannian manif...
 
Overview of tree algorithms from decision tree to xgboost
Overview of tree algorithms from decision tree to xgboostOverview of tree algorithms from decision tree to xgboost
Overview of tree algorithms from decision tree to xgboost
 
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entriesIcml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
 
AAをつくろう!
AAをつくろう!AAをつくろう!
AAをつくろう!
 
High performance python computing for data science
High performance python computing for data scienceHigh performance python computing for data science
High performance python computing for data science
 
Scikit learnで学ぶ機械学習入門
Scikit learnで学ぶ機械学習入門Scikit learnで学ぶ機械学習入門
Scikit learnで学ぶ機械学習入門
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 
Word2vecで大谷翔平の二刀流論争に終止符を打つ!
Word2vecで大谷翔平の二刀流論争に終止符を打つ!Word2vecで大谷翔平の二刀流論争に終止符を打つ!
Word2vecで大谷翔平の二刀流論争に終止符を打つ!
 
セクシー女優で学ぶ画像分類入門
セクシー女優で学ぶ画像分類入門セクシー女優で学ぶ画像分類入門
セクシー女優で学ぶ画像分類入門
 

Kürzlich hochgeladen

論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsWSO2
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptxsn679259
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 

Kürzlich hochgeladen (10)

論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 

NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree