Suche senden
Hochladen
BMS Molecular Translation 3rd place solution
•
1 gefällt mir
•
430 views
Kazuki Fujikawa
Folgen
BMS Molecular Translation 3rd place solution
Weniger lesen
Mehr lesen
Software
Melden
Teilen
Melden
Teilen
1 von 34
Jetzt herunterladen
Downloaden Sie, um offline zu lesen
Empfohlen
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII
MS COCO Dataset Introduction
MS COCO Dataset Introduction
Shinagawa Seitaro
ICLR2019 読み会in京都 ICLRから読み取るFeature Disentangleの研究動向
ICLR2019 読み会in京都 ICLRから読み取るFeature Disentangleの研究動向
Yamato OKAMOTO
【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)
Deep Learning JP
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
Deep Learning JP
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
Deep Learning JP
動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )
cvpaper. challenge
Empfohlen
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII
MS COCO Dataset Introduction
MS COCO Dataset Introduction
Shinagawa Seitaro
ICLR2019 読み会in京都 ICLRから読み取るFeature Disentangleの研究動向
ICLR2019 読み会in京都 ICLRから読み取るFeature Disentangleの研究動向
Yamato OKAMOTO
【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)
Deep Learning JP
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
Deep Learning JP
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
Deep Learning JP
動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )
cvpaper. challenge
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
cvpaper. challenge
【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
cvpaper. challenge
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
Masakazu Iwamura
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)
cvpaper. challenge
20160724_cv_sfm_revisited
20160724_cv_sfm_revisited
Kyohei Unno
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
Takuma Yagi
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
Deep Learning JP
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
Deep Learning JP
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
Yusuke Uchida
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
Deep Learning JP
Semantic segmentation
Semantic segmentation
Takuya Minagawa
最新の多様な深層強化学習モデルとその応用(第40回強化学習アーキテクチャ講演資料)
最新の多様な深層強化学習モデルとその応用(第40回強化学習アーキテクチャ講演資料)
Shota Imai
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2
Hirokatsu Kataoka
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
Deep Learning による視覚×言語融合の最前線
Deep Learning による視覚×言語融合の最前線
Yoshitaka Ushiku
[DL輪読会]Wav2CLIP: Learning Robust Audio Representations From CLIP
[DL輪読会]Wav2CLIP: Learning Robust Audio Representations From CLIP
Deep Learning JP
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
Deep Learning JP
[DL輪読会]An Image is Worth 16x16 Words: Transformers for Image Recognition at S...
[DL輪読会]An Image is Worth 16x16 Words: Transformers for Image Recognition at S...
Deep Learning JP
CI/CD Pipeline を考える 〜KubeCon 2017 + CyberAgent の最大公倍数〜
CI/CD Pipeline を考える 〜KubeCon 2017 + CyberAgent の最大公倍数〜
Masaya Aoyama
Weitere ähnliche Inhalte
Was ist angesagt?
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
cvpaper. challenge
【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
cvpaper. challenge
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
Masakazu Iwamura
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)
cvpaper. challenge
20160724_cv_sfm_revisited
20160724_cv_sfm_revisited
Kyohei Unno
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
Takuma Yagi
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
Deep Learning JP
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
Deep Learning JP
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
Yusuke Uchida
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
Deep Learning JP
Semantic segmentation
Semantic segmentation
Takuya Minagawa
最新の多様な深層強化学習モデルとその応用(第40回強化学習アーキテクチャ講演資料)
最新の多様な深層強化学習モデルとその応用(第40回強化学習アーキテクチャ講演資料)
Shota Imai
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2
Hirokatsu Kataoka
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
Deep Learning による視覚×言語融合の最前線
Deep Learning による視覚×言語融合の最前線
Yoshitaka Ushiku
[DL輪読会]Wav2CLIP: Learning Robust Audio Representations From CLIP
[DL輪読会]Wav2CLIP: Learning Robust Audio Representations From CLIP
Deep Learning JP
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
Deep Learning JP
Was ist angesagt?
(20)
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)
20160724_cv_sfm_revisited
20160724_cv_sfm_revisited
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
Semantic segmentation
Semantic segmentation
最新の多様な深層強化学習モデルとその応用(第40回強化学習アーキテクチャ講演資料)
最新の多様な深層強化学習モデルとその応用(第40回強化学習アーキテクチャ講演資料)
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning による視覚×言語融合の最前線
Deep Learning による視覚×言語融合の最前線
[DL輪読会]Wav2CLIP: Learning Robust Audio Representations From CLIP
[DL輪読会]Wav2CLIP: Learning Robust Audio Representations From CLIP
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
Ähnlich wie BMS Molecular Translation 3rd place solution
[DL輪読会]An Image is Worth 16x16 Words: Transformers for Image Recognition at S...
[DL輪読会]An Image is Worth 16x16 Words: Transformers for Image Recognition at S...
Deep Learning JP
CI/CD Pipeline を考える 〜KubeCon 2017 + CyberAgent の最大公倍数〜
CI/CD Pipeline を考える 〜KubeCon 2017 + CyberAgent の最大公倍数〜
Masaya Aoyama
第7回 配信講義 計算科学技術特論A(2021)
第7回 配信講義 計算科学技術特論A(2021)
RCCSRENKEI
STARC RTL設計スタイルガイドによるVerilog HDL並列記述の補強
STARC RTL設計スタイルガイドによるVerilog HDL並列記述の補強
Kiyoshi Ogawa
バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料)
バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料)
NTT DATA Technology & Innovation
Toxic comment classification
Toxic comment classification
Nasuka Sumino
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
cvpaper. challenge
C#メタプログラミング概略 in 2021
C#メタプログラミング概略 in 2021
Atsushi Nakamura
JavaでWebサービスを作り続けるための戦略と戦術 JJUG-CCC-2018-Spring-g1
JavaでWebサービスを作り続けるための戦略と戦術 JJUG-CCC-2018-Spring-g1
Y Watanabe
20130228 Goノススメ(BPStudy #66)
20130228 Goノススメ(BPStudy #66)
Yoshifumi Yamaguchi
ipsjifat201909
ipsjifat201909
Tetsuya Sakai
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
Deep Learning JP
Mk network programmability-03
Mk network programmability-03
Miya Kohno
「宣言的プログラミング」とSDNのひとつの形態
「宣言的プログラミング」とSDNのひとつの形態
npsg
密着! nibohsiデプロイ 13:00-13:05 - railsアプリのデプロイ事例 -
密着! nibohsiデプロイ 13:00-13:05 - railsアプリのデプロイ事例 -
Yukihiko SAWANOBORI
【勉強会】パターンによるソフトウェア構成管理
【勉強会】パターンによるソフトウェア構成管理
zuisener .
小二病でもGCやりたい
小二病でもGCやりたい
dec9ue
Cibc lecture imagire
Cibc lecture imagire
Takashi Imagire
人が注目する箇所を当てるSaliency Detectionの最新モデル UCNet(CVPR2020)
人が注目する箇所を当てるSaliency Detectionの最新モデル UCNet(CVPR2020)
Shintaro Yoshida
2012-03-08 MSS研究会
2012-03-08 MSS研究会
Kimikazu Kato
Ähnlich wie BMS Molecular Translation 3rd place solution
(20)
[DL輪読会]An Image is Worth 16x16 Words: Transformers for Image Recognition at S...
[DL輪読会]An Image is Worth 16x16 Words: Transformers for Image Recognition at S...
CI/CD Pipeline を考える 〜KubeCon 2017 + CyberAgent の最大公倍数〜
CI/CD Pipeline を考える 〜KubeCon 2017 + CyberAgent の最大公倍数〜
第7回 配信講義 計算科学技術特論A(2021)
第7回 配信講義 計算科学技術特論A(2021)
STARC RTL設計スタイルガイドによるVerilog HDL並列記述の補強
STARC RTL設計スタイルガイドによるVerilog HDL並列記述の補強
バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料)
バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料)
Toxic comment classification
Toxic comment classification
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
C#メタプログラミング概略 in 2021
C#メタプログラミング概略 in 2021
JavaでWebサービスを作り続けるための戦略と戦術 JJUG-CCC-2018-Spring-g1
JavaでWebサービスを作り続けるための戦略と戦術 JJUG-CCC-2018-Spring-g1
20130228 Goノススメ(BPStudy #66)
20130228 Goノススメ(BPStudy #66)
ipsjifat201909
ipsjifat201909
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
Mk network programmability-03
Mk network programmability-03
「宣言的プログラミング」とSDNのひとつの形態
「宣言的プログラミング」とSDNのひとつの形態
密着! nibohsiデプロイ 13:00-13:05 - railsアプリのデプロイ事例 -
密着! nibohsiデプロイ 13:00-13:05 - railsアプリのデプロイ事例 -
【勉強会】パターンによるソフトウェア構成管理
【勉強会】パターンによるソフトウェア構成管理
小二病でもGCやりたい
小二病でもGCやりたい
Cibc lecture imagire
Cibc lecture imagire
人が注目する箇所を当てるSaliency Detectionの最新モデル UCNet(CVPR2020)
人が注目する箇所を当てるSaliency Detectionの最新モデル UCNet(CVPR2020)
2012-03-08 MSS研究会
2012-03-08 MSS研究会
Mehr von Kazuki Fujikawa
Stanford Covid Vaccine 2nd place solution
Stanford Covid Vaccine 2nd place solution
Kazuki Fujikawa
ACL2020 best papers
ACL2020 best papers
Kazuki Fujikawa
Kaggle参加報告: Champs Predicting Molecular Properties
Kaggle参加報告: Champs Predicting Molecular Properties
Kazuki Fujikawa
NLP@ICLR2019
NLP@ICLR2019
Kazuki Fujikawa
Kaggle参加報告: Quora Insincere Questions Classification
Kaggle参加報告: Quora Insincere Questions Classification
Kazuki Fujikawa
Ordered neurons integrating tree structures into recurrent neural networks
Ordered neurons integrating tree structures into recurrent neural networks
Kazuki Fujikawa
A closer look at few shot classification
A closer look at few shot classification
Kazuki Fujikawa
Graph convolutional policy network for goal directed molecular graph generation
Graph convolutional policy network for goal directed molecular graph generation
Kazuki Fujikawa
Conditional neural processes
Conditional neural processes
Kazuki Fujikawa
NIPS2017 Few-shot Learning and Graph Convolution
NIPS2017 Few-shot Learning and Graph Convolution
Kazuki Fujikawa
Matrix capsules with em routing
Matrix capsules with em routing
Kazuki Fujikawa
Predicting organic reaction outcomes with weisfeiler lehman network
Predicting organic reaction outcomes with weisfeiler lehman network
Kazuki Fujikawa
SchNet: A continuous-filter convolutional neural network for modeling quantum...
SchNet: A continuous-filter convolutional neural network for modeling quantum...
Kazuki Fujikawa
Matching networks for one shot learning
Matching networks for one shot learning
Kazuki Fujikawa
DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用
Kazuki Fujikawa
Mehr von Kazuki Fujikawa
(15)
Stanford Covid Vaccine 2nd place solution
Stanford Covid Vaccine 2nd place solution
ACL2020 best papers
ACL2020 best papers
Kaggle参加報告: Champs Predicting Molecular Properties
Kaggle参加報告: Champs Predicting Molecular Properties
NLP@ICLR2019
NLP@ICLR2019
Kaggle参加報告: Quora Insincere Questions Classification
Kaggle参加報告: Quora Insincere Questions Classification
Ordered neurons integrating tree structures into recurrent neural networks
Ordered neurons integrating tree structures into recurrent neural networks
A closer look at few shot classification
A closer look at few shot classification
Graph convolutional policy network for goal directed molecular graph generation
Graph convolutional policy network for goal directed molecular graph generation
Conditional neural processes
Conditional neural processes
NIPS2017 Few-shot Learning and Graph Convolution
NIPS2017 Few-shot Learning and Graph Convolution
Matrix capsules with em routing
Matrix capsules with em routing
Predicting organic reaction outcomes with weisfeiler lehman network
Predicting organic reaction outcomes with weisfeiler lehman network
SchNet: A continuous-filter convolutional neural network for modeling quantum...
SchNet: A continuous-filter convolutional neural network for modeling quantum...
Matching networks for one shot learning
Matching networks for one shot learning
DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用
BMS Molecular Translation 3rd place solution
1.
2021.06. DS輪講 Kazuki Fujikawa 株式会社ディー・エヌ・エー
+ 株式会社 Mobility Technologies Kaggle Competition: Bristol-Myers Squibb Molecular Translation 3rd place solution Team: kyamaro (KF + lyakaap + camaro)
2.
▪ コンペティション概要 ▪ ベースライン ▪
Solution AGENDA
3.
▪ コンペティション概要 ▪ ベースライン ▪
Solution AGENDA
4.
▪ 薬品などに有用な化学構造は論文・特許で公開される ▪ 古い出版物にはInChIなどの機械で読める記述が無く、検索が困難 ▪
検索が可能になると、車輪の再発明を防げたり、データマイニング で新たな化学構造を見つける助けになる ▪ 既存の構造式OCRツールは性能に課題がある ▪ 古い出版物は画像に破損が含まれている場合が多い コンペティション概要: 背景 破損が含まれる画像に対しても適用可能な化合物OCRを作りたい
5.
▪ 与えられた化学構造画像に対するInChIを推定する コンペティション概要: タスク InChI=1S /C13H20OS /c1-9(2)8-15-13-6-5-10(3)7-12(13)11(4)14 /h5-7,9,11,14H,8H2,1-4H3 入力:
モノクロ画像 出力: InChIテキスト(改行は不要)
6.
▪ 与えられた化学構造に対するInChIを推定する コンペティション概要: タスク InChI=1S /C13H20OS /c1-9(2)8-15-13-6-5-10(3)7-12(13)11(4)14 /h5-7,9,11,14H,8H2,1-4H3 入力:
モノクロ画像 出力: InChIテキスト(改行は不要) InChIの規格を表すレイヤー “1”: version “S”: standard (今回のデータセットは全てInChI=1S)
7.
▪ 与えられた化学構造に対するInChIを推定する コンペティション概要: タスク InChI=1S /C13H20OS /c1-9(2)8-15-13-6-5-10(3)7-12(13)11(4)14 /h5-7,9,11,14H,8H2,1-4H3 入力:
モノクロ画像 出力: InChIテキスト(改行は不要) 化学式レイヤー 分子を構成する原子とその個数を記述
8.
▪ 与えられた化学構造に対するInChIを推定する コンペティション概要: タスク InChI=1S /C13H20OS /c1-9(2)8-15-13-6-5-10(3)7-12(13)11(4)14 /h5-7,9,11,14H,8H2,1-4H3 入力:
モノクロ画像 出力: InChIテキスト(改行は不要) 原子の結合情報を表すレイヤー 一貫するルールに基づいて原子に番号を振り、 分岐は括弧書きで表しながら1列の文字列で表す e.g. 1番の次は9番、分岐して2番、戻って8番、... 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
9.
▪ 与えられた化学構造に対するInChIを推定する コンペティション概要: タスク InChI=1S /C13H20OS /c1-9(2)8-15-13-6-5-10(3)7-12(13)11(4)14 /h5-7,9,11,14H,8H2,1-4H3 入力:
モノクロ画像 出力: InChIテキスト(改行は不要) 各原子が保有する水素の数を表すレイヤー /hは接頭語、5-7, 9, 11, 14番の原子は1個の水素、 8番に2個の水素、1-4番に3個の水素が付いている ことを表す 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
10.
▪ 与えられた化学構造に対するInChIを推定する コンペティション概要: タスク InChI=1S /C13H20OS /c1-9(2)8-15-13-6-5-10(3)7-12(13)11(4)14 /h5-7,9,11,14H,8H2,1-4H3 入力:
モノクロ画像 出力: InChIテキスト(改行は不要)
11.
▪ 編集距離(Levenshtein distance)で評価 ▪
推定InChIからGT InChIへ変換するのに必要な最小の編集回数 ▪ 編集: ”置換”, ”削除”, “追加” ▪ ex. kitten → sitting: 編集距離3 1. kitten → sitten(replace k → s) 2. sitten → sittin(replace e → i) 3. sittin → sitting(append g) コンペティション概要: 評価
12.
▪ コンペティション概要 ▪ ベースライン ▪
Solution AGENDA
13.
▪ 一般的な Image
captioning タスクのフレームワークで、 InChIを単なる文字列と考えて系列生成 ▪ レイヤー毎に意味合いは異なるが、予想以上に上手くいく ▪ EffnetなどのCNNベースよりも、TransformerベースのEncoderの方が 明確に性能が良かった(弊チーム調べ) ▪ 今回のタスクは、”何が” “どこに” 写っているのかを Decoder に伝える 必要があったので、TransformerベースのEncoderの方が有利だった? ベースライン: Image captioning framework Image Encoder Transformer Decoder InChI=1S /C13H20OS ...
14.
▪ Transformer in
Transformer (TNT) をEncoderとして利用する ことが有効であることがシェアされていた(by hengck23) ▪ TNT: 通常のViTのフレームワークに加え、ピクセル間の関係性も Transformerでエンコードする(ViTは線形写像) ベースライン: TNT Encoder Patch Transformer Pixel Transformer Pixel Transformer Pixel Transformer ... ... ... ... Decoderから参照
15.
▪ 今回のタスクでは、”何も写っていない領域” を抽出しやすい ▪
何か写ったパッチに絞ってTNTを適用(by hengck23) ▪ → 計算コスト・GPUメモリ削減に繋がり、解像度拡大を容易にした ベースライン: TNT Encoder with variable patches(CV:1.30, LB:2.35) Patch Transformer Pixel Transformer Pixel Transformer Pixel Transformer ... ... ... ... Decoderから参照
16.
▪ 生成したInChIをRDKitで標準化(by nofreewill) ▪
MolToInchi(MolFromInchi(inchi)) を実行 ▪ 原子に対する番号振り間違い程度であれば、この処理で標準化が可能 ベースライン: RDKit normalization(後処理) InChI=1S /C9F5NO /c10-4-5(11)7(13)9(15-2-1-3-16)8(14)6(4)12 InChI=1S /C9F5NO /c10-4-5(11)7(13)9(8(14)6(4)12)15-2-1-3-16
17.
▪ コンペティション概要 ▪ ベースライン ▪
Solution AGENDA
18.
Phase1: Image Captioning学習 ●
Swin Transformer ● Salt & pepper noise ● Focal loss ● Train longer Phase2: InChI候補生成 ● Beam search ● Logit ensemble Phase3: InChI候補リランキング ● RDKit標準化の利用 ● 複数モデルで再評価 Solution: Overview
19.
Solution: Overview Phase1: Image
Captioning学習 ● Swin Transformer ● Salt & pepper noise ● Focal loss ● Train longer Phase2: InChI候補生成 ● Beam search ● Logit ensemble Phase3: InChI候補リランキング ● RDKit標準化の利用 ● 複数モデルで再評価
20.
▪ CV-LBギャップが大幅に改善(CV: 1.23,
LB: 1.43) ▪ TNT(CV: 1.30, LB: 2.18)と比較すると顕著 ▪ ちょうど論文読み会の順番が回ってきたので、Swin Transformerを 勉強してみたが、原因はよくわからず Phase1: Swin Transformer Encoder(LB:2.18→LB:1.43) https://www.slideshare.net/DeepLearningJP2016/dlswin-transformer-hierarchical-vision-transformer-using-shifted-windows
21.
▪ SwinはCV-LBが一貫していたため、Swinの生成結果をGTだと 考えた時の、TNTとのLevenshteinを比較 ▪ Valid:
1.02・Test: 2.16と、2モデル間でもギャップがあることを確認 ▪ Levenshteinが大きい順に、Valid / Test を見比べた ▪ (当然だが)Valid / Test 共に、サイズの大きい化合物が目立つ ▪ Testの方は、ごま塩ノイズが特に目立っていた Phase1: Swin ⇔ TNT 間の生成結果の比較 Levenshtein最大化合物(valid) Levenshtein最大化合物(test)
22.
▪ 同じ学習済みモデルに対し、testをデノイズして予測させる ▪ ある点を中心とする正方形中に、一つも黒点がなければ白に置き換える ▪
再訓練していないにも関わらず、CV-LB Gapが激減 ▪ ただし、デノイズで重要な点を削ってしまうこともあり、CVも少し 悪化していた Phase1: ごま塩をデノイズして予測(LB: 2.18→1.26) ノイズ除去○ ノイズ除去☓ デノイズフィルタ(k=5)概要 Model CV LB TNT 1.13 2.18 +denoise (k=3) 1.69 1.71 +denoise (k=5) 1.22 1.26 +denoise (k=7) 1.17 1.32
23.
▪ 訓練時、ごま塩をランダムに追加して学習 ▪ (解像度拡大も同時にしたので差分がわかりづらいが) デノイズ無しでも
CV-LB Gap が解消された Phase1: 訓練時にごま塩追加(+解像度拡大)(LB: 1.26→1.06)
24.
▪ 今回のタスクでは、大多数のサンプルが完全一致で当てられており、 一部のサンプルで大きなLossが生じる状態になっていた ▪ 参考:
Swin Transformer(CV: 0.98, LB: 0.99) ▪ Levenshtein=0: 87% ▪ Levenshtein=1: 7% ▪ … ▪ Focal Lossで、簡単なサンプルに対するLoss の影響を小さくすることで、学習効率が向上 ▪ Phase1: CE Loss → Focal Loss Levenshtein分布(Logスケール)
25.
▪ Camaroさんとチームマージした際、CVの差に衝撃を受けた ▪ Best
single (Camaro): CV=0.66, LB=0.87 ▪ Best single (KF): CV=0.98, LB=0.99 ▪ 主要因はepoch数ではないかと推測 ▪ Camaro: 25-50 epoch (TPU 7days?) ▪ KF: 10 epoch (A100 7days) ▪ Train/Valid lossが共通して単調減少していたので未学習気味とは 思っていたが、他モデルの検証を優先して試せていなかった ▪ 3 epoch追加学習するとCV=0.98 → 0.91に改善 ▪ もっと長くするともっと伸びそう... ▪ とはいえ計算コスト的に辛いので、TPU使っておけばよかったか... Phase1: Train longer
26.
▪ Encoder: ▪ Swin-transformer(size=384x384) ▪
EfficientNet-v2の後段にViTをくっつけたもの(size=448x448) ▪ Patch embeddingにCNNを使うイメージ ▪ Decoder: ▪ 三層のtransformer ▪ これ以上深くすると学習が不安定に ▪ 画像のresizeにPIL.Image.resizeを使う ▪ cv2.resizeなどよりもPILの方が劣化が少ないらしい(参考) ▪ Pseudo labelを使ったfine tuning ▪ CV/LBのギャップを埋めるのに貢献。CV/LBも0.3ほどスコア向上。 ▪ Sequence bucketingによる学習の高速化 Phase1: lyakaap part
27.
Solution: Overview Phase1: Image
Captioning学習 ● Swin Transformer ● Salt & pepper noise ● Focal loss ● Train longer Phase2: InChI候補生成 ● Beam search ● Logit ensemble Phase3: InChI候補リランキング ● RDKit標準化の利用 ● 複数モデルで再評価
28.
▪ Phase3でリランキングを行うため、Phase2では良質で多様な 候補を生成する必要があった ▪ 一つの手段としてBeam
Searchを利用 ▪ 候補が格段に増え、Greedyの生成結果と組み合わせて Phase3 の ロジックを適用することで、スコアが大きく改善された ▪ 特に難しいサンプルに対してビーム幅を広げて(Beam=32など) 生成することで、効率的に候補追加を行うことができた(by lyakaap) Phase2: Beam Search InChI=1S/C13H20OS… InChI=1S/C13H21OS… InChI=1S/C11H21OS… InChI=1S/C12H20OS... Model CV Swin (beam=1) 0.98 Swin (beam=4) 0.93 Swin (beam=1+4) 0.87
29.
▪ 各トークン予測に使うロジットをアンサンブル ▪ Swin,
TNT の2モデルだけでも割と多様性があり、アンサンブル しながら系列生成することで、より正確に予測できるようになった ▪ ただし、全てのモデルが単一のプログラムで動作する必要があり、 チーム内でモデルをシェアするのは難易度が高かった Phase2: Logit ensemble Model CV Swin (beam=1) 0.98 TNT (beam=1) 1.04 Swin+TNT (beam=1) 0.83 Swin + BERT TNT + BERT logit (vocab≒150) average + InChI=1S/C13H input 20 20?21?19? 20?18?
30.
Solution: Overview Phase1: Image
Captioning学習 ● Swin Transformer ● Salt & pepper noise ● Focal loss ● Train longer Phase2: InChI候補生成 ● Beam search ● Logit ensemble Phase3: InChI候補リランキング ● RDKit標準化の利用 ● 複数モデルで再評価
31.
▪ RDKit標準化も活用し、結果をリランキングする ▪ InChI生成時、基本的には尤度が大きくなるように生成しているものの、 1文字など些細なミスに対して尤度は甘く出がち ▪
RDKitで標準化すると逆に尤度が低くなるものも存在 ▪ 1文字ミスなどはInChI文法エラーになる場合も多く、RDKitでパース できるかどうか(is_valid={0, 1})も含めた以下ロジックが強力だった ※ score: cross entropy loss or focal loss Phase3: RDKit標準化の利用
32.
▪ 複数モデルの生成結果を相互レビューさせる ▪ 全InChI候補に対して各モデルでlossを計算し、平均値を利用する ▪
loss値のスケールが合わないモデルに対しては、一度値をランク化 した上で平均を取るようにすることで解決 ▪ 各サンプルに対する尤度を各モデルが推定できれば良いので、 実装が異なっていても活用しやすい Phase3: 複数モデルで再評価 Model (CE) Model (Focal) Average InChI Candidates A B Mean Rank C D Mean Rank Rank InChI=1S/C13H20OS… 0.1 0.9 0.5 3 0.03 0.05 0.04 2 2.5 InChI=1S/C13H21OS… 0.2 0.2 0.2 1 0.02 0.02 0.02 1 1 InChI=1S/C12H20OS... 0.3 0.5 0.4 2 0.01 0.09 0.05 3 2.5 ※ この例では同一のimageに対してRankを取っているが、実際には全imageに対するRankを取っている
33.
最終モデル(一部) Member Model CV
LB (greedy) LB (reranked) KF Swin large (384x384) + PL 0.90 0.89 0.79 TNT (512x1024) + PL 0.97 0.99 0.87 lyakaap Swin base (384x384) + PL 0.92 0.85 0.74 Swin base (384x384) + PL + focal loss 0.87 0.78 0.70 EffNet-v2 >> ViT (448x448) + PL + focal loss 0.86 0.81 0.70 Camaro EffNetB4 Transformer Decoder (416x736) 0.67 0.87 0.67 EffNetB4 Transformer Decoder (416x736) + PL 0.67 0.73 0.62 EffNetB4 Transformer Decoder (416x736) + Noise 0.65 0.84 0.62 EffNetB4 Transformer Decoder (416x736) + Noise/Denoise 0.83 0.77 0.61
34.
▪ Train/Test Gapの発見が一つの鍵だった ▪
意外と上位でも見抜いているチームは少なかったぽい? ▪ データ規模が大きい場合は特にTPUが有効 ▪ Pytorchで不自由無く使える世の中になってほしい... ▪ 多様なモデルで候補生成 + リランキングの形式が上手くいった ▪ 基本的に、候補・モデル共に、足せば足すほど伸びていった。 ▪ 特にcamaroさんと混ぜた時に急激に伸びた。多様性重要。 ▪ ビームサーチで尤度最大になる経路(InChI)を探しているはず だが、別モデルの出力を持ってきた方が尤度的にも優れていた ▪ 枝刈りが強すぎて有望なパスを見落としている可能性? ▪ 計算コスト的に難しいが、MCTS的に探索できるとより良かったかも? まとめ
Jetzt herunterladen