SlideShare ist ein Scribd-Unternehmen logo
1 von 23
http://deeplearning.jp/
HyperTree Proof Search for Neural Theorem Proving
塚本 慧
DEEP LEARNING JP
[DL Papers]
1
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
書誌情報
HyperTree Proof Search for Neural Theorem Proving
https://arxiv.org/pdf/2205.11491.pdf
タイト
ル:
著者: Guillaume Lample, Marie-Anne Lachaux, Thibaur Lavril, Xavier Martinet, Amaury Hayat,
Gabriel Ebner, Aurelien Rodrigue
• トランスフォーマーに基づいた自動定理証明のためのオンライン学習のモデルの提案。
• モンテカルロ木探索を導入。
• miniF2Fの問題の正答率を大幅に改善
概要:
2
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
アジェンダ
1. イントロダクション
1. 前提知識・関連研究
1. 証明の環境
1. HyperTree Proof Search
1. 証明探索でのオンライン学習
1. 実験
1. 結果
1. 結論
3
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
1. イントロダクション
イントロダクション
4
• これまで数学の証明の検証は人間の手で行われてきたが、数学の証明の複雑さが増している現在においては
不十分になってきている。数学を形式化することによってコンピュータに検証させようとする動きがある。
• 形式的な数学はプログラミング言語で書かれたソースコードに近く、伝統的な数学とはかけ離れている
ため、使うのが難しい。
• 既に証明されている定理を形式化するのにも膨大な労力がいる。
数学の形式化
素数が無限個あることの証明
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
1. イントロダクション
5
• 本研究では与えられた定理を人間の支援抜きでタクティックの列を生成して証明する。
• この研究により既に証明されている数学の形式化にかかる労力を大幅に削減できる。
• 証明をハイパーツリーとみなすことでモンテカルロ木探索を導入する。(後述)
イントロダクション
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
2. 前提知識・関連研究
6
lean and_commutative
証明プログラミング言語
編集 仮定とゴールの表示
解きたい命題
タクティック
(使っていい補題)
• まだ検証されていない命題をゴールとし、タクティックによってゴールと仮定を変形したり分割する。
• ゴールに何も表示されない時に証明されたということになる
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
2. 前提知識・関連研究
7
ゴールの分割
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
2. 前提知識・関連研究
8
ニューラル定理証明
• 深層学習の手法を定理証明に適用されている
自動定理証明は人工知能における長年の難問として知られている。近年の大規模言語モデルや、
モデルによる探索手法の成功に伴い自動定理証明への関心が再び高まっている。
言語モデルの推論能力
• 大規模トランスフォーマーの推論能力に注目が集まっている
モンテカルロ木探索と二人用ゲーム
• AlphaZeroのような二人用ゲームでの探索と同様に、定理証明は既に証明されている定理や補題、テクニック
を用いて探索しているとみなせる
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 証明の環境
証明の環境(使う証明プログラミング言語とそのライブラ
リ)
• Metamath, Lean, Equationsの三種類の環境で実験を行った(Equationsは本研究で新しく作った環境)
仮定とゴール(木構造の
ノードと呼ぶ)
タクティック
9
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. HyperTree Proof Search
10
証明は木構造であるとみなせる
証明の仮定とゴールは木構造のノード
タクティックは木構造の枝
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. HyperTree Proof Search
11
HyperTree Proof Search
• 次に取るべきタクティックを探索と知識利用のバランスを取りながら選択する
選択
展開
• 葉ノードを訪れた回数が閾値以上となった場合に、そのノードから先を展開する
更新
• 得られた報酬を記録し、期待報酬を更新する
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. HyperTree Proof Search
選択
• タクティックごとに計算を行う
• 報酬の総和をWとする(ここでの報酬は証明可能性を表している(解ける = 1, 解けない = 0))
• 訪問回数をNとする
• 評価値をQ=W/Nとする
探索のアルゴリズムはPUCTとRegularized Policyの両方を試す
選択
12
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. HyperTree Proof Search
展開
• 言語モデルを用いてタクティックを文章として生成
• 評価値の高いノードを優先して展開(証明においてタクティック
を実行)
展開
13
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. HyperTree Proof Search
更新
• 子ノードの評価値を元にノードの評価値を更新
• ゴールが分割されていて子ノードが複数ある時
子ノードの評価値の総積でノードの評価値を更新
(評価値は0~1で証明可能性を表す、また子ノード同士の独立性を仮定)
更新
14
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
5. 証明探索でのオンライン学習
15
学習の対象
• タクティックのモデル
ゴールを入力としてタクティックを出力する(言語モデルと同じ)
• クリティックのモデル
ノードの評価値(証明可能性)を予測
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
5. 証明探索でのオンライン学習
16
オンライン学習
非同期で分散学習を行う
• タクティックのサンプル
ゴールとタクティックのペアを抽出して訓練データとして使う
• クリティックのサンプル
探索が終わった後のすべてのノードの評価値を訓練データとして使う
探索の途中で正しいことが証明されたノードの評価値は1
探索の途中で間違いであることが証明されたノードの評価値は0
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
5. 証明探索でのオンライン学習
17
訓練の全容
• 事前学習 (数学に関する文章を大量に学習)
• ファインチューニング(学習の環境に合わせた証明プログラミング言語(Metamath, Lean, Equations)の学習)
• オンライン学習(HyperTree Proof Search)
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
6. 実験
18
モデルのファインチューニングとラベル付きのデータセット
• MetaMath
set.mmライブラリから37091個の証明を抽出
• Lean
Mathlibライブラリから24kの証明と、144kのゴールとタクティックのペアを抽出
• Equations
• 本研究のために自作で作った環境なのでライブラリがないためランダムにタクティックを実行し定理を
生成した
モデルの事前学習
• 数学に関するarxivの論文のLatexのソースコード(60億トークン)を
マスク付きのSeq2Seqのモデルで学習
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
6. 実験
19
モデルのアーキテクチャと訓練
• 12層のエンコーダと6層のデコーダを持つトランスフォーマーのアーキテクチャを使用
• エンコーダの埋め込み次元は1600, デコーダは1024(Equationsのときのみデコーダは512)
• Equationsのときのパラメータ数は440M, MetaMathとLeanは600M
ファインチューニング
• 最適化アルゴリズムはAdam
• 逆平方根学習率スケジューリングを用いる
• ドロップアウト率は0.2
• レイヤードロップアウト率は0.1
• Pytorchを用い学習を高速化するためにfloat16を使用
オンライン学習
• Warmupのあとは学習率を3×10-5
• 48 V100 GPUで16つの訓練機と32つの証明機を用い
た
• Warmupのあとは学習率を3×10-5
• 48 V100 GPUで16つの訓練機と32つの証明機を用い
た
• Warmupのあとは学習率を3×10-5
• 48 V100 GPUで16つの訓練機と32つの証明機を用い
た
• Warmupのあとは学習率を3×10-5
• 48 V100 GPUで16つの訓練機と32つの証明機を用い
た
• Warmupのあとは学習率を3×10-5
• 48 V100 GPUで16つの訓練機と32つの証明機を用い
た
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
7. 結果
20
主要な結果(モンテカルロ木探索を実行した回数は定理ごとに64)
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
7. 結果
21
Lean
1日の訓練でminiF2F-curriculumの327の問題を110問解く(GPT-fは100問)
7日の訓練で137問解く
オンライン学習中の正答率は58.6%
テスト用のデータセットでは41%(GPT-fは36.6%)
オンライン学習により正答率を61%から82.6%に向上
MetaMath
Equations
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
7. 結論
まとめ
22
• AlphaZeroから生まれた自動定理証明のための証明探索アルゴリズムを紹介した
• 複数の証明の環境で最高の結果を出した
• 数学の形式化のデータが限られているため、探索で新しいデータを増やす方法が必要になる
• 新しい定理を生成できるかも将来の課題になりそう
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
Appendix
参考文献
Leanのチュートリアル
https://leanprover.github.io/theorem_proving_in_lean/
Leanの素数に関するライブラリ
https://github.com/leanprover-community/mathlib/blob/master/src/data/nat/prime.lean#L418
23

Weitere ähnliche Inhalte

Was ist angesagt?

[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement LearningDeep Learning JP
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningYusuke Uchida
 
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with TransformersDeep Learning JP
 
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展Deep Learning JP
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )Deep Learning JP
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? Deep Learning JP
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence ModelingDeep Learning JP
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...Deep Learning JP
 
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 ConvolutionsDeep Learning JP
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...Deep Learning JP
 
[Dl輪読会]introduction of reinforcement learning
[Dl輪読会]introduction of reinforcement learning[Dl輪読会]introduction of reinforcement learning
[Dl輪読会]introduction of reinforcement learningDeep Learning JP
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...Deep Learning JP
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing FlowAkihiro Nitta
 
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...Deep Learning JP
 
[DL輪読会]Weight Agnostic Neural Networks
[DL輪読会]Weight Agnostic Neural Networks[DL輪読会]Weight Agnostic Neural Networks
[DL輪読会]Weight Agnostic Neural NetworksDeep Learning JP
 

Was ist angesagt? (20)

[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
 
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
 
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
 
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
 
[Dl輪読会]introduction of reinforcement learning
[Dl輪読会]introduction of reinforcement learning[Dl輪読会]introduction of reinforcement learning
[Dl輪読会]introduction of reinforcement learning
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing Flow
 
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
 
[DL輪読会]Weight Agnostic Neural Networks
[DL輪読会]Weight Agnostic Neural Networks[DL輪読会]Weight Agnostic Neural Networks
[DL輪読会]Weight Agnostic Neural Networks
 

Ähnlich wie 【DL輪読会】HyperTree Proof Search for Neural Theorem Proving

[DL輪読会]Diffusion-based Voice Conversion with Fast Maximum Likelihood Samplin...
[DL輪読会]Diffusion-based Voice Conversion with Fast  Maximum Likelihood Samplin...[DL輪読会]Diffusion-based Voice Conversion with Fast  Maximum Likelihood Samplin...
[DL輪読会]Diffusion-based Voice Conversion with Fast Maximum Likelihood Samplin...Deep Learning JP
 
Inspection of CloudML Hyper Parameter Tuning
Inspection of CloudML Hyper Parameter TuningInspection of CloudML Hyper Parameter Tuning
Inspection of CloudML Hyper Parameter Tuningnagachika t
 
ICST 2015 まるわかりDay! "Test Selection and Prioritization Track"
ICST 2015 まるわかりDay! "Test Selection and Prioritization Track"ICST 2015 まるわかりDay! "Test Selection and Prioritization Track"
ICST 2015 まるわかりDay! "Test Selection and Prioritization Track"SIGSTJ
 
IPAB2017 深層学習を使った新薬の探索から創造へ
IPAB2017 深層学習を使った新薬の探索から創造へIPAB2017 深層学習を使った新薬の探索から創造へ
IPAB2017 深層学習を使った新薬の探索から創造へPreferred Networks
 
【DL輪読会】Investigating Tradeoffs in Real-World Video Super-Resolution
【DL輪読会】Investigating Tradeoffs in Real-World Video Super-Resolution【DL輪読会】Investigating Tradeoffs in Real-World Video Super-Resolution
【DL輪読会】Investigating Tradeoffs in Real-World Video Super-ResolutionDeep Learning JP
 
ACL2018 Paper Survey: Learning to Ask Good Questions: Ranking Clarification Q...
ACL2018 Paper Survey: Learning to Ask Good Questions: Ranking Clarification Q...ACL2018 Paper Survey: Learning to Ask Good Questions: Ranking Clarification Q...
ACL2018 Paper Survey: Learning to Ask Good Questions: Ranking Clarification Q...Risa Nishiyama
 
Development and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and mafDevelopment and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and mafKenta Oono
 
CVPR2015読み会 "Joint Tracking and Segmentation of Multiple Targets"
CVPR2015読み会 "Joint Tracking and Segmentation of Multiple Targets"CVPR2015読み会 "Joint Tracking and Segmentation of Multiple Targets"
CVPR2015読み会 "Joint Tracking and Segmentation of Multiple Targets"Yuki Nagai
 

Ähnlich wie 【DL輪読会】HyperTree Proof Search for Neural Theorem Proving (11)

ipsjifat201909
ipsjifat201909ipsjifat201909
ipsjifat201909
 
[DL輪読会]Diffusion-based Voice Conversion with Fast Maximum Likelihood Samplin...
[DL輪読会]Diffusion-based Voice Conversion with Fast  Maximum Likelihood Samplin...[DL輪読会]Diffusion-based Voice Conversion with Fast  Maximum Likelihood Samplin...
[DL輪読会]Diffusion-based Voice Conversion with Fast Maximum Likelihood Samplin...
 
Inspection of CloudML Hyper Parameter Tuning
Inspection of CloudML Hyper Parameter TuningInspection of CloudML Hyper Parameter Tuning
Inspection of CloudML Hyper Parameter Tuning
 
ICST 2015 まるわかりDay! "Test Selection and Prioritization Track"
ICST 2015 まるわかりDay! "Test Selection and Prioritization Track"ICST 2015 まるわかりDay! "Test Selection and Prioritization Track"
ICST 2015 まるわかりDay! "Test Selection and Prioritization Track"
 
Rainbow
RainbowRainbow
Rainbow
 
IPAB2017 深層学習を使った新薬の探索から創造へ
IPAB2017 深層学習を使った新薬の探索から創造へIPAB2017 深層学習を使った新薬の探索から創造へ
IPAB2017 深層学習を使った新薬の探索から創造へ
 
【DL輪読会】Investigating Tradeoffs in Real-World Video Super-Resolution
【DL輪読会】Investigating Tradeoffs in Real-World Video Super-Resolution【DL輪読会】Investigating Tradeoffs in Real-World Video Super-Resolution
【DL輪読会】Investigating Tradeoffs in Real-World Video Super-Resolution
 
ACL2018 Paper Survey: Learning to Ask Good Questions: Ranking Clarification Q...
ACL2018 Paper Survey: Learning to Ask Good Questions: Ranking Clarification Q...ACL2018 Paper Survey: Learning to Ask Good Questions: Ranking Clarification Q...
ACL2018 Paper Survey: Learning to Ask Good Questions: Ranking Clarification Q...
 
Development and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and mafDevelopment and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and maf
 
PFI Christmas seminar 2009
PFI Christmas seminar 2009PFI Christmas seminar 2009
PFI Christmas seminar 2009
 
CVPR2015読み会 "Joint Tracking and Segmentation of Multiple Targets"
CVPR2015読み会 "Joint Tracking and Segmentation of Multiple Targets"CVPR2015読み会 "Joint Tracking and Segmentation of Multiple Targets"
CVPR2015読み会 "Joint Tracking and Segmentation of Multiple Targets"
 

Mehr von Deep Learning JP

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving PlannersDeep Learning JP
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについてDeep Learning JP
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...Deep Learning JP
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-ResolutionDeep Learning JP
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxivDeep Learning JP
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLMDeep Learning JP
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...Deep Learning JP
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place RecognitionDeep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究についてDeep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat ModelsDeep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...Deep Learning JP
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...Deep Learning JP
 
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...Deep Learning JP
 

Mehr von Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
 
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
 

【DL輪読会】HyperTree Proof Search for Neural Theorem Proving

  • 1. http://deeplearning.jp/ HyperTree Proof Search for Neural Theorem Proving 塚本 慧 DEEP LEARNING JP [DL Papers] 1
  • 2. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 書誌情報 HyperTree Proof Search for Neural Theorem Proving https://arxiv.org/pdf/2205.11491.pdf タイト ル: 著者: Guillaume Lample, Marie-Anne Lachaux, Thibaur Lavril, Xavier Martinet, Amaury Hayat, Gabriel Ebner, Aurelien Rodrigue • トランスフォーマーに基づいた自動定理証明のためのオンライン学習のモデルの提案。 • モンテカルロ木探索を導入。 • miniF2Fの問題の正答率を大幅に改善 概要: 2
  • 3. Copyright (C) Present Square Co., Ltd. All Rights Reserved. アジェンダ 1. イントロダクション 1. 前提知識・関連研究 1. 証明の環境 1. HyperTree Proof Search 1. 証明探索でのオンライン学習 1. 実験 1. 結果 1. 結論 3
  • 4. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 1. イントロダクション イントロダクション 4 • これまで数学の証明の検証は人間の手で行われてきたが、数学の証明の複雑さが増している現在においては 不十分になってきている。数学を形式化することによってコンピュータに検証させようとする動きがある。 • 形式的な数学はプログラミング言語で書かれたソースコードに近く、伝統的な数学とはかけ離れている ため、使うのが難しい。 • 既に証明されている定理を形式化するのにも膨大な労力がいる。 数学の形式化 素数が無限個あることの証明
  • 5. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 1. イントロダクション 5 • 本研究では与えられた定理を人間の支援抜きでタクティックの列を生成して証明する。 • この研究により既に証明されている数学の形式化にかかる労力を大幅に削減できる。 • 証明をハイパーツリーとみなすことでモンテカルロ木探索を導入する。(後述) イントロダクション
  • 6. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 2. 前提知識・関連研究 6 lean and_commutative 証明プログラミング言語 編集 仮定とゴールの表示 解きたい命題 タクティック (使っていい補題) • まだ検証されていない命題をゴールとし、タクティックによってゴールと仮定を変形したり分割する。 • ゴールに何も表示されない時に証明されたということになる
  • 7. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 2. 前提知識・関連研究 7 ゴールの分割
  • 8. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 2. 前提知識・関連研究 8 ニューラル定理証明 • 深層学習の手法を定理証明に適用されている 自動定理証明は人工知能における長年の難問として知られている。近年の大規模言語モデルや、 モデルによる探索手法の成功に伴い自動定理証明への関心が再び高まっている。 言語モデルの推論能力 • 大規模トランスフォーマーの推論能力に注目が集まっている モンテカルロ木探索と二人用ゲーム • AlphaZeroのような二人用ゲームでの探索と同様に、定理証明は既に証明されている定理や補題、テクニック を用いて探索しているとみなせる
  • 9. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 証明の環境 証明の環境(使う証明プログラミング言語とそのライブラ リ) • Metamath, Lean, Equationsの三種類の環境で実験を行った(Equationsは本研究で新しく作った環境) 仮定とゴール(木構造の ノードと呼ぶ) タクティック 9
  • 10. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. HyperTree Proof Search 10 証明は木構造であるとみなせる 証明の仮定とゴールは木構造のノード タクティックは木構造の枝
  • 11. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. HyperTree Proof Search 11 HyperTree Proof Search • 次に取るべきタクティックを探索と知識利用のバランスを取りながら選択する 選択 展開 • 葉ノードを訪れた回数が閾値以上となった場合に、そのノードから先を展開する 更新 • 得られた報酬を記録し、期待報酬を更新する
  • 12. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. HyperTree Proof Search 選択 • タクティックごとに計算を行う • 報酬の総和をWとする(ここでの報酬は証明可能性を表している(解ける = 1, 解けない = 0)) • 訪問回数をNとする • 評価値をQ=W/Nとする 探索のアルゴリズムはPUCTとRegularized Policyの両方を試す 選択 12
  • 13. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. HyperTree Proof Search 展開 • 言語モデルを用いてタクティックを文章として生成 • 評価値の高いノードを優先して展開(証明においてタクティック を実行) 展開 13
  • 14. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. HyperTree Proof Search 更新 • 子ノードの評価値を元にノードの評価値を更新 • ゴールが分割されていて子ノードが複数ある時 子ノードの評価値の総積でノードの評価値を更新 (評価値は0~1で証明可能性を表す、また子ノード同士の独立性を仮定) 更新 14
  • 15. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 5. 証明探索でのオンライン学習 15 学習の対象 • タクティックのモデル ゴールを入力としてタクティックを出力する(言語モデルと同じ) • クリティックのモデル ノードの評価値(証明可能性)を予測
  • 16. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 5. 証明探索でのオンライン学習 16 オンライン学習 非同期で分散学習を行う • タクティックのサンプル ゴールとタクティックのペアを抽出して訓練データとして使う • クリティックのサンプル 探索が終わった後のすべてのノードの評価値を訓練データとして使う 探索の途中で正しいことが証明されたノードの評価値は1 探索の途中で間違いであることが証明されたノードの評価値は0
  • 17. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 5. 証明探索でのオンライン学習 17 訓練の全容 • 事前学習 (数学に関する文章を大量に学習) • ファインチューニング(学習の環境に合わせた証明プログラミング言語(Metamath, Lean, Equations)の学習) • オンライン学習(HyperTree Proof Search)
  • 18. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 6. 実験 18 モデルのファインチューニングとラベル付きのデータセット • MetaMath set.mmライブラリから37091個の証明を抽出 • Lean Mathlibライブラリから24kの証明と、144kのゴールとタクティックのペアを抽出 • Equations • 本研究のために自作で作った環境なのでライブラリがないためランダムにタクティックを実行し定理を 生成した モデルの事前学習 • 数学に関するarxivの論文のLatexのソースコード(60億トークン)を マスク付きのSeq2Seqのモデルで学習
  • 19. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 6. 実験 19 モデルのアーキテクチャと訓練 • 12層のエンコーダと6層のデコーダを持つトランスフォーマーのアーキテクチャを使用 • エンコーダの埋め込み次元は1600, デコーダは1024(Equationsのときのみデコーダは512) • Equationsのときのパラメータ数は440M, MetaMathとLeanは600M ファインチューニング • 最適化アルゴリズムはAdam • 逆平方根学習率スケジューリングを用いる • ドロップアウト率は0.2 • レイヤードロップアウト率は0.1 • Pytorchを用い学習を高速化するためにfloat16を使用 オンライン学習 • Warmupのあとは学習率を3×10-5 • 48 V100 GPUで16つの訓練機と32つの証明機を用い た • Warmupのあとは学習率を3×10-5 • 48 V100 GPUで16つの訓練機と32つの証明機を用い た • Warmupのあとは学習率を3×10-5 • 48 V100 GPUで16つの訓練機と32つの証明機を用い た • Warmupのあとは学習率を3×10-5 • 48 V100 GPUで16つの訓練機と32つの証明機を用い た • Warmupのあとは学習率を3×10-5 • 48 V100 GPUで16つの訓練機と32つの証明機を用い た
  • 20. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 7. 結果 20 主要な結果(モンテカルロ木探索を実行した回数は定理ごとに64)
  • 21. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 7. 結果 21 Lean 1日の訓練でminiF2F-curriculumの327の問題を110問解く(GPT-fは100問) 7日の訓練で137問解く オンライン学習中の正答率は58.6% テスト用のデータセットでは41%(GPT-fは36.6%) オンライン学習により正答率を61%から82.6%に向上 MetaMath Equations
  • 22. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 7. 結論 まとめ 22 • AlphaZeroから生まれた自動定理証明のための証明探索アルゴリズムを紹介した • 複数の証明の環境で最高の結果を出した • 数学の形式化のデータが限られているため、探索で新しいデータを増やす方法が必要になる • 新しい定理を生成できるかも将来の課題になりそう
  • 23. Copyright (C) Present Square Co., Ltd. All Rights Reserved. Appendix 参考文献 Leanのチュートリアル https://leanprover.github.io/theorem_proving_in_lean/ Leanの素数に関するライブラリ https://github.com/leanprover-community/mathlib/blob/master/src/data/nat/prime.lean#L418 23