Suche senden
Hochladen
春休み自由研究 コラッツ予想
•
1 gefällt mir
•
2,574 views
A
Akira Yamaguchi
Folgen
数学カフェ2次会LTでの発表内容です。 D言語くんとネットで拾ってきたモンスター画像(どこかの子供が描いたのかな?)の共演です。
Weniger lesen
Mehr lesen
Wissenschaft
Melden
Teilen
Melden
Teilen
1 von 35
Jetzt herunterladen
Downloaden Sie, um offline zu lesen
Empfohlen
数学を数学で数学した人々
数学を数学で数学した人々
Akira Yamaguchi
B προσ. διαγώνισμα η ευθεία στο επίπεδο
B προσ. διαγώνισμα η ευθεία στο επίπεδο
nik_gkoutz
4 データ間の距離と類似度
4 データ間の距離と類似度
Seiichi Uchida
Theory of Relational Calculus and its Formalization
Theory of Relational Calculus and its Formalization
Yoshihiro Mizoguchi
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
Kenyu Uehara
[DL輪読会]Unsupervised Neural Machine Translation
[DL輪読会]Unsupervised Neural Machine Translation
Deep Learning JP
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
Kazuhide Okamura
Principal component analysis
Principal component analysis
Divya S
Empfohlen
数学を数学で数学した人々
数学を数学で数学した人々
Akira Yamaguchi
B προσ. διαγώνισμα η ευθεία στο επίπεδο
B προσ. διαγώνισμα η ευθεία στο επίπεδο
nik_gkoutz
4 データ間の距離と類似度
4 データ間の距離と類似度
Seiichi Uchida
Theory of Relational Calculus and its Formalization
Theory of Relational Calculus and its Formalization
Yoshihiro Mizoguchi
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
フーリエ解析〜「フーリエ級数」から「高速フーリエ変換」まで〜
Kenyu Uehara
[DL輪読会]Unsupervised Neural Machine Translation
[DL輪読会]Unsupervised Neural Machine Translation
Deep Learning JP
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
Kazuhide Okamura
Principal component analysis
Principal component analysis
Divya S
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
Makoto Takenaka
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
Deep Learning JP
楽器音色の主観評価 —多次元尺度法を用いた研究例の紹介—
楽器音色の主観評価 —多次元尺度法を用いた研究例の紹介—
Atsushi Marui
Σωστό - Λάθος Γ Λυκείου 2021
Σωστό - Λάθος Γ Λυκείου 2021
Μάκης Χατζόπουλος
tvmf-similarity
tvmf-similarity
Kyushu University
Marketing×Python/Rで頑張れる事例16本ノック
Marketing×Python/Rで頑張れる事例16本ノック
Teruyuki Sakaue
連続変量を含む相互情報量の推定
連続変量を含む相互情報量の推定
Joe Suzuki
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Yuya Unno
Dl hacks輪読: "Unifying distillation and privileged information"
Dl hacks輪読: "Unifying distillation and privileged information"
Yusuke Iwasawa
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
Ken'ichi Matsui
Word2vecの理論背景
Word2vecの理論背景
Masato Nakai
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
Hiroshi Nakagawa
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
sleipnir002
Deep neural models of semantic shift
Deep neural models of semantic shift
Makoto Takenaka
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
Masaharu Kinoshita
対話返答生成における個性の追加反映
対話返答生成における個性の追加反映
Koichi Hamada
球種予測に関する研究サーベイ
球種予測に関する研究サーベイ
raijinshibata
Διαγωνισμα Δομή Επαναληψης 1
Διαγωνισμα Δομή Επαναληψης 1
educast
3 平均・分散・相関
3 平均・分散・相関
Seiichi Uchida
PRML11章
PRML11章
Takashi Tamura
物語の作り方
物語の作り方
Akira Yamaguchi
数学つまみぐい入門編
数学つまみぐい入門編
Akira Yamaguchi
Weitere ähnliche Inhalte
Was ist angesagt?
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
Makoto Takenaka
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
Deep Learning JP
楽器音色の主観評価 —多次元尺度法を用いた研究例の紹介—
楽器音色の主観評価 —多次元尺度法を用いた研究例の紹介—
Atsushi Marui
Σωστό - Λάθος Γ Λυκείου 2021
Σωστό - Λάθος Γ Λυκείου 2021
Μάκης Χατζόπουλος
tvmf-similarity
tvmf-similarity
Kyushu University
Marketing×Python/Rで頑張れる事例16本ノック
Marketing×Python/Rで頑張れる事例16本ノック
Teruyuki Sakaue
連続変量を含む相互情報量の推定
連続変量を含む相互情報量の推定
Joe Suzuki
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Yuya Unno
Dl hacks輪読: "Unifying distillation and privileged information"
Dl hacks輪読: "Unifying distillation and privileged information"
Yusuke Iwasawa
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
Ken'ichi Matsui
Word2vecの理論背景
Word2vecの理論背景
Masato Nakai
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
Hiroshi Nakagawa
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
sleipnir002
Deep neural models of semantic shift
Deep neural models of semantic shift
Makoto Takenaka
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
Masaharu Kinoshita
対話返答生成における個性の追加反映
対話返答生成における個性の追加反映
Koichi Hamada
球種予測に関する研究サーベイ
球種予測に関する研究サーベイ
raijinshibata
Διαγωνισμα Δομή Επαναληψης 1
Διαγωνισμα Δομή Επαναληψης 1
educast
3 平均・分散・相関
3 平均・分散・相関
Seiichi Uchida
PRML11章
PRML11章
Takashi Tamura
Was ist angesagt?
(20)
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
楽器音色の主観評価 —多次元尺度法を用いた研究例の紹介—
楽器音色の主観評価 —多次元尺度法を用いた研究例の紹介—
Σωστό - Λάθος Γ Λυκείου 2021
Σωστό - Λάθος Γ Λυκείου 2021
tvmf-similarity
tvmf-similarity
Marketing×Python/Rで頑張れる事例16本ノック
Marketing×Python/Rで頑張れる事例16本ノック
連続変量を含む相互情報量の推定
連続変量を含む相互情報量の推定
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Dl hacks輪読: "Unifying distillation and privileged information"
Dl hacks輪読: "Unifying distillation and privileged information"
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
Word2vecの理論背景
Word2vecの理論背景
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
Deep neural models of semantic shift
Deep neural models of semantic shift
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
対話返答生成における個性の追加反映
対話返答生成における個性の追加反映
球種予測に関する研究サーベイ
球種予測に関する研究サーベイ
Διαγωνισμα Δομή Επαναληψης 1
Διαγωνισμα Δομή Επαναληψης 1
3 平均・分散・相関
3 平均・分散・相関
PRML11章
PRML11章
Mehr von Akira Yamaguchi
物語の作り方
物語の作り方
Akira Yamaguchi
数学つまみぐい入門編
数学つまみぐい入門編
Akira Yamaguchi
GEB読書会 第3回「音程拡大によるカノン」
GEB読書会 第3回「音程拡大によるカノン」
Akira Yamaguchi
GEB読書会 第2回 「無伴奏アキレスのためのソナタ 」
GEB読書会 第2回 「無伴奏アキレスのためのソナタ 」
Akira Yamaguchi
GEB読書会 第1回 「音楽の捧げもの」
GEB読書会 第1回 「音楽の捧げもの」
Akira Yamaguchi
P≠npノート
P≠npノート
Akira Yamaguchi
評伝 ジョン・ナッシュ
評伝 ジョン・ナッシュ
Akira Yamaguchi
GEB読書会 第0回 キックオフ
GEB読書会 第0回 キックオフ
Akira Yamaguchi
Mehr von Akira Yamaguchi
(8)
物語の作り方
物語の作り方
数学つまみぐい入門編
数学つまみぐい入門編
GEB読書会 第3回「音程拡大によるカノン」
GEB読書会 第3回「音程拡大によるカノン」
GEB読書会 第2回 「無伴奏アキレスのためのソナタ 」
GEB読書会 第2回 「無伴奏アキレスのためのソナタ 」
GEB読書会 第1回 「音楽の捧げもの」
GEB読書会 第1回 「音楽の捧げもの」
P≠npノート
P≠npノート
評伝 ジョン・ナッシュ
評伝 ジョン・ナッシュ
GEB読書会 第0回 キックオフ
GEB読書会 第0回 キックオフ
春休み自由研究 コラッツ予想
1.
春休み自由研究 コラッツ予想
2.
コラッツ予想とは… 任意の正の整数(1以上) n について、 ●
n が偶数なら n / 2 ● n が奇数なら 3n + 1 この操作を繰り返し適用すると、どんなnについてもきっと1になる! ● 7 → 22 → 11 → 34 → 17 → 52 → 26 → 13 → 40 → 20 → 10 → 5 → 16 → 8 → 4 → 2 → 1
3.
簡単そうに見えるけど…… 1937年にローター・コラッツにより提唱されてから、 2016年4月現在、未解決予想 5×260 までは1になることを確かめたとのことです……。
4.
プログラマーの視点で遊ぶ ● 数を2進数で見る。 ○ 7
= 111(2) ○ 6 = 110(2) ● 先頭ビットが0なら右シフト ○ 110 → 11 ● 先頭ビットが1なら ○ 101 1010 左シフト (2n) 1111 元の値と加算 (2n + n) 10000 1を足す ● つまり、単純なビット判定・ビットシフト・加算だけで表現できる!
5.
数をビット配列で見る プログラミング的都合から、桁の数え方を逆にします。 10 = [0,1,0,1]
= 0101 左が低位ビット、上が高位ビット 5 = 101 6 = 011 7 = 111 8 = 0001 1234567890 = 0100101101000000011010011001001 などなど
6.
7が処理される様子 [ 0] 111 [
1] 01101 [ 2] 1101 [ 3] 010001 [ 4] 10001 [ 5] 001011 [ 6] 01011 [ 7] 1011 [ 8] 000101 [ 9] 00101 [10] 0101 [11] 101 [12] 00001 [13] 0001 [14] 001 [15] 01 [16] 1
7.
ビット列で見直すと 0100101101000000011010011001001
8.
1010011001001
9.
10.
どうすれば D言語くんを 助けられるのだろうか?
11.
コラッツ予想の反例を探す 1に収束しないということは、 ● 無限に発散できないか? ● どこか1より大きい有限の値でループしないか?
12.
3n+1の伸びかた 基本的には3n なので、1ステップでlog2 3 ≒1.58桁くらい増える 01101000000011010011001001 010110100000001101001100100 1 10101101000000011010011001001
13.
n / 2の減り方 0000011001001 0が続くと、増えるチャンスが無いまま喰われてしまう 11001001 1が立っていれば、(3n+1)
/ 2で、 差し引き0.58桁くらい増える
14.
D言語くん救出計画 ● 桁が増える方向には上限がある。(約1.58桁) ● 下からの桁の削除は、0が連続していれば何桁でも削られてしまう。 ●
だが、もし神のようなビット列があって、下に1を多く出現させることができたら? 111111111100000000000000000001 神
15.
ビット列でプログラミングする 使えそうなメンバーを紹介するぜ! ● 111000111000……といったビット列は、3n+1の2ステップで1の連続になる ○ 11100011100 ○
011100011101 ○ 10101010101 ○ 1111111111111 ○ ※ +1は遥か下のビットと見なして無視しています。 ● 1111……というビット列は、前のビットを高位ビットにワープさせる ○ 1 + 1111…..11 ○ 0000000 ... 001
16.
アルゴリズム妄想 ● 11100011100 …
といったビット列を用意する。 ● の直前で111111111000000...0001といったビット列に変化させる。 ● が111...111を喰っている間に、ワープ先で新たに111000111000...を用意 する。 周期的にこんなビット列が作れるよう プログラミングできれば、 D言語くん救出成功!
17.
1010011001001
18.
19.
0100101101000000011010011001001
20.
21.
1010011001001
22.
23.
これ無理でしょ…… なぜ無理か?→それが証明できてもコラッツ問題解決! もちろん正確な証明はできていないのですが……。
24.
111111111100000000000000000001 神
25.
100101101110101101110101001011 神 いずれ神も喰われる 前から3n のビット列が落ちてくる
26.
0101001011 3n のビット列おいしいです! ランダムな歯抜けのビット列で、平均 2桁ずつ”喰える”
27.
28.
3n+1で、初期値の情報が保存されない ● 加算(XORと桁上げ)は情報を壊す作用があるみたい……。 ● 3nでは、実はビット数が増えるパターンは孤立した”1”のみ。 ○
1 → 11 ○ 11 → 1001 ○ 111 → 10101 ○ 1111 → 101101 ○ 11111 → 1011101 ○ つまり、n個の1の連続は、10 (1がn-2個) 01になる。1が増えず、歯抜けになっていく。 ● 3n が作るビットパターンはランダムに近い ○ 無理数を計算する過程そのものだから? ○ 実測したところ、3n+1の1ステップで平均2桁ずつ削られる。 ○ 伸びるほうは約1.6桁ずつなので、いずれ桁が全て喰われてしまう。
29.
メルセンヌ素数2255 -1の収束の様子
30.
メルセンヌ素数2255 -1の収束の様子(前半拡大)
31.
参考:1に3n+1を繰り返し適用した場合
32.
参考:単純な3n の場合(3n + 1と大差ない)
33.
参考:単純な3n の場合(拡大)
34.
参考:2255 -1×3n の場合
35.
これから ● 3nは自分自身を使ったハッシュ計算に似ていて、暗号理論や情報エントロピーとの 関連がありそう。 ○ 2n -1といった偏った(1通りしかない)ビット列から、徐々に類似パターンの多いビット列に変化してい く。 ●
コラッツ予想のような、状態に対して繰り返し同じ計算を適用する漸化式は、物理 法則の簡単なモデルとも考えられそうな気がする。 ○ 宇宙は、物理法則の再帰的な適用によって、情報の詰まった初期状態から現在の均一な状態に なった、とも見なせる。
Jetzt herunterladen