SlideShare ist ein Scribd-Unternehmen logo
1 von 35
Downloaden Sie, um offline zu lesen
春休み自由研究
コラッツ予想
コラッツ予想とは…
任意の正の整数(1以上) n について、
● n が偶数なら n / 2
● n が奇数なら 3n + 1
この操作を繰り返し適用すると、どんなnについてもきっと1になる!
● 7 → 22 → 11 → 34 → 17 → 52 → 26 → 13 → 40 → 20 → 10 → 5 → 16 → 8
→ 4 → 2 → 1
簡単そうに見えるけど……
1937年にローター・コラッツにより提唱されてから、
2016年4月現在、未解決予想
5×260
までは1になることを確かめたとのことです……。
プログラマーの視点で遊ぶ
● 数を2進数で見る。
○ 7 = 111(2)
○ 6 = 110(2)
● 先頭ビットが0なら右シフト
○ 110 → 11
● 先頭ビットが1なら
○ 101
1010 左シフト (2n)
1111 元の値と加算 (2n + n)
10000 1を足す
● つまり、単純なビット判定・ビットシフト・加算だけで表現できる!
数をビット配列で見る
プログラミング的都合から、桁の数え方を逆にします。
10 = [0,1,0,1] = 0101 左が低位ビット、上が高位ビット
5 = 101
6 = 011
7 = 111
8 = 0001
1234567890 = 0100101101000000011010011001001
などなど
7が処理される様子
[ 0] 111
[ 1] 01101
[ 2] 1101
[ 3] 010001
[ 4] 10001
[ 5] 001011
[ 6] 01011
[ 7] 1011
[ 8] 000101
[ 9] 00101
[10] 0101
[11] 101
[12] 00001
[13] 0001
[14] 001
[15] 01
[16] 1
ビット列で見直すと
0100101101000000011010011001001
1010011001001
どうすれば
D言語くんを
助けられるのだろうか?
コラッツ予想の反例を探す
1に収束しないということは、
● 無限に発散できないか?
● どこか1より大きい有限の値でループしないか?
3n+1の伸びかた
基本的には3n
なので、1ステップでlog2
3 ≒1.58桁くらい増える
01101000000011010011001001
010110100000001101001100100
1
10101101000000011010011001001
n / 2の減り方
0000011001001
0が続くと、増えるチャンスが無いまま喰われてしまう
11001001
1が立っていれば、(3n+1) / 2で、
差し引き0.58桁くらい増える
D言語くん救出計画
● 桁が増える方向には上限がある。(約1.58桁)
● 下からの桁の削除は、0が連続していれば何桁でも削られてしまう。
● だが、もし神のようなビット列があって、下に1を多く出現させることができたら?
111111111100000000000000000001
神
ビット列でプログラミングする
使えそうなメンバーを紹介するぜ!
● 111000111000……といったビット列は、3n+1の2ステップで1の連続になる
○ 11100011100
○ 011100011101
○ 10101010101
○ 1111111111111
○ ※ +1は遥か下のビットと見なして無視しています。
● 1111……というビット列は、前のビットを高位ビットにワープさせる
○ 1 + 1111…..11
○ 0000000 ... 001
アルゴリズム妄想
● 11100011100 … といったビット列を用意する。
●    の直前で111111111000000...0001といったビット列に変化させる。
● が111...111を喰っている間に、ワープ先で新たに111000111000...を用意
する。
周期的にこんなビット列が作れるよう
プログラミングできれば、
D言語くん救出成功!
1010011001001
0100101101000000011010011001001
1010011001001
これ無理でしょ……
なぜ無理か?→それが証明できてもコラッツ問題解決!
もちろん正確な証明はできていないのですが……。
111111111100000000000000000001
神
100101101110101101110101001011
神
いずれ神も喰われる
前から3n
のビット列が落ちてくる
0101001011
3n
のビット列おいしいです!
ランダムな歯抜けのビット列で、平均 2桁ずつ”喰える”
3n+1で、初期値の情報が保存されない
● 加算(XORと桁上げ)は情報を壊す作用があるみたい……。
● 3nでは、実はビット数が増えるパターンは孤立した”1”のみ。
○ 1 → 11
○ 11 → 1001
○ 111 → 10101
○ 1111 → 101101
○ 11111 → 1011101
○ つまり、n個の1の連続は、10 (1がn-2個) 01になる。1が増えず、歯抜けになっていく。
● 3n
が作るビットパターンはランダムに近い
○ 無理数を計算する過程そのものだから?
○ 実測したところ、3n+1の1ステップで平均2桁ずつ削られる。
○ 伸びるほうは約1.6桁ずつなので、いずれ桁が全て喰われてしまう。
メルセンヌ素数2255
-1の収束の様子
メルセンヌ素数2255
-1の収束の様子(前半拡大)
参考:1に3n+1を繰り返し適用した場合
参考:単純な3n
の場合(3n + 1と大差ない)
参考:単純な3n
の場合(拡大)
参考:2255
-1×3n
の場合
これから
● 3nは自分自身を使ったハッシュ計算に似ていて、暗号理論や情報エントロピーとの
関連がありそう。
○ 2n
-1といった偏った(1通りしかない)ビット列から、徐々に類似パターンの多いビット列に変化してい
く。
● コラッツ予想のような、状態に対して繰り返し同じ計算を適用する漸化式は、物理
法則の簡単なモデルとも考えられそうな気がする。
○ 宇宙は、物理法則の再帰的な適用によって、情報の詰まった初期状態から現在の均一な状態に
なった、とも見なせる。

Weitere ähnliche Inhalte

Was ist angesagt?

[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive Estimation[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive EstimationMakoto Takenaka
 
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
[DL輪読会]Non-Autoregressive Machine Translation with Latent AlignmentsDeep Learning JP
 
楽器音色の主観評価 —多次元尺度法を用いた研究例の紹介—
楽器音色の主観評価 —多次元尺度法を用いた研究例の紹介—楽器音色の主観評価 —多次元尺度法を用いた研究例の紹介—
楽器音色の主観評価 —多次元尺度法を用いた研究例の紹介—Atsushi Marui
 
Marketing×Python/Rで頑張れる事例16本ノック
Marketing×Python/Rで頑張れる事例16本ノックMarketing×Python/Rで頑張れる事例16本ノック
Marketing×Python/Rで頑張れる事例16本ノックTeruyuki Sakaue
 
連続変量を含む相互情報量の推定
連続変量を含む相互情報量の推定連続変量を含む相互情報量の推定
連続変量を含む相互情報量の推定Joe Suzuki
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Yuya Unno
 
Dl hacks輪読: "Unifying distillation and privileged information"
Dl hacks輪読: "Unifying distillation and privileged information"Dl hacks輪読: "Unifying distillation and privileged information"
Dl hacks輪読: "Unifying distillation and privileged information"Yusuke Iwasawa
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法Ken'ichi Matsui
 
Word2vecの理論背景
Word2vecの理論背景Word2vecの理論背景
Word2vecの理論背景Masato Nakai
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式Hiroshi Nakagawa
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰sleipnir002
 
Deep neural models of semantic shift
Deep neural models of semantic shiftDeep neural models of semantic shift
Deep neural models of semantic shiftMakoto Takenaka
 
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証Masaharu Kinoshita
 
対話返答生成における個性の追加反映
対話返答生成における個性の追加反映対話返答生成における個性の追加反映
対話返答生成における個性の追加反映Koichi Hamada
 
球種予測に関する研究サーベイ
球種予測に関する研究サーベイ球種予測に関する研究サーベイ
球種予測に関する研究サーベイraijinshibata
 
Διαγωνισμα Δομή Επαναληψης 1
Διαγωνισμα Δομή Επαναληψης 1Διαγωνισμα Δομή Επαναληψης 1
Διαγωνισμα Δομή Επαναληψης 1educast
 
3 平均・分散・相関
3 平均・分散・相関3 平均・分散・相関
3 平均・分散・相関Seiichi Uchida
 

Was ist angesagt? (20)

[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive Estimation[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
 
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
 
楽器音色の主観評価 —多次元尺度法を用いた研究例の紹介—
楽器音色の主観評価 —多次元尺度法を用いた研究例の紹介—楽器音色の主観評価 —多次元尺度法を用いた研究例の紹介—
楽器音色の主観評価 —多次元尺度法を用いた研究例の紹介—
 
Σωστό - Λάθος Γ Λυκείου 2021
Σωστό - Λάθος Γ Λυκείου 2021Σωστό - Λάθος Γ Λυκείου 2021
Σωστό - Λάθος Γ Λυκείου 2021
 
tvmf-similarity
tvmf-similaritytvmf-similarity
tvmf-similarity
 
Marketing×Python/Rで頑張れる事例16本ノック
Marketing×Python/Rで頑張れる事例16本ノックMarketing×Python/Rで頑張れる事例16本ノック
Marketing×Python/Rで頑張れる事例16本ノック
 
連続変量を含む相互情報量の推定
連続変量を含む相互情報量の推定連続変量を含む相互情報量の推定
連続変量を含む相互情報量の推定
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
 
Dl hacks輪読: "Unifying distillation and privileged information"
Dl hacks輪読: "Unifying distillation and privileged information"Dl hacks輪読: "Unifying distillation and privileged information"
Dl hacks輪読: "Unifying distillation and privileged information"
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
 
Word2vecの理論背景
Word2vecの理論背景Word2vecの理論背景
Word2vecの理論背景
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
Deep neural models of semantic shift
Deep neural models of semantic shiftDeep neural models of semantic shift
Deep neural models of semantic shift
 
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
 
対話返答生成における個性の追加反映
対話返答生成における個性の追加反映対話返答生成における個性の追加反映
対話返答生成における個性の追加反映
 
球種予測に関する研究サーベイ
球種予測に関する研究サーベイ球種予測に関する研究サーベイ
球種予測に関する研究サーベイ
 
Διαγωνισμα Δομή Επαναληψης 1
Διαγωνισμα Δομή Επαναληψης 1Διαγωνισμα Δομή Επαναληψης 1
Διαγωνισμα Δομή Επαναληψης 1
 
3 平均・分散・相関
3 平均・分散・相関3 平均・分散・相関
3 平均・分散・相関
 
PRML11章
PRML11章PRML11章
PRML11章
 

Mehr von Akira Yamaguchi

数学つまみぐい入門編
数学つまみぐい入門編数学つまみぐい入門編
数学つまみぐい入門編Akira Yamaguchi
 
GEB読書会 第3回「音程拡大によるカノン」
GEB読書会 第3回「音程拡大によるカノン」GEB読書会 第3回「音程拡大によるカノン」
GEB読書会 第3回「音程拡大によるカノン」Akira Yamaguchi
 
GEB読書会 第2回 「無伴奏アキレスのためのソナタ 」
GEB読書会 第2回 「無伴奏アキレスのためのソナタ 」GEB読書会 第2回 「無伴奏アキレスのためのソナタ 」
GEB読書会 第2回 「無伴奏アキレスのためのソナタ 」Akira Yamaguchi
 
GEB読書会 第1回 「音楽の捧げもの」
GEB読書会 第1回 「音楽の捧げもの」GEB読書会 第1回 「音楽の捧げもの」
GEB読書会 第1回 「音楽の捧げもの」Akira Yamaguchi
 
評伝 ジョン・ナッシュ
評伝 ジョン・ナッシュ評伝 ジョン・ナッシュ
評伝 ジョン・ナッシュAkira Yamaguchi
 
GEB読書会 第0回 キックオフ
GEB読書会 第0回 キックオフGEB読書会 第0回 キックオフ
GEB読書会 第0回 キックオフAkira Yamaguchi
 

Mehr von Akira Yamaguchi (8)

物語の作り方
物語の作り方物語の作り方
物語の作り方
 
数学つまみぐい入門編
数学つまみぐい入門編数学つまみぐい入門編
数学つまみぐい入門編
 
GEB読書会 第3回「音程拡大によるカノン」
GEB読書会 第3回「音程拡大によるカノン」GEB読書会 第3回「音程拡大によるカノン」
GEB読書会 第3回「音程拡大によるカノン」
 
GEB読書会 第2回 「無伴奏アキレスのためのソナタ 」
GEB読書会 第2回 「無伴奏アキレスのためのソナタ 」GEB読書会 第2回 「無伴奏アキレスのためのソナタ 」
GEB読書会 第2回 「無伴奏アキレスのためのソナタ 」
 
GEB読書会 第1回 「音楽の捧げもの」
GEB読書会 第1回 「音楽の捧げもの」GEB読書会 第1回 「音楽の捧げもの」
GEB読書会 第1回 「音楽の捧げもの」
 
P≠npノート
P≠npノートP≠npノート
P≠npノート
 
評伝 ジョン・ナッシュ
評伝 ジョン・ナッシュ評伝 ジョン・ナッシュ
評伝 ジョン・ナッシュ
 
GEB読書会 第0回 キックオフ
GEB読書会 第0回 キックオフGEB読書会 第0回 キックオフ
GEB読書会 第0回 キックオフ
 

春休み自由研究 コラッツ予想