SlideShare ist ein Scribd-Unternehmen logo
1 von 10
Downloaden Sie, um offline zu lesen
1 確率の定義
• 経験的確率
• 公理論的確率
• 主観的確率
サイコロの目の出る確率に基礎を与えるのは,「等確率の原理」
自然科学,物理学に基盤となす理論を提供する役割を担った他の数学の諸分野と異なり,確率は,社会
科学,あるいは賭けに基礎を与える目的で発展してきた。
19 世紀の科学の発展は,物理諸現象を確率的に解釈する試みであった。
日本語ウィキペディアによれば,
確率変数 X : Ω → E は、その取り得る値 (Ω) から取り出した部分 E に由来する可測関数である。 通
常、E = R である。そうでない場合は確率要素として考察する(概念の拡張参照)。Ω と E の両方が可測
空間である為に公理的定義が必要とされる(測度論的定義参照)。実数関数として、X はしばしば実験対象
の量を記述する。例えて言えば、或る回数コイントスをした場合に表が出た回数や、様々な人々の身長な
どである。X の像(或いは範囲)が有限若しくは可算集合である時、確率変数は離散確率変数と呼ばれ、
その分布は X の像の値其々に関連付けられた確率として確率質量関数で記述できる。像が不可算無限集合
であるならば X は連続確率変数と呼ばれる。また特別な場合として、絶対連続の場合にはその分布は区間
内の確率として確率密度関数で記述される。注意すべき点は、其々独立した「点」で絶対連続な確率変数
の値 = 0 であるという事である。全ての連続確率変数が絶対連続だというわけではない。混合分布(英語
版)がその例である。そのような確率変数は確率密度関数または確率質量関数で記述できない。あらゆる
確率変数は累積分布関数で記述できる。累積分布関数とは、確率変数が或る値以下である確率を示すもの
である。
P(A) + P( ¯A) = 1 (1)
P( ¯A) = 1 − P( ¯A) (2)
Ω = X1 + X2 + · · · + X_m (3)
¯Ω = ∅ (4)
P(Ω) = 1 (5)
P(¯Ω) = 0 (6)
P(x_1 + x_2 + x_3 + · · · + x_n) = P(x_1) + (x_2) + · · · + P(x_n) (7)
1
X と Y との同時確率:
P(X, Y ) = P(Y |X)P(X) = P(X|Y )P(Y ) (8)
ベイズの定理:
P(Y |X) =
P(X, Y )
P(X)
(9)
P(X1, X2, · · · , Xn) = P(X1)P(X2|X1)P(X3|X2, X1) · · · (10)
P(Y |X) ≥ 0 (11)
P(Ω|X) = 1 (12)
P(Y1 + Y2|X) = P(Y1|X) + P(Y2|X) (13)
P(Ai|B) =
P(Ai)P(B|Ai)
P(A1)P(B|A1) + P(A2)P(B|A2) + · · · + P(An)P(B|An)
(14)
2 確率変数
2.1 期待値
E[X] =
m∑
i=1
xiP(xi) (15)
E[X] =
∫
Ω
xf(x)dx (16)
2.2 分散
V [X] = E[X2
] − (E[X])2
(17)
=
1
n
n∑
i=1
(X − ¯X)2
p(X) (18)
=
1
n
∫
Ω
(x − µ)2
f(x)dx (19)
2
2.3 共分散
E[(X − ¯X)(Y − ¯Y )] =
1
n
∑
(X − ¯X)(Y − ¯Y )
√
1
n
∑
(X − ¯X)2
√
1
n
∑
(X − ¯X)2
(20)
2.4 ベイズの定理について補足
上で述べたベイズの定理をデータ解析用に書き換えておく。
P(θ|D) =
P(D|θ) p(θ)
p(D)
(21)
ここで D はデータ,θ はモデルを記述するパラメータ,とする。データが得られたとき,モデルを記述
するパラメータを推定する問題を考えると上式右辺 P(θ|D) は 尤度 likelihood の推定式とみなしうる。
加えて
P(D|θ) : 所与のデータ密度分布
P(θ) : パラメータの事前分布 prior distribution
P(θ|D) : パラメータの事後分布 posterior distribution
PP(D) : 証拠 evidence あるいは 周辺分布 marginal distribution (
∑
θ
P(D|θ)P(θ))
上記のようにして,データが得られた場合に,事前分布とデータ(右辺)からモデルのパラメータ (左
辺) を推定することが可能となる。事前分布(あるいは事前知識ともいう)からモデルのパラメータを推定
していくので上式をベイズ推定 あるいは ベイズ推論 と呼ぶ。
3
活性化関数
浅川伸一[asakawa@ieee.org](asakawa@ieee.org)
ロジスティック関数:
In [24]:
#!/bin/env python
from __future__ import print_function
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
In [31]:
a = []
for x in np.linspace(-4,4,300):
a.append(1./(1.+np.exp(-x)))
plt.plot(a)
plt.axis([0, 300, -1, 1])
plt.title('logistic function $sigma(x)$')
plt.show()
σ (x)
σ (x)
d
dx
=
1
1 + exp(−x)
= x (1 − x)
4
ハイパータンジェント:
In [35]:
a = []
for x in np.linspace(-4,4,300):
a.append(np.tanh(x))
plt.plot(a)
plt.axis([0, 300, -1, 1])
plt.title('tanh(x)')
plt.show()
整流線形ユニットReLU (Rectified Linear Unit):
ReLU は厳密には微分可能な関数ではない。ReLU では原点 において劣微分
subdifferential を考える。原点 での勾配が計算できないが,ReLU は下に凸であるの
で における勾配はある範囲内に納まる。これを劣勾配subgradient と呼び
である。すなわち劣勾配は値が定まるのではなく勾配の範囲を定め
る。
tanh(x)
tanh(x)
d
dx
=
exp(x) − exp(−x)
exp(x) + exp(−x)
= 1 − x
2
ReLU (x)
ReLU (x)
d
dx
= max (0, x)
= max (0, 1)
x = 0
x = 0
x = 0
dReLU (0) /dx = [0, 1]
5
In [36]:
def relu(x):
return x * (x > 0)
a = []
for x in np.linspace(-4,4,300):
a.append(relu(x))
plt.plot(a)
plt.axis([0, 300, -1, max(a)])
plt.title('relu(x)')
plt.show()
ソフトプラス:
ソフトプラスはReLU を微分可能な関数で近似したと見做すことができる。
softplus (x)
log(1 + exp(x))
d
dx
= log(1 + exp(x))
=
1
1 + exp(−x)
6
In [39]:
def softplus(x):
return np.log(1. + np.exp(x))
def dsoftplus(x, delta=1e-05):
a = softplus(x+delta)
b = softplus(x-delta)
return (a-b)/(2.* delta)
a = []
for x in np.linspace(-4,4,300):
a.append([softplus(x), dsoftplus(x), relu(x)])
plt.plot(a)
plt.axis([0, 300, -1, 4])
plt.title('softplus and dsoftplus, and relu')
plt.show()
ソフトマックス:
ここで はクロネッカーのデルタである:
softmax ( )xi
softmax ( )
∂
∂xi
xi
=
exp( )xi
exp( )∑
j
xj
= ( − )xi
δij
xi
δij
=
{
δij
1
0
(i = j)
(i ≠ j)
7
In [2]:
#!/bin/env python
from __future__ import print_function
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
def relu(x):
return x * (x > 0)
def softplus(x):
return np.log(1. + np.exp(x))
def dsoftplus(x, delta=1e-05):
a = softplus(x+delta)
b = softplus(x-delta)
return (a-b)/(2.* delta)
a = []
for x in np.linspace(-4,4,300):
a.append([1./(1.+np.exp(-x)), np.tanh(x), softplus(x), dsoftplus(x),
relu(x)])
plt.plot(a)
plt.show()
8
1 正規分布を積分すると 1 になることの証明
1.1 ガウス積分
I =
∫ ∞
0
{−
1
2
x2
dx =
√
2π (1)
を証明する。
I を求めるかわりにその自乗である I2
を考える
I2
=
∫ ∞
−∞
e− 1
2 x2
dx
∫ ∞
−∞
e− 1
2 y2
dy (2)
=
∫ ∞
−∞
e− 1
2 x2
− 1
2 y2
dx dy (3)
ここで,x と y とを極座標に変換する:
x = r cos θ (4)
y = r sin θ (5)
x と y とを積分するかわりに変数変換した r と θ について積分することを 置換積分 という。
行列表現すれば
(
x
y
)
=
(
r cos θ
r sin θ
)
(6)
2 ヤコビアン Jacobian
関数行列の行列式をヤコビアンという。この場合,ヤコビアンは
J =
∂J/∂r, ∂J/∂θ
∂J/∂r, ∂J/∂θ
= r (7)
となるので
I2
=
∫ ∞
0
∫ 2π
0
e− 1
2 r2
rdrdθ (8)
I2
= 2π
∫ ∞
0
∫ 2π
0
e− 1
2 r2
r dθ dr (9)
= 2π
∫ ∞
0
e−r2
rdr (10)
= 2π
[
−
1
2
e− 1
2 r2
]∞
r=0
(11)
= 2π (12)
したがって I はその開平であるから I =
∫ ∞
−∞
e− 1
2 x2
dx は
√
2π である。
9
3 別解
3.1 ガンマ関数
Γ(x) =
∫ ∞
0
tx−1
e−t
dt (13)
ガンマ関数には Γ(1) = π, Γ(n) = (n − 1)! である。すなわちガンマ関数 は 順列 nPm の実数への一般化
である。
3.2 ベータ関数
m,n が 0 以上の整数のとき,以下のような積分公式が成立する(ベータ関数の積分公式):
β(x; m, n) =
∫
α
β(x − α)m
(β − x)dx= m!n!
(m+n+1)!
(β−α)
{m + n + 1} (14)
とくに α = 0, β = 1 とすると
β(x; m, n) =
∫ 1
0
xm
(1 − x)n
; dx =
m!n!
(m + n + 1)!
(15)
上式をみるとベータ関数は順列 nCm の実数への一般化である。すなわち
β(m, n) =
Γ(m + n) xm−1
(1 − x)b−1
Γ(m)Γ(n)
(16)
あるいは
β(m, n) =
Γ(m) Γ(n)
Γ(m + n)
(17)
Γ(1/2) =
∫ ∞
0
e−t
√
t
dt (18)
であるから t = x2
と置換する。
Γ(
1
2
) =
∫ ∞
0
e−x2
x
2ax dx (19)
= 2
∫ ∞
0
e−x2
dx (20)
= I (21)
一方
Γ(1/2)2
= Γ(1)β(1/2, 1/2) =
∫ ∞
0
1
x(1 − x)
dx (22)
ここで x = sin2
θ と置換すると
dx
dθ
= 2 sin θ cos θ (23)
となるので,
∫ ∞
0
1
x(1 − x)
dx =
∫ π/2
0
2 sin θ cos θ
sin θ cos θ
dθ = π (24)
すなわち I = 2
√
π
See also: http://mathtrain.jp/gauss
10

Weitere ähnliche Inhalte

Was ist angesagt?

Crfと素性テンプレート
Crfと素性テンプレートCrfと素性テンプレート
Crfと素性テンプレートKei Uchiumi
 
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++sleepy_yoshi
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現hagino 3000
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011Preferred Networks
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成Prunus 1350
 
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...Akihiro Nitta
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論sleepy_yoshi
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理Ryo Nakamura
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論sleepy_yoshi
 
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) Takahiro (Poly) Horikawa
 
クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンHiroshi Nakagawa
 
正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)Eric Sartre
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半Ohsawa Goodfellow
 
誤差逆伝播法の計算(ディープラーニング)
誤差逆伝播法の計算(ディープラーニング)誤差逆伝播法の計算(ディープラーニング)
誤差逆伝播法の計算(ディープラーニング)t dev
 
20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算matsumoring
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1hirokazutanaka
 

Was ist angesagt? (20)

Crfと素性テンプレート
Crfと素性テンプレートCrfと素性テンプレート
Crfと素性テンプレート
 
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
 
Prml sec6
Prml sec6Prml sec6
Prml sec6
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
 
prml4.1.3-4.1.4
prml4.1.3-4.1.4prml4.1.3-4.1.4
prml4.1.3-4.1.4
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
 
クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシン
 
Prml 4.3.5
Prml 4.3.5Prml 4.3.5
Prml 4.3.5
 
正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
 
誤差逆伝播法の計算(ディープラーニング)
誤差逆伝播法の計算(ディープラーニング)誤差逆伝播法の計算(ディープラーニング)
誤差逆伝播法の計算(ディープラーニング)
 
20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
 

Andere mochten auch

TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecShin Asakawa
 
深層学習(ディープラーニング)入門勉強会資料(浅川)
深層学習(ディープラーニング)入門勉強会資料(浅川)深層学習(ディープラーニング)入門勉強会資料(浅川)
深層学習(ディープラーニング)入門勉強会資料(浅川)Shin Asakawa
 
2016tensorflow ja001
2016tensorflow ja0012016tensorflow ja001
2016tensorflow ja001Shin Asakawa
 
数学的基礎から学ぶ Deep Learning (with Python) Vol. 9
数学的基礎から学ぶ Deep Learning (with Python) Vol. 9数学的基礎から学ぶ Deep Learning (with Python) Vol. 9
数学的基礎から学ぶ Deep Learning (with Python) Vol. 9Project Samurai
 
数学的基礎から学ぶ Deep Learning (with Python) Vol. 12
数学的基礎から学ぶ Deep Learning (with Python) Vol. 12数学的基礎から学ぶ Deep Learning (with Python) Vol. 12
数学的基礎から学ぶ Deep Learning (with Python) Vol. 12Project Samurai
 
Pythonで画像処理をやってみよう!第7回 - Scale-space 第6回 -
Pythonで画像処理をやってみよう!第7回 - Scale-space 第6回 -Pythonで画像処理をやってみよう!第7回 - Scale-space 第6回 -
Pythonで画像処理をやってみよう!第7回 - Scale-space 第6回 -Project Samurai
 
Pythonで画像処理をやってみよう!第8回 - Scale-space 第7回 -
Pythonで画像処理をやってみよう!第8回 - Scale-space 第7回 -Pythonで画像処理をやってみよう!第8回 - Scale-space 第7回 -
Pythonで画像処理をやってみよう!第8回 - Scale-space 第7回 -Project Samurai
 
primers neural networks
primers neural networksprimers neural networks
primers neural networksShin Asakawa
 
Pythonで画像処理をしてみよう!第4回 - Scale-space 第1回-
Pythonで画像処理をしてみよう!第4回 - Scale-space 第1回-Pythonで画像処理をしてみよう!第4回 - Scale-space 第1回-
Pythonで画像処理をしてみよう!第4回 - Scale-space 第1回-Project Samurai
 
Discrete MRF Inference of Marginal Densities for Non-uniformly Discretized Va...
Discrete MRF Inference of Marginal Densities for Non-uniformly Discretized Va...Discrete MRF Inference of Marginal Densities for Non-uniformly Discretized Va...
Discrete MRF Inference of Marginal Densities for Non-uniformly Discretized Va...Masaki Saito
 
3Com 3C6555-016R EFSM
3Com 3C6555-016R  EFSM3Com 3C6555-016R  EFSM
3Com 3C6555-016R EFSMsavomir
 
chapter 11 structural svm
chapter 11 structural svmchapter 11 structural svm
chapter 11 structural svmTaikai Takeda
 
Python で画像処理をしてみよう!
 第3回 - 画像認識 -
Python で画像処理をしてみよう!
 第3回 - 画像認識 -Python で画像処理をしてみよう!
 第3回 - 画像認識 -
Python で画像処理をしてみよう!
 第3回 - 画像認識 -Project Samurai
 
New Approach to Data Analysis System “Tableau + TreasureData” at Tableau User...
New Approach to Data Analysis System “Tableau + TreasureData” at Tableau User...New Approach to Data Analysis System “Tableau + TreasureData” at Tableau User...
New Approach to Data Analysis System “Tableau + TreasureData” at Tableau User...takaya imai
 
Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118
Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118
Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118隆夫 中島
 
Pythonで画像処理をやってみよう!第2回 - 動く物体の抜き出し -
Pythonで画像処理をやってみよう!第2回 - 動く物体の抜き出し -Pythonで画像処理をやってみよう!第2回 - 動く物体の抜き出し -
Pythonで画像処理をやってみよう!第2回 - 動く物体の抜き出し -Project Samurai
 
闇と向き合う
闇と向き合う闇と向き合う
闇と向き合うNagi Teramo
 
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...Takuma Yagi
 
拡張現実に必要な技術
拡張現実に必要な技術拡張現実に必要な技術
拡張現実に必要な技術Ryo Nakamura
 

Andere mochten auch (20)

TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vec
 
深層学習(ディープラーニング)入門勉強会資料(浅川)
深層学習(ディープラーニング)入門勉強会資料(浅川)深層学習(ディープラーニング)入門勉強会資料(浅川)
深層学習(ディープラーニング)入門勉強会資料(浅川)
 
2016tensorflow ja001
2016tensorflow ja0012016tensorflow ja001
2016tensorflow ja001
 
数学的基礎から学ぶ Deep Learning (with Python) Vol. 9
数学的基礎から学ぶ Deep Learning (with Python) Vol. 9数学的基礎から学ぶ Deep Learning (with Python) Vol. 9
数学的基礎から学ぶ Deep Learning (with Python) Vol. 9
 
数学的基礎から学ぶ Deep Learning (with Python) Vol. 12
数学的基礎から学ぶ Deep Learning (with Python) Vol. 12数学的基礎から学ぶ Deep Learning (with Python) Vol. 12
数学的基礎から学ぶ Deep Learning (with Python) Vol. 12
 
Pythonで画像処理をやってみよう!第7回 - Scale-space 第6回 -
Pythonで画像処理をやってみよう!第7回 - Scale-space 第6回 -Pythonで画像処理をやってみよう!第7回 - Scale-space 第6回 -
Pythonで画像処理をやってみよう!第7回 - Scale-space 第6回 -
 
Pythonで画像処理をやってみよう!第8回 - Scale-space 第7回 -
Pythonで画像処理をやってみよう!第8回 - Scale-space 第7回 -Pythonで画像処理をやってみよう!第8回 - Scale-space 第7回 -
Pythonで画像処理をやってみよう!第8回 - Scale-space 第7回 -
 
2016word embbed
2016word embbed2016word embbed
2016word embbed
 
primers neural networks
primers neural networksprimers neural networks
primers neural networks
 
Pythonで画像処理をしてみよう!第4回 - Scale-space 第1回-
Pythonで画像処理をしてみよう!第4回 - Scale-space 第1回-Pythonで画像処理をしてみよう!第4回 - Scale-space 第1回-
Pythonで画像処理をしてみよう!第4回 - Scale-space 第1回-
 
Discrete MRF Inference of Marginal Densities for Non-uniformly Discretized Va...
Discrete MRF Inference of Marginal Densities for Non-uniformly Discretized Va...Discrete MRF Inference of Marginal Densities for Non-uniformly Discretized Va...
Discrete MRF Inference of Marginal Densities for Non-uniformly Discretized Va...
 
3Com 3C6555-016R EFSM
3Com 3C6555-016R  EFSM3Com 3C6555-016R  EFSM
3Com 3C6555-016R EFSM
 
chapter 11 structural svm
chapter 11 structural svmchapter 11 structural svm
chapter 11 structural svm
 
Python で画像処理をしてみよう!
 第3回 - 画像認識 -
Python で画像処理をしてみよう!
 第3回 - 画像認識 -Python で画像処理をしてみよう!
 第3回 - 画像認識 -
Python で画像処理をしてみよう!
 第3回 - 画像認識 -
 
New Approach to Data Analysis System “Tableau + TreasureData” at Tableau User...
New Approach to Data Analysis System “Tableau + TreasureData” at Tableau User...New Approach to Data Analysis System “Tableau + TreasureData” at Tableau User...
New Approach to Data Analysis System “Tableau + TreasureData” at Tableau User...
 
Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118
Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118
Tensor flowと機械学習に必要な数学を基礎から学ぶ会 lt_20170118
 
Pythonで画像処理をやってみよう!第2回 - 動く物体の抜き出し -
Pythonで画像処理をやってみよう!第2回 - 動く物体の抜き出し -Pythonで画像処理をやってみよう!第2回 - 動く物体の抜き出し -
Pythonで画像処理をやってみよう!第2回 - 動く物体の抜き出し -
 
闇と向き合う
闇と向き合う闇と向き合う
闇と向き合う
 
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
 
拡張現実に必要な技術
拡張現実に必要な技術拡張現実に必要な技術
拡張現実に必要な技術
 

Ähnlich wie 第4回MachineLearningのための数学塾資料(浅川)

生物統計特論6資料 2006 abc法(bootstrap) isseing333
生物統計特論6資料 2006 abc法(bootstrap) isseing333生物統計特論6資料 2006 abc法(bootstrap) isseing333
生物統計特論6資料 2006 abc法(bootstrap) isseing333Issei Kurahashi
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationtakutori
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法Kenichi Hironaka
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)Yoshitake Misaki
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へZansa
 
PRML復々習レーン#11
PRML復々習レーン#11PRML復々習レーン#11
PRML復々習レーン#11Takuya Fukagai
 
Introduction to Categorical Programming (Revised)
Introduction to Categorical Programming (Revised)Introduction to Categorical Programming (Revised)
Introduction to Categorical Programming (Revised)Masahiro Sakai
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333Issei Kurahashi
 
Introduction to Statistical Estimation (統計的推定入門)
Introduction to Statistical Estimation (統計的推定入門)Introduction to Statistical Estimation (統計的推定入門)
Introduction to Statistical Estimation (統計的推定入門)Taro Tezuka
 
Introduction to Categorical Programming
Introduction to Categorical ProgrammingIntroduction to Categorical Programming
Introduction to Categorical ProgrammingMasahiro Sakai
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介Deep Learning JP
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回Issei Kurahashi
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4Takeshi Sakaki
 
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布kunihikokaneko1
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説Shiga University, RIKEN
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1hirokazutanaka
 
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定Yuya Takashina
 
複素数・四元数と図形の回転
複素数・四元数と図形の回転複素数・四元数と図形の回転
複素数・四元数と図形の回転Yoshihiro Mizoguchi
 

Ähnlich wie 第4回MachineLearningのための数学塾資料(浅川) (20)

NLPforml5
NLPforml5NLPforml5
NLPforml5
 
生物統計特論6資料 2006 abc法(bootstrap) isseing333
生物統計特論6資料 2006 abc法(bootstrap) isseing333生物統計特論6資料 2006 abc法(bootstrap) isseing333
生物統計特論6資料 2006 abc法(bootstrap) isseing333
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___information
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)
 
PRML セミナー
PRML セミナーPRML セミナー
PRML セミナー
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
 
PRML復々習レーン#11
PRML復々習レーン#11PRML復々習レーン#11
PRML復々習レーン#11
 
Introduction to Categorical Programming (Revised)
Introduction to Categorical Programming (Revised)Introduction to Categorical Programming (Revised)
Introduction to Categorical Programming (Revised)
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
 
Introduction to Statistical Estimation (統計的推定入門)
Introduction to Statistical Estimation (統計的推定入門)Introduction to Statistical Estimation (統計的推定入門)
Introduction to Statistical Estimation (統計的推定入門)
 
Introduction to Categorical Programming
Introduction to Categorical ProgrammingIntroduction to Categorical Programming
Introduction to Categorical Programming
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
 
複素数・四元数と図形の回転
複素数・四元数と図形の回転複素数・四元数と図形の回転
複素数・四元数と図形の回転
 

Mehr von Shin Asakawa

2016word embbed supp
2016word embbed supp2016word embbed supp
2016word embbed suppShin Asakawa
 
2016人工知能と経済の未来合評会資料
2016人工知能と経済の未来合評会資料2016人工知能と経済の未来合評会資料
2016人工知能と経済の未来合評会資料Shin Asakawa
 
dl-with-python01_handout
dl-with-python01_handoutdl-with-python01_handout
dl-with-python01_handoutShin Asakawa
 

Mehr von Shin Asakawa (8)

2016word embbed supp
2016word embbed supp2016word embbed supp
2016word embbed supp
 
2016 dg2
2016 dg22016 dg2
2016 dg2
 
2016人工知能と経済の未来合評会資料
2016人工知能と経済の未来合評会資料2016人工知能と経済の未来合評会資料
2016人工知能と経済の未来合評会資料
 
2016tf study5
2016tf study52016tf study5
2016tf study5
 
dl-with-python01_handout
dl-with-python01_handoutdl-with-python01_handout
dl-with-python01_handout
 
Rnncamp2handout
Rnncamp2handoutRnncamp2handout
Rnncamp2handout
 
Rnncamp01
Rnncamp01Rnncamp01
Rnncamp01
 
Rnncamp01
Rnncamp01Rnncamp01
Rnncamp01
 

第4回MachineLearningのための数学塾資料(浅川)

  • 1. 1 確率の定義 • 経験的確率 • 公理論的確率 • 主観的確率 サイコロの目の出る確率に基礎を与えるのは,「等確率の原理」 自然科学,物理学に基盤となす理論を提供する役割を担った他の数学の諸分野と異なり,確率は,社会 科学,あるいは賭けに基礎を与える目的で発展してきた。 19 世紀の科学の発展は,物理諸現象を確率的に解釈する試みであった。 日本語ウィキペディアによれば, 確率変数 X : Ω → E は、その取り得る値 (Ω) から取り出した部分 E に由来する可測関数である。 通 常、E = R である。そうでない場合は確率要素として考察する(概念の拡張参照)。Ω と E の両方が可測 空間である為に公理的定義が必要とされる(測度論的定義参照)。実数関数として、X はしばしば実験対象 の量を記述する。例えて言えば、或る回数コイントスをした場合に表が出た回数や、様々な人々の身長な どである。X の像(或いは範囲)が有限若しくは可算集合である時、確率変数は離散確率変数と呼ばれ、 その分布は X の像の値其々に関連付けられた確率として確率質量関数で記述できる。像が不可算無限集合 であるならば X は連続確率変数と呼ばれる。また特別な場合として、絶対連続の場合にはその分布は区間 内の確率として確率密度関数で記述される。注意すべき点は、其々独立した「点」で絶対連続な確率変数 の値 = 0 であるという事である。全ての連続確率変数が絶対連続だというわけではない。混合分布(英語 版)がその例である。そのような確率変数は確率密度関数または確率質量関数で記述できない。あらゆる 確率変数は累積分布関数で記述できる。累積分布関数とは、確率変数が或る値以下である確率を示すもの である。 P(A) + P( ¯A) = 1 (1) P( ¯A) = 1 − P( ¯A) (2) Ω = X1 + X2 + · · · + X_m (3) ¯Ω = ∅ (4) P(Ω) = 1 (5) P(¯Ω) = 0 (6) P(x_1 + x_2 + x_3 + · · · + x_n) = P(x_1) + (x_2) + · · · + P(x_n) (7) 1
  • 2. X と Y との同時確率: P(X, Y ) = P(Y |X)P(X) = P(X|Y )P(Y ) (8) ベイズの定理: P(Y |X) = P(X, Y ) P(X) (9) P(X1, X2, · · · , Xn) = P(X1)P(X2|X1)P(X3|X2, X1) · · · (10) P(Y |X) ≥ 0 (11) P(Ω|X) = 1 (12) P(Y1 + Y2|X) = P(Y1|X) + P(Y2|X) (13) P(Ai|B) = P(Ai)P(B|Ai) P(A1)P(B|A1) + P(A2)P(B|A2) + · · · + P(An)P(B|An) (14) 2 確率変数 2.1 期待値 E[X] = m∑ i=1 xiP(xi) (15) E[X] = ∫ Ω xf(x)dx (16) 2.2 分散 V [X] = E[X2 ] − (E[X])2 (17) = 1 n n∑ i=1 (X − ¯X)2 p(X) (18) = 1 n ∫ Ω (x − µ)2 f(x)dx (19) 2
  • 3. 2.3 共分散 E[(X − ¯X)(Y − ¯Y )] = 1 n ∑ (X − ¯X)(Y − ¯Y ) √ 1 n ∑ (X − ¯X)2 √ 1 n ∑ (X − ¯X)2 (20) 2.4 ベイズの定理について補足 上で述べたベイズの定理をデータ解析用に書き換えておく。 P(θ|D) = P(D|θ) p(θ) p(D) (21) ここで D はデータ,θ はモデルを記述するパラメータ,とする。データが得られたとき,モデルを記述 するパラメータを推定する問題を考えると上式右辺 P(θ|D) は 尤度 likelihood の推定式とみなしうる。 加えて P(D|θ) : 所与のデータ密度分布 P(θ) : パラメータの事前分布 prior distribution P(θ|D) : パラメータの事後分布 posterior distribution PP(D) : 証拠 evidence あるいは 周辺分布 marginal distribution ( ∑ θ P(D|θ)P(θ)) 上記のようにして,データが得られた場合に,事前分布とデータ(右辺)からモデルのパラメータ (左 辺) を推定することが可能となる。事前分布(あるいは事前知識ともいう)からモデルのパラメータを推定 していくので上式をベイズ推定 あるいは ベイズ推論 と呼ぶ。 3
  • 4. 活性化関数 浅川伸一[asakawa@ieee.org](asakawa@ieee.org) ロジスティック関数: In [24]: #!/bin/env python from __future__ import print_function import numpy as np import matplotlib.pyplot as plt %matplotlib inline In [31]: a = [] for x in np.linspace(-4,4,300): a.append(1./(1.+np.exp(-x))) plt.plot(a) plt.axis([0, 300, -1, 1]) plt.title('logistic function $sigma(x)$') plt.show() σ (x) σ (x) d dx = 1 1 + exp(−x) = x (1 − x) 4
  • 5. ハイパータンジェント: In [35]: a = [] for x in np.linspace(-4,4,300): a.append(np.tanh(x)) plt.plot(a) plt.axis([0, 300, -1, 1]) plt.title('tanh(x)') plt.show() 整流線形ユニットReLU (Rectified Linear Unit): ReLU は厳密には微分可能な関数ではない。ReLU では原点 において劣微分 subdifferential を考える。原点 での勾配が計算できないが,ReLU は下に凸であるの で における勾配はある範囲内に納まる。これを劣勾配subgradient と呼び である。すなわち劣勾配は値が定まるのではなく勾配の範囲を定め る。 tanh(x) tanh(x) d dx = exp(x) − exp(−x) exp(x) + exp(−x) = 1 − x 2 ReLU (x) ReLU (x) d dx = max (0, x) = max (0, 1) x = 0 x = 0 x = 0 dReLU (0) /dx = [0, 1] 5
  • 6. In [36]: def relu(x): return x * (x > 0) a = [] for x in np.linspace(-4,4,300): a.append(relu(x)) plt.plot(a) plt.axis([0, 300, -1, max(a)]) plt.title('relu(x)') plt.show() ソフトプラス: ソフトプラスはReLU を微分可能な関数で近似したと見做すことができる。 softplus (x) log(1 + exp(x)) d dx = log(1 + exp(x)) = 1 1 + exp(−x) 6
  • 7. In [39]: def softplus(x): return np.log(1. + np.exp(x)) def dsoftplus(x, delta=1e-05): a = softplus(x+delta) b = softplus(x-delta) return (a-b)/(2.* delta) a = [] for x in np.linspace(-4,4,300): a.append([softplus(x), dsoftplus(x), relu(x)]) plt.plot(a) plt.axis([0, 300, -1, 4]) plt.title('softplus and dsoftplus, and relu') plt.show() ソフトマックス: ここで はクロネッカーのデルタである: softmax ( )xi softmax ( ) ∂ ∂xi xi = exp( )xi exp( )∑ j xj = ( − )xi δij xi δij = { δij 1 0 (i = j) (i ≠ j) 7
  • 8. In [2]: #!/bin/env python from __future__ import print_function import numpy as np import matplotlib.pyplot as plt %matplotlib inline def relu(x): return x * (x > 0) def softplus(x): return np.log(1. + np.exp(x)) def dsoftplus(x, delta=1e-05): a = softplus(x+delta) b = softplus(x-delta) return (a-b)/(2.* delta) a = [] for x in np.linspace(-4,4,300): a.append([1./(1.+np.exp(-x)), np.tanh(x), softplus(x), dsoftplus(x), relu(x)]) plt.plot(a) plt.show() 8
  • 9. 1 正規分布を積分すると 1 になることの証明 1.1 ガウス積分 I = ∫ ∞ 0 {− 1 2 x2 dx = √ 2π (1) を証明する。 I を求めるかわりにその自乗である I2 を考える I2 = ∫ ∞ −∞ e− 1 2 x2 dx ∫ ∞ −∞ e− 1 2 y2 dy (2) = ∫ ∞ −∞ e− 1 2 x2 − 1 2 y2 dx dy (3) ここで,x と y とを極座標に変換する: x = r cos θ (4) y = r sin θ (5) x と y とを積分するかわりに変数変換した r と θ について積分することを 置換積分 という。 行列表現すれば ( x y ) = ( r cos θ r sin θ ) (6) 2 ヤコビアン Jacobian 関数行列の行列式をヤコビアンという。この場合,ヤコビアンは J = ∂J/∂r, ∂J/∂θ ∂J/∂r, ∂J/∂θ = r (7) となるので I2 = ∫ ∞ 0 ∫ 2π 0 e− 1 2 r2 rdrdθ (8) I2 = 2π ∫ ∞ 0 ∫ 2π 0 e− 1 2 r2 r dθ dr (9) = 2π ∫ ∞ 0 e−r2 rdr (10) = 2π [ − 1 2 e− 1 2 r2 ]∞ r=0 (11) = 2π (12) したがって I はその開平であるから I = ∫ ∞ −∞ e− 1 2 x2 dx は √ 2π である。 9
  • 10. 3 別解 3.1 ガンマ関数 Γ(x) = ∫ ∞ 0 tx−1 e−t dt (13) ガンマ関数には Γ(1) = π, Γ(n) = (n − 1)! である。すなわちガンマ関数 は 順列 nPm の実数への一般化 である。 3.2 ベータ関数 m,n が 0 以上の整数のとき,以下のような積分公式が成立する(ベータ関数の積分公式): β(x; m, n) = ∫ α β(x − α)m (β − x)dx= m!n! (m+n+1)! (β−α) {m + n + 1} (14) とくに α = 0, β = 1 とすると β(x; m, n) = ∫ 1 0 xm (1 − x)n ; dx = m!n! (m + n + 1)! (15) 上式をみるとベータ関数は順列 nCm の実数への一般化である。すなわち β(m, n) = Γ(m + n) xm−1 (1 − x)b−1 Γ(m)Γ(n) (16) あるいは β(m, n) = Γ(m) Γ(n) Γ(m + n) (17) Γ(1/2) = ∫ ∞ 0 e−t √ t dt (18) であるから t = x2 と置換する。 Γ( 1 2 ) = ∫ ∞ 0 e−x2 x 2ax dx (19) = 2 ∫ ∞ 0 e−x2 dx (20) = I (21) 一方 Γ(1/2)2 = Γ(1)β(1/2, 1/2) = ∫ ∞ 0 1 x(1 − x) dx (22) ここで x = sin2 θ と置換すると dx dθ = 2 sin θ cos θ (23) となるので, ∫ ∞ 0 1 x(1 − x) dx = ∫ π/2 0 2 sin θ cos θ sin θ cos θ dθ = π (24) すなわち I = 2 √ π See also: http://mathtrain.jp/gauss 10