SlideShare ist ein Scribd-Unternehmen logo
1 von 23
Downloaden Sie, um offline zu lesen
Python機械学習プログラミング
読み会
第14章
TensorFlowのメカニズムと機能
1
[第2版]
基盤 江口春紀
目次
● TensorFlowの主な特徴
● TensorFlowの階数とテンソル
● TensorFlowの計算グラフ
● TensorFlowのプレースホルダー
● TensorFlowの変数
● 回帰モデルの構築
● TensorFlowでのモデルの保存と復元
● テンソルを多次元配列として変換する
● 計算グラフの構築に制御フローを使用する
● 計算グラフをTensorBoardで可視化する
2
3
TensorFlowについて(1)
TensorFlowの主な特徴
● スケーラビリティ
● PC・モバイル端末等、各マシンのリソースに応じてスケールする。
● ユーザビリティ
● モデル設計が簡単でコード記述も簡潔である。
● ドキュメントやチュートリアルも揃っている。
● 計算グラフの可視化ができる。
4
TensorFlowの階級とテンソル
● テンソル(tensor)
● データ値を含んでいる多次元配列への一般化が可能な数学表記
● 階級(rank)
● テンソルの次元
例: スカラーは階級0、ベクトルは階級1のテンソル。
5
TensorFlowの計算グラフ
● 計算グラフ
● 複数のノードからなるネットワーク。
● TensorFlowでは計算グラフを構築、コンパイル
して実行する。
6
g = tf.Graph()
with g.as_default():
a = tf.constant(1, name='a')
b = tf.constant(2, name='b')
c = tf.constant(3, name='c')
z = 2*(a-b) + c
with tf.Session(graph=g) as sess:
print('2*(a-b)+c => ', sess.run(z))
TensorFlowのプレースホルダ
● プレースホルダ
● 特定の型と形状に基づいて事前に定義されたテンソル。
● プレースホルダには値は含まれていないので、ノードの実行時に値を供給する。
7
g = tf.Graph()
with g.as_default():
tf_a = tf.placeholder(tf.int32, shape=[], name='tf_a')
tf_b = tf.placeholder(tf.int32, shape=[], name='tf_b')
tf_c = tf.placeholder(tf.int32, shape=[], name='tf_c')
r1 = tf_a - tf_b
r2 = 2*r1
z = r2 + tf_c
with tf.Session(graph=g) as sess:
feed = {tf_a: 1, tf_b: 2, tf_c: 3}
print('z:', sess.run(z, feed_dict=feed))
z: 1
TensorFlowのプレースホルダ
● バッチサイズに合わせたプレースホルダ
● 次元の大きさが可変である場合に Noneを指定することができる。
8
g = tf.Graph()
with g.as_default():
tf_x = tf.placeholder(tf.float32, shape=[None, 2], name='tf_x')
x_mean = tf.reduce_mean(tf_x, axis=0, name='mean')
np.random.seed(123)
np.set_printoptions(precision=2)
with tf.Session(graph=g) as sess:
x1 = np.random.uniform(low=0, high=1, size=(5,2))
print('Feeding data with shape', x1.shape)
print('Result:', sess.run(x_mean, feed_dict={tf_x:x1}))
x2 = np.random.uniform(low=0, high=1, size=(10,2))
print('Feeding data with shape', x2.shape)
print('Result:', sess.run(x_mean, feed_dict={tf_x:x2}))
Feeding data with shape (5, 2)
Result: [ 0.62 0.47]
Feeding data with shape (10, 2)
Result: [ 0.46 0.49]
TensorFlowの変数
● 変数
● ニューラルネットワークで使う重みなど、更新可能なパラメータを格納する。
● 初期化する必要がある。
9
g1 = tf.Graph()
with g1.as_default():
w = tf.Variable(np.array([[1, 2, 3, 4], [5, 6, 7, 8]]), name='w')
with tf.Session(graph=g1) as sess:
sess.run(tf.global_variables_initializer())
print(sess.run(w))
[[1 2 3 4]
[5 6 7 8]]
TensorFlowの変数
● 変数スコープ
● 変数を別々のグループに分けることができる。
● reuseオプションを使って変数をスコープ間で再利用することもできる。
10
g = tf.Graph()
with g.as_default():
with tf.variable_scope('net_A'):
with tf.variable_scope('layer-1'):
w1 = tf.Variable(tf.random_normal(shape=(10,4)), name='weights')
with tf.variable_scope('layer-2'):
w2 = tf.Variable(tf.random_normal(shape=(20,10)), name='weights')
with tf.variable_scope('net_B'):
with tf.variable_scope('layer-1'):
w3 = tf.Variable(tf.random_normal(shape=(10,4)), name='weights')
print(w1)
print(w2)
print(w3)
<tf.Variable 'net_A/layer-1/weights:0' shape=(10, 4) dtype=float32_ref>
<tf.Variable 'net_A/layer-2/weights:0' shape=(20, 10) dtype=float32_ref>
<tf.Variable 'net_B/layer-1/weights:0' shape=(10, 4) dtype=float32_ref>
11
回帰モデルの構築
回帰モデルの構築
● 線形回帰モデル
● 前章で作成したものと同じ y=wx+bを考える。
● コスト関数には平均二乗誤差 (MSE)を使用。
● TensorFlowとの対応
● 入力 x: プレースホルダ tf_x
● 入力 y: プレースホルダ tf_y
● モデルのパラメータ w: 変数 wight
● モデルのパラメータ b: 変数 bias
● モデルの出力 y^: TensorFlowの演算によって返される y_hat
12
回帰モデルの構築
● 計算グラフの構築
13
g = tf.Graph()
with g.as_default():
tf.set_random_seed(123)
tf_x = tf.placeholder(shape=(None), dtype=tf.float32, name='tf_x')
tf_y = tf.placeholder(shape=(None), dtype=tf.float32, name='tf_y')
weight = tf.Variable(tf.random_normal(shape=(1, 1), stddev=0.25), name='weight')
bias = tf.Variable(0.0, name='bias')
y_hat = tf.add(weight * tf_x, bias, name='y_hat')
cost = tf.reduce_mean(tf.square(tf_y - y_hat), name='cost')
optim = tf.train.GradientDescentOptimizer(learning_rate=0.001)
train_op = optim.minimize(cost, name='train_op')
回帰モデルの構築
● ランダムデータセットの作成
● トレーニングデータ100件
テストデータ100件
14
● モデルのトレーニング
n_epochs = 500
training_costs = []
with tf.Session(graph=g) as sess:
sess.run(tf.global_variables_initializer())
for e in range(n_epochs):
c, _ = sess.run([cost, train_op],
feed_dict={tf_x: x_train,
tf_y: y_train})
training_costs.append(c)
15
TensorFlowについて(2)
TensorFlowでのモデルの保存と復元
● tf.train.Saver
● 計算グラフにSaverを追加し、呼び出すことでモデルの保存が可能。
16
with g.as_default():
saver = tf.train.Saver()
n_epochs = 500
training_costs = []
with tf.Session(graph=g) as sess:
sess.run(tf.global_variables_initializer())
for e in range(n_epochs):
c, _ = sess.run(['cost:0', 'train_op'],
feed_dict={'tf_x:0':x_train, 'tf_y:0':y_train})
training_costs.append(c)
saver.save(sess, './trained-model')
出力されるファイル
TensorFlowでのモデルの保存と復元
● tf.train.Saverによるモデルの復元
● モデルを保存した時と同じノードと名前で構成された計算グラフを再構築する。
(tf.train.import_meta_graph()を使うことで省略可能 )
● 保存された変数を新しい tf.Session環境で復元する。
17
g2 = tf.Graph()
with tf.Session(graph=g2) as sess:
new_saver = tf.train.import_meta_graph('./trained-model.meta')
new_saver.restore(sess, './trained-model')
y_pred = sess.run('y_hat:0',feed_dict={'tf_x:0' : x_test})
テンソルを多次元配列として変換する
● 多次元配列の操作
● 1つの次元を”-1”に設定すると、配列の大きさと指定した次元から推定可能。
18
g = tf.Graph()
with g.as_default():
arr = np.array([[1., 2., 3., 3.5], [4., 5., 6., 6.5], [7., 8., 9., 9.5]])
T1 = tf.constant(arr, name='T1')
T2 = tf.reshape(T1, shape=[1, 1, -1], name='T2')
T3 = tf.reshape(T1, shape=[1, 3, -1], name='T3')
T4 = tf.transpose(T3, perm=[2, 1, 0], name='T4')
Tensor("T1:0", shape=(3, 4), dtype=float64)
Tensor("T2:0", shape=(1, 1, 12), dtype=float64)
Tensor("T3:0", shape=(1, 3, 4), dtype=float64)
Tensor("T4:0", shape=(4, 3, 1), dtype=float64)
テンソルを多次元配列として変換する
● 多次元配列の操作
● 多次元配列の分割と結合
19
g = tf.Graph()
with g.as_default():
t1 = tf.ones(shape=(5, 1), dtype=tf.float32, name='t1')
t2 = tf.zeros(shape=(5, 1), dtype=tf.float32, name='t2')
t3 = tf.concat([t1, t2], axis=0, name='t3')
t4 = tf.concat([t1, t2], axis=1, name='t4')
Tensor("t1:0", shape=(5, 1), dtype=float32)
Tensor("t2:0", shape=(5, 1), dtype=float32)
Tensor("t3:0", shape=(10, 1), dtype=float32)
Tensor("t4:0", shape=(5, 2), dtype=float32)
● TensorFlowの制御フロー
● 次の式を実装する悪い例
x, y = 1.0, 2.0
g = tf.Graph()
with g.as_default():
tf_x = tf.placeholder(dtype=tf.float32, shape=None, name='tf_x')
tf_y = tf.placeholder(dtype=tf.float32, shape=None, name='tf_y')
if x < y:
res = tf.add(tf_x, tf_y, name='result_add')
else:
res = tf.subtract(tf_x, tf_y, name='result_sub')
print('Object: ', res)
with tf.Session(graph=g) as sess:
print('x < y: %s -> Result:' % (x < y), res.eval(feed_dict={'tf_x:0': x, 'tf_y:0': y}))
x, y = 2.0, 1.0
print('x < y: %s -> Result:' % (x < y), res.eval(feed_dict={'tf_x:0': x, 'tf_y:0': y}))
計算グラフの構築に制御フローを使用する
20
Object: Tensor("result_add:0", dtype=float32)
x < y: True -> Result: 3.0
x < y: False -> Result: 3.0
計算グラフが実行したのは
加算演算子が含まれた分岐のみ
● TensorFlowの制御フロー
● 次の式を実装する正しい例
x, y = 1.0, 2.0
g = tf.Graph()
with g.as_default():
tf_x = tf.placeholder(dtype=tf.float32, shape=None, name='tf_x')
tf_y = tf.placeholder(dtype=tf.float32, shape=None, name='tf_y')
res = tf.cond(tf_x < tf_y,
lambda: tf.add(tf_x, tf_y, name='result_add'),
lambda: tf.subtract(tf_x, tf_y, name='result_sub'))
print('Object: ', res)
with tf.Session(graph=g) as sess:
print('x < y: %s -> Result:' % (x < y), res.eval(feed_dict={'tf_x:0': x, 'tf_y:0': y}))
x, y = 2.0, 1.0
print('x < y: %s -> Result:' % (x < y), res.eval(feed_dict={'tf_x:0': x, 'tf_y:0': y}))
計算グラフの構築に制御フローを使用する
21
Object: Tensor("cond/Merge:0", dtype=float32)
x < y: True -> Result: 3.0
x < y: False -> Result: 1.0
TensorFlowが提供している
制御フロー関数を使用する
計算グラフをTensorBoardで可視化する
● TensorBoard
● 計算グラフとモデルの可視化ができる。
● 出力されたファイルを実行すると、ブラウザから
簡単に確認することができる
22
with tf.Session(graph=g) as sess:
file_writer = tf.summary.FileWriter(logdir='logs/', graph=g)
まとめ
● TensorFlowの機能と概念
● 階級、テンソル
● プレースホルダ、変数
● テンソルの変換
● 変形、転置、分割、結合
● モデルの可視化
● TensorBoard
23

Weitere ähnliche Inhalte

Was ist angesagt?

Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Seiya Tokui
 
Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能Ryosuke Okuta
 
「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"Ken'ichi Matsui
 
研究生のためのC++ no.2
研究生のためのC++ no.2研究生のためのC++ no.2
研究生のためのC++ no.2Tomohiro Namba
 
C++によるソート入門
C++によるソート入門C++によるソート入門
C++によるソート入門AimingStudy
 
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesKoji Matsuda
 
2018年01月27日 TensorFlowの計算グラフの理解
2018年01月27日 TensorFlowの計算グラフの理解2018年01月27日 TensorFlowの計算グラフの理解
2018年01月27日 TensorFlowの計算グラフの理解aitc_jp
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習Takashi Kitano
 
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツShuyo Nakatani
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理Ryo Nakamura
 
Deep Learning を実装する
Deep Learning を実装するDeep Learning を実装する
Deep Learning を実装するShuhei Iitsuka
 
Chainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM についてChainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM についてRetrieva inc.
 
03_深層学習
03_深層学習03_深層学習
03_深層学習CHIHIROGO
 
はじぱた7章F5up
はじぱた7章F5upはじぱた7章F5up
はじぱた7章F5upTyee Z
 
Pythonデータ分析 第3回勉強会資料 8章
Pythonデータ分析 第3回勉強会資料 8章 Pythonデータ分析 第3回勉強会資料 8章
Pythonデータ分析 第3回勉強会資料 8章 Makoto Kawano
 
Python for Data Anaysis第2回勉強会4,5章
Python for Data Anaysis第2回勉強会4,5章Python for Data Anaysis第2回勉強会4,5章
Python for Data Anaysis第2回勉強会4,5章Makoto Kawano
 
Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Pythonによる機械学習入門〜基礎からDeep Learningまで〜Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Pythonによる機械学習入門〜基礎からDeep Learningまで〜Yasutomo Kawanishi
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tatsuya Tojima
 

Was ist angesagt? (20)

Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
 
Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能
 
「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"
 
研究生のためのC++ no.2
研究生のためのC++ no.2研究生のためのC++ no.2
研究生のためのC++ no.2
 
C++によるソート入門
C++によるソート入門C++によるソート入門
C++によるソート入門
 
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
 
2018年01月27日 TensorFlowの計算グラフの理解
2018年01月27日 TensorFlowの計算グラフの理解2018年01月27日 TensorFlowの計算グラフの理解
2018年01月27日 TensorFlowの計算グラフの理解
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習
 
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
Pytorch 03
Pytorch 03Pytorch 03
Pytorch 03
 
Deep Learning を実装する
Deep Learning を実装するDeep Learning を実装する
Deep Learning を実装する
 
Chainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM についてChainer の Trainer 解説と NStepLSTM について
Chainer の Trainer 解説と NStepLSTM について
 
03_深層学習
03_深層学習03_深層学習
03_深層学習
 
はじぱた7章F5up
はじぱた7章F5upはじぱた7章F5up
はじぱた7章F5up
 
Pythonデータ分析 第3回勉強会資料 8章
Pythonデータ分析 第3回勉強会資料 8章 Pythonデータ分析 第3回勉強会資料 8章
Pythonデータ分析 第3回勉強会資料 8章
 
Python for Data Anaysis第2回勉強会4,5章
Python for Data Anaysis第2回勉強会4,5章Python for Data Anaysis第2回勉強会4,5章
Python for Data Anaysis第2回勉強会4,5章
 
Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Pythonによる機械学習入門〜基礎からDeep Learningまで〜Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Pythonによる機械学習入門〜基礎からDeep Learningまで〜
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
Enshu8
Enshu8Enshu8
Enshu8
 

Ähnlich wie [第2版]Python機械学習プログラミング 第14章

Mesh tensorflow
Mesh tensorflowMesh tensorflow
Mesh tensorflowkuroko
 
TensorflowとKerasによる深層学習のプログラム実装実践講座
TensorflowとKerasによる深層学習のプログラム実装実践講座TensorflowとKerasによる深層学習のプログラム実装実践講座
TensorflowとKerasによる深層学習のプログラム実装実践講座Ruo Ando
 
DTrace for biginners part(2)
DTrace for biginners part(2)DTrace for biginners part(2)
DTrace for biginners part(2)Shoji Haraguchi
 
Python standard 2022 Spring
Python standard 2022 SpringPython standard 2022 Spring
Python standard 2022 Springanyakichi
 
HTML5 Conference LT TensorFlow
HTML5 Conference LT TensorFlowHTML5 Conference LT TensorFlow
HTML5 Conference LT TensorFlowisaac-otao
 
C++0x 言語の未来を語る
C++0x 言語の未来を語るC++0x 言語の未来を語る
C++0x 言語の未来を語るAkira Takahashi
 
Scikit-learn and TensorFlow Chap-14 RNN (v1.1)
Scikit-learn and TensorFlow Chap-14 RNN (v1.1)Scikit-learn and TensorFlow Chap-14 RNN (v1.1)
Scikit-learn and TensorFlow Chap-14 RNN (v1.1)孝好 飯塚
 
2014年の社内新人教育テキスト #2(関数型言語からオブジェクト指向言語へ)
2014年の社内新人教育テキスト #2(関数型言語からオブジェクト指向言語へ)2014年の社内新人教育テキスト #2(関数型言語からオブジェクト指向言語へ)
2014年の社内新人教育テキスト #2(関数型言語からオブジェクト指向言語へ)Shin-ya Koga
 
constexpr idioms
constexpr idiomsconstexpr idioms
constexpr idiomsfimbul
 
C++勉強会in広島プレゼン資料
C++勉強会in広島プレゼン資料C++勉強会in広島プレゼン資料
C++勉強会in広島プレゼン資料真一 北原
 
ナウなヤングにバカうけのイカしたタグ付き共用体
ナウなヤングにバカうけのイカしたタグ付き共用体ナウなヤングにバカうけのイカしたタグ付き共用体
ナウなヤングにバカうけのイカしたタグ付き共用体digitalghost
 
Lambda in template_final
Lambda in template_finalLambda in template_final
Lambda in template_finalCryolite
 
Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011finalMikio Kubo
 

Ähnlich wie [第2版]Python機械学習プログラミング 第14章 (20)

Mesh tensorflow
Mesh tensorflowMesh tensorflow
Mesh tensorflow
 
TensorflowとKerasによる深層学習のプログラム実装実践講座
TensorflowとKerasによる深層学習のプログラム実装実践講座TensorflowとKerasによる深層学習のプログラム実装実践講座
TensorflowとKerasによる深層学習のプログラム実装実践講座
 
What is template
What is templateWhat is template
What is template
 
DTrace for biginners part(2)
DTrace for biginners part(2)DTrace for biginners part(2)
DTrace for biginners part(2)
 
2023_freshman
2023_freshman2023_freshman
2023_freshman
 
Python standard 2022 Spring
Python standard 2022 SpringPython standard 2022 Spring
Python standard 2022 Spring
 
HTML5 Conference LT TensorFlow
HTML5 Conference LT TensorFlowHTML5 Conference LT TensorFlow
HTML5 Conference LT TensorFlow
 
C++0x 言語の未来を語る
C++0x 言語の未来を語るC++0x 言語の未来を語る
C++0x 言語の未来を語る
 
Pfi Seminar 2010 1 7
Pfi Seminar 2010 1 7Pfi Seminar 2010 1 7
Pfi Seminar 2010 1 7
 
Scikit-learn and TensorFlow Chap-14 RNN (v1.1)
Scikit-learn and TensorFlow Chap-14 RNN (v1.1)Scikit-learn and TensorFlow Chap-14 RNN (v1.1)
Scikit-learn and TensorFlow Chap-14 RNN (v1.1)
 
2014年の社内新人教育テキスト #2(関数型言語からオブジェクト指向言語へ)
2014年の社内新人教育テキスト #2(関数型言語からオブジェクト指向言語へ)2014年の社内新人教育テキスト #2(関数型言語からオブジェクト指向言語へ)
2014年の社内新人教育テキスト #2(関数型言語からオブジェクト指向言語へ)
 
constexpr idioms
constexpr idiomsconstexpr idioms
constexpr idioms
 
C++勉強会in広島プレゼン資料
C++勉強会in広島プレゼン資料C++勉強会in広島プレゼン資料
C++勉強会in広島プレゼン資料
 
ナウなヤングにバカうけのイカしたタグ付き共用体
ナウなヤングにバカうけのイカしたタグ付き共用体ナウなヤングにバカうけのイカしたタグ付き共用体
ナウなヤングにバカうけのイカしたタグ付き共用体
 
Lambda in template_final
Lambda in template_finalLambda in template_final
Lambda in template_final
 
Pythonintro
PythonintroPythonintro
Pythonintro
 
講座C入門
講座C入門講座C入門
講座C入門
 
Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011final
 
C# 9.0 / .NET 5.0
C# 9.0 / .NET 5.0C# 9.0 / .NET 5.0
C# 9.0 / .NET 5.0
 
Tokyor23 doradora09
Tokyor23 doradora09Tokyor23 doradora09
Tokyor23 doradora09
 

Mehr von Haruki Eguchi

[第2版]Python機械学習プログラミング 第15章
[第2版]Python機械学習プログラミング 第15章[第2版]Python機械学習プログラミング 第15章
[第2版]Python機械学習プログラミング 第15章Haruki Eguchi
 
[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章Haruki Eguchi
 
[第2版]Python機械学習プログラミング 第11章
[第2版]Python機械学習プログラミング 第11章[第2版]Python機械学習プログラミング 第11章
[第2版]Python機械学習プログラミング 第11章Haruki Eguchi
 
[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章Haruki Eguchi
 
[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章Haruki Eguchi
 
[第2版]Python機械学習プログラミング 第9章
[第2版]Python機械学習プログラミング 第9章[第2版]Python機械学習プログラミング 第9章
[第2版]Python機械学習プログラミング 第9章Haruki Eguchi
 
[第2版]Python機械学習プログラミング 第7章
[第2版]Python機械学習プログラミング 第7章[第2版]Python機械学習プログラミング 第7章
[第2版]Python機械学習プログラミング 第7章Haruki Eguchi
 
[第2版]Python機械学習プログラミング 第6章
[第2版]Python機械学習プログラミング 第6章[第2版]Python機械学習プログラミング 第6章
[第2版]Python機械学習プログラミング 第6章Haruki Eguchi
 
[第2版] Python機械学習プログラミング 第5章
[第2版] Python機械学習プログラミング 第5章[第2版] Python機械学習プログラミング 第5章
[第2版] Python機械学習プログラミング 第5章Haruki Eguchi
 
[第2版] Python機械学習プログラミング 第4章
[第2版] Python機械学習プログラミング 第4章[第2版] Python機械学習プログラミング 第4章
[第2版] Python機械学習プログラミング 第4章Haruki Eguchi
 
[第2版] Python機械学習プログラミング 第3章(5節~)
[第2版] Python機械学習プログラミング 第3章(5節~)[第2版] Python機械学習プログラミング 第3章(5節~)
[第2版] Python機械学習プログラミング 第3章(5節~)Haruki Eguchi
 
[第2版] Python機械学習プログラミング 第3章(~4節)
[第2版] Python機械学習プログラミング 第3章(~4節)[第2版] Python機械学習プログラミング 第3章(~4節)
[第2版] Python機械学習プログラミング 第3章(~4節)Haruki Eguchi
 
[第2版] Python機械学習プログラミング 第2章
[第2版] Python機械学習プログラミング 第2章[第2版] Python機械学習プログラミング 第2章
[第2版] Python機械学習プログラミング 第2章Haruki Eguchi
 
[第2版] Python機械学習プログラミング 第1章
[第2版] Python機械学習プログラミング 第1章[第2版] Python機械学習プログラミング 第1章
[第2版] Python機械学習プログラミング 第1章Haruki Eguchi
 

Mehr von Haruki Eguchi (14)

[第2版]Python機械学習プログラミング 第15章
[第2版]Python機械学習プログラミング 第15章[第2版]Python機械学習プログラミング 第15章
[第2版]Python機械学習プログラミング 第15章
 
[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章
 
[第2版]Python機械学習プログラミング 第11章
[第2版]Python機械学習プログラミング 第11章[第2版]Python機械学習プログラミング 第11章
[第2版]Python機械学習プログラミング 第11章
 
[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章
 
[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章
 
[第2版]Python機械学習プログラミング 第9章
[第2版]Python機械学習プログラミング 第9章[第2版]Python機械学習プログラミング 第9章
[第2版]Python機械学習プログラミング 第9章
 
[第2版]Python機械学習プログラミング 第7章
[第2版]Python機械学習プログラミング 第7章[第2版]Python機械学習プログラミング 第7章
[第2版]Python機械学習プログラミング 第7章
 
[第2版]Python機械学習プログラミング 第6章
[第2版]Python機械学習プログラミング 第6章[第2版]Python機械学習プログラミング 第6章
[第2版]Python機械学習プログラミング 第6章
 
[第2版] Python機械学習プログラミング 第5章
[第2版] Python機械学習プログラミング 第5章[第2版] Python機械学習プログラミング 第5章
[第2版] Python機械学習プログラミング 第5章
 
[第2版] Python機械学習プログラミング 第4章
[第2版] Python機械学習プログラミング 第4章[第2版] Python機械学習プログラミング 第4章
[第2版] Python機械学習プログラミング 第4章
 
[第2版] Python機械学習プログラミング 第3章(5節~)
[第2版] Python機械学習プログラミング 第3章(5節~)[第2版] Python機械学習プログラミング 第3章(5節~)
[第2版] Python機械学習プログラミング 第3章(5節~)
 
[第2版] Python機械学習プログラミング 第3章(~4節)
[第2版] Python機械学習プログラミング 第3章(~4節)[第2版] Python機械学習プログラミング 第3章(~4節)
[第2版] Python機械学習プログラミング 第3章(~4節)
 
[第2版] Python機械学習プログラミング 第2章
[第2版] Python機械学習プログラミング 第2章[第2版] Python機械学習プログラミング 第2章
[第2版] Python機械学習プログラミング 第2章
 
[第2版] Python機械学習プログラミング 第1章
[第2版] Python機械学習プログラミング 第1章[第2版] Python機械学習プログラミング 第1章
[第2版] Python機械学習プログラミング 第1章
 

[第2版]Python機械学習プログラミング 第14章