SlideShare ist ein Scribd-Unternehmen logo
1 von 28
Downloaden Sie, um offline zu lesen
距離まとめ

12/02/27 尾崎遼
し た
                    んで
                 ませ
      ら        れ
距離まとめ

12/02/27 尾崎遼
自己紹介
おざき はるか

情報生命科学専攻 M2

バイオインフォマティクス

@yuifu

R初心者
本日の内容
距離行列について

距離行列をつくる関数

距離行列の使い方

 多次元尺度法

 クラスタリング

懇親会について
距離と類似度
距離=非類似度

距離

大きいほど違う

類似度

大きいほど似てる
ID
データ表                 攻撃        防御       すば
            A        90        78       44
            B        45        10       88
各行がデータを表す
            C        120       78           2
            D        14        18       10
各列が変数を表す    E        81        47       37
            F        67        42       100


距離行列             A   B     C   D    E   F
            A

各データ同士の距離   B 34
            C 23 45
通常、下三角行列    D 21 87 17
            E    23 98 85 99
            F    19 32 34 11 22
距離を何に使うのか
クラスタリング

多次元尺度法    データ1   データ2


分類
                 データ
                  集合2
          データ
          集合1
距離行列をつくる関数
dist {stats}
as.dist {stats}
daisy {cluster}
gdist {mvpart}
mahalanobis {stats}
など…
dist {stats}
dist(x, method = "euclidean", diag = FALSE, upper = FALSE, p = 2)

     x: 各行がデータを表す 数値行列
     method: "euclidean", "maximum", "manhattan", "canberra", "binary”, "minkowski"
     p: minkowski を指定した時、p を別に指定する。 p>=1, 実数。
ミンコフスキー距離
p >= 1 (実数)


p=1 マンハッタン距離


p=2 ユークリッド距離


p→∞ チェビシェフ距離


   コルモゴロフ・スミルノフ検定の検定統計量
キャンベラ距離




バイナリ距離

(片方のみが1である変数の数)/
                   > x<-c(1,1,0,0)
(どちらか一方が1である変数の    > y<-c(1,0,1,1)
                   > dist(rbind(x,y), method="binary")
数)                     x
                   y 0.75
変数がバイナリのとき
mahalanobis {stats}
mahalanobis(x, center, cov, inverted=FALSE, ...)
 x: vector or matrix
 center: mean vector of the distribution or second data vector of
        length p.
 cov: 共分散行列




マハラノビス距離の2乗を返す

外れ値の検出に使える
as.dist
as.dist(m, diag = FALSE, upper = FALSE)

  m: matrix 型の距離行列


dist objectでない距離行列を dist object に変換す
る

  相関係数行列など
距離は負の値でもOK?

> d <- matrix(rnorm(20,0,1),5,5)
> as.dist(d)
         1       2        3      4
2 0.79034338
3 1.98162963 1.25013985
4 -1.28975678 0.46171713 0.86106480
5 0.39608483 0.01728395 -0.63603978 0.91020976
> h<-hclust(as.dist(d))
> plot(h)
> h<-hclust(as.dist(d)+3)
> plot(h)
> as.dist(d)+3
      1      2      3     4
2 3.790343
3 4.981630 4.250140
4 1.710243 3.461717 3.861065
5 3.396085 3.017284 2.363960 3.910210
daisy {cluster}
library(“cluster”)
daisy(x, metric = c("euclidean", "manhattan", "gower"),
        stand = FALSE, type = list(), weights = rep.int(1, p))

  x: データ行列。各列が異なるタイプの変数( numeric, factor, orderedなど)
  でも可。
  metric: “euclidean”, “manhattan”, “gower”
  非類似度が行の間で計算され                               それぞれの変数について距
  る                                           離を計算し、2つのデータ
                                              の距離は個々の変数の距離
  gower distance                              の合計
    numericじゃなかったらこ
    れ。                                        重みを付けられる
                                              dissimilarity.object
gdist {mvpart}
library(“mvpart”)
gdist(x, method="bray", keepdiag=FALSE, full=FALSE, sq=FALSE)



  x: Data matirx
  method: "euclidean", "manhattan", "gower", "canberra", "bray", "kulczynski",
  "maximum", "binary", "chord"

  ‘canberra’ d[jk] = (1/NZ) sum ((x[ij]-x[ik])/(x[ij]+x[ik]))
  ‘bray’     d[jk] = (sum abs(x[ij]-x[ik])/(sum (x[ij]+x[ik]))
  ‘kulczynski’ d[jk] 1 - 0.5*((sum min(x[ij],x[ik])/(sum x[ij]) + (sum min(x[ij],x
  [ik])/(sum x[ik]))
  ‘binary’    d[jk] = max(abs(x[ij]>0 -x[ik]>0))
  ‘chord’     d[jk] = sqrt((sum (x[ij]-x[ik])^2)/(sum (x[ij]+x[ik])^2))

  where NZ is the number of non-zero entries.
cor {stats}
cor(x, y = NULL, use = "everything",
       method = c("pearson", "kendall", "spearman"))

as.dist(1-correlation.matrix)


  library(“cluster”)
  daisy(x, metric = c("euclidean", "manhattan", "gower"),
          stand = FALSE, type = list(), weights = rep.int(1, p))



  (行同士でなく)列同士を比較する

  相関係数が [-1,1] なので、1-corは [0,2]
距離を扱う関数

hclust {stats}

cmdscale

など…

もっと色々ある
類似度

ピアソン相関係数




スピアマンの順位相関係数

d: 2つのデータ間での順位の差

ケンドールの順位相関係数

                   BY D.C.ATTY
分布の差
d: 2つのデータ間での順位の差




チェビシェフ距離

Jensen-Shannon divergence
cmdscale {stats}
cmdscale(d, k = 2, eig = FALSE, add = FALSE, x.ret = FALSE)

    d: 距離行列
    k: 次元数


  多次元尺度法
     ユークリッド距離を用いると
     主成分分析と等価


  iris.cmd <- cmdscale(dist(iris[, -5]))
  plot(iris.cmd, type="n")
  iris.lab <- factor(c(rep("S", 50),
                rep("C", 50), rep("V",50)))
  text(iris.cmd, labels=iris.lab,
                    col=unclass(iris.lab))
hclust {stats}
hclust(d, method = "complete", members=NULL)

plot(x, ...)

cutree(h, k)

d: 距離行列

h: hclustオブジェクト
k: クラスターの数
hclust {stats}
hclust(d, method = "complete", members=NULL)

plot(x, ...)

cutree(h, k)

d: 距離行列

h: hclustオブジェクト
k: クラスターの数
plot(hclust(as.dist(1-cor(t(d[,2:8])))))




                                                        時刻



                                                 遺伝子

cl <- cutree(hclust(as.dist(1-cor(t(d[,2:8])))), k=6)
d <- cbind(d,cl)

heatmap.2(as.matrix(d[d[,11]==1,2:8]),
density.info="none",Colv=NA, labRow=NA,
trace="none",dendrogram="none", scale="row")
クラスター間の距離
最短距離法

最長距離法

群平均法

重心法

メディアン法

ウォード法
         HTTP://MICRO.MAGNET.FSU.EDU/INDEX.HTML
参考

金明哲「Rによるデータサイエンス」森北出版

http://infoshako.sk.tsukuba.ac.jp/~jgoto/wma/cluster_k-
means.pdf

Wikipedia
懇親会について
鍋

20:30-22:30

柏キャンパス総合研究棟
3F  364号室

終了後、三々五々移動
懇親会について
鍋

20:30-22:30

柏キャンパス総合研究棟
3F  364号室

終了後、三々五々移動

参加費 約1000円 <-NEW!

Weitere ähnliche Inhalte

Was ist angesagt?

Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Kohta Ishikawa
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
Graph Neural Networks
Graph Neural NetworksGraph Neural Networks
Graph Neural Networkstm1966
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)Kota Mori
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)RyuichiKanoh
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法Deep Learning JP
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列Kenjiro Sugimoto
 
ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門Retrieva inc.
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
 
ベイズ最適化
ベイズ最適化ベイズ最適化
ベイズ最適化MatsuiRyo
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!takehikoihayashi
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 

Was ist angesagt? (20)

Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
Graph Neural Networks
Graph Neural NetworksGraph Neural Networks
Graph Neural Networks
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 
ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
PRML8章
PRML8章PRML8章
PRML8章
 
ベイズ最適化
ベイズ最適化ベイズ最適化
ベイズ最適化
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
 
線形計画法入門
線形計画法入門線形計画法入門
線形計画法入門
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 

Ähnlich wie 距離まとめられませんでした

2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4Takeshi Sakaki
 
MMDs10.6-7
MMDs10.6-7MMDs10.6-7
MMDs10.6-7mfumi
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化Miyoshi Yuya
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介Taku Yoshioka
 
動的計画法入門(An introduction to Dynamic Programming)
動的計画法入門(An introduction to Dynamic Programming)動的計画法入門(An introduction to Dynamic Programming)
動的計画法入門(An introduction to Dynamic Programming)kakira9618
 
Implicit Explicit Scala
Implicit Explicit ScalaImplicit Explicit Scala
Implicit Explicit ScalaKota Mizushima
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能Hiroshi Nakagawa
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)Akihiro Nitta
 
すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)
すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)
すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)Nozomu Kaneko
 
diffの真髄
diffの真髄diffの真髄
diffの真髄fuku68
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度Seiichi Uchida
 
DS Exercise Course 4
DS Exercise Course 4DS Exercise Course 4
DS Exercise Course 4大貴 末廣
 
K060 中心極限定理clt
K060 中心極限定理cltK060 中心極限定理clt
K060 中心極限定理cltt2tarumi
 
Deep Learning を実装する
Deep Learning を実装するDeep Learning を実装する
Deep Learning を実装するShuhei Iitsuka
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知Chika Inoshita
 

Ähnlich wie 距離まとめられませんでした (20)

2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
R intro
R introR intro
R intro
 
MMDs10.6-7
MMDs10.6-7MMDs10.6-7
MMDs10.6-7
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 
R seminar on igraph
R seminar on igraphR seminar on igraph
R seminar on igraph
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
 
動的計画法入門(An introduction to Dynamic Programming)
動的計画法入門(An introduction to Dynamic Programming)動的計画法入門(An introduction to Dynamic Programming)
動的計画法入門(An introduction to Dynamic Programming)
 
C07
C07C07
C07
 
Implicit Explicit Scala
Implicit Explicit ScalaImplicit Explicit Scala
Implicit Explicit Scala
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
 
すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)
すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)
すごいHaskell 第7章 型や型クラスを自分で作ろう(前編)
 
機械学習
機械学習機械学習
機械学習
 
diffの真髄
diffの真髄diffの真髄
diffの真髄
 
主成分分析
主成分分析主成分分析
主成分分析
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
 
DS Exercise Course 4
DS Exercise Course 4DS Exercise Course 4
DS Exercise Course 4
 
K060 中心極限定理clt
K060 中心極限定理cltK060 中心極限定理clt
K060 中心極限定理clt
 
Deep Learning を実装する
Deep Learning を実装するDeep Learning を実装する
Deep Learning を実装する
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 

Mehr von Haruka Ozaki

160817 ISMB2016読み会
160817 ISMB2016読み会160817 ISMB2016読み会
160817 ISMB2016読み会Haruka Ozaki
 
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)Haruka Ozaki
 
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocationトピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet AllocationHaruka Ozaki
 
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomesISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomesHaruka Ozaki
 
巨大な表を高速に扱うData.table について
巨大な表を高速に扱うData.table について巨大な表を高速に扱うData.table について
巨大な表を高速に扱うData.table についてHaruka Ozaki
 
Excelによる遺伝子名の誤変換 -傾向と対策-
Excelによる遺伝子名の誤変換 -傾向と対策-Excelによる遺伝子名の誤変換 -傾向と対策-
Excelによる遺伝子名の誤変換 -傾向と対策-Haruka Ozaki
 
Kashiwa.R#9 Rでゲノム解析
Kashiwa.R#9 Rでゲノム解析Kashiwa.R#9 Rでゲノム解析
Kashiwa.R#9 Rでゲノム解析Haruka Ozaki
 
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと 12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと Haruka Ozaki
 
Rで塩基配列を扱う方法
Rで塩基配列を扱う方法Rで塩基配列を扱う方法
Rで塩基配列を扱う方法Haruka Ozaki
 
FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)Haruka Ozaki
 

Mehr von Haruka Ozaki (10)

160817 ISMB2016読み会
160817 ISMB2016読み会160817 ISMB2016読み会
160817 ISMB2016読み会
 
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
 
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocationトピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
 
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomesISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
 
巨大な表を高速に扱うData.table について
巨大な表を高速に扱うData.table について巨大な表を高速に扱うData.table について
巨大な表を高速に扱うData.table について
 
Excelによる遺伝子名の誤変換 -傾向と対策-
Excelによる遺伝子名の誤変換 -傾向と対策-Excelによる遺伝子名の誤変換 -傾向と対策-
Excelによる遺伝子名の誤変換 -傾向と対策-
 
Kashiwa.R#9 Rでゲノム解析
Kashiwa.R#9 Rでゲノム解析Kashiwa.R#9 Rでゲノム解析
Kashiwa.R#9 Rでゲノム解析
 
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと 12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
 
Rで塩基配列を扱う方法
Rで塩基配列を扱う方法Rで塩基配列を扱う方法
Rで塩基配列を扱う方法
 
FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)
 

距離まとめられませんでした