SlideShare ist ein Scribd-Unternehmen logo
1 von 28
トピックモデルでテキストを
クラスタリングしてみた
Oisix・機械学習勉強会 2017年1月30日
今回のゴール
ニュース記事をいい感じ
にカテゴライズしたい!
どう達成する?
機械学習を使う
ってことは
ディープラーニングね!
機械学習はディープ
ラーニングだけじゃない
これ!やってみよう!
トピックモデルとは?
ある文章は複数のトピックを持つと仮定
そのトピックを抽出するモデル
文書データ
トピック抽出
政治・経済 スポーツ 科学・技術
国会
内閣
GDP
アジア
民主主義
安全保障
不景気
民主党
野球
サッカー
ゴール
優勝
ボール
オリンピック
練習
怪我
人工知能
IoT
進化
スマホ
通信
ノーベル賞
法則
自然現象
イメージ
なんだ!単純そうだ!
よゆー( ^∀^)
じゃなかった・・・・orz
ディリクレ分布・カテゴリ分布・
ユニグラムモデル・混合ユニグ
ラムモデル・最尤推定・ベイズ
推定・EMアルゴリズム・変分ベ
イズ・ギブスサンプリング・ラグ
ランジュの未定乗数法・特異
値分解・潜在意味解析(LSA) ・
潜在ディリクレ配分法(LDA)
諦めて勉強します
開発環境
言語 : Python 3.5.2
Anaconda 4.2.0 (x86_64)
ライブラリ : gensim 0.13.4
マシン : MacBook Pro
プロセッサ:2.9 GHz Intel Core i5
メモリ:16 GB
ワークフロー
1.データ(文書群)を用意する
2.文書を単語に分ける (形態素解析)
3.単語辞書を定義
4.文書のベクトル化 (bag of words)
5.LDAのモデルに投入
1.データ(文書群)を用意する
IT関連・スポーツ記事を500ずつ
http://headlines.yahoo.co.jp/rss/list
2.文書を単語に分ける (形態素解析)
オープンソース形態素解析エンジンMeCabを使う
辞書がかなり重要!
3.単語辞書を定義
import gensim
dictionary = gensim.corpora.Dictionary(docs)
dictionary.filter_extremes(no_below=1,
no_above=0.6)
出力形式
word_id word frequency
1382 人工知能 6
1383 人間 4
1384 人 8
・
・
・
データの前処理
単語の出現が1文書以下のとき
or
単語が60%以上の文書に登場したとき
除外
4.文書のベクトル化 (bag of words)
corpus = [dictionary.doc2bow(doc) for doc in docs]
出力形式
・
・
・
doc_id word_id frequency
5 1382 5
5 1395 2
5 1402 1
5 1405 3
辞書の単語数次元のベクトルに変換
単語の順序は無視(文脈は加味しな
い)
5.LDAのモデルに投入
lda = gensim.models.LdaModel(corpus=corpus, id2word=dictionary,
num_topics=10)
結果①各トピックの単語分布
結果②各ドキュメントのトピック分布
[(0, 0.0011494875610395532), (1, 0.0011495216687281548),
(2, 0.0011496757886118457), (3, 0.0011495369772548966),
(4, 0.0011494898792352231), (5, 0.0011495350667500301),
(6, 0.0011494309427501576), (7, 0.0011495365332948294),
(8, 0.0011494727694675608), (9, 0.98965431281286775)]
topic_0: [('機能', 0.012867980011525922), ('情報', 0.012866562485143618),
('参加', 0.012864776822333324), ('組織', 0.01286474405616749),
('サービス', 0.0097301626205478289), ('提供', 0.009729611435667529),
('日立', 0.0097275009231823951), ('情報共有', 0.0097274642885800313),
('サイバー攻撃', 0.0097273991777577958), ('コミュニティ', 0.0097272270792)]
LDAってなに?
Latent Dirichlet Allocation
潜在的ディリクレ配分法
ちょっとイメージだけ・・
LDAは、文書集合の潜在トピック
座標単体上への射影である。
music
game play
LDAの幾何学的解釈(3単語しかない世界)
play game music
文書Aにおける単語分布
play game music
文書Bにおける単語分布
単語座標単体
各文書は単語座標
単体上の座標
基底ベクトルは単語分布
潜在トピック座標単体
文書d
文書を単語空間(3次元)からより低次元
のトピック空間(2次元)へ射影している
分布に偏りがある
∅1
∅2
Topic0 Topic1 Topic2 Topic3 Topic4
孫社長 ドル Google 充電 AQUOS PHONE
孫正義 売上高 ロゴ 画面 スマホ
発言 増 トップページ Excel ドコモ
孫 違法コピー AI クリック スタンダード
Twitter プラチナバンド 検索 タブ ARROWS
つぶやき サウンド 友達 Word GALAXY S
投資 株 ZOTAC iQON IQ
ソフトバンク
グループ
騎手 GeForce GTX 表示 澤
活発 宇佐美 不審 虎の巻 坂田
各トピックの単語分布(Topic0〜4)
Topic5 Topic6 Topic7 Topic8 Topic9
投資 アプリ 格闘技 ホームラン 監督
ダル 機能 武田 長谷部 氏
ガッツポーズ 技術 K-1 坂本 選手
筆記体 バッテリー ニコニコ町会議 チップ 試合
井端 対応 戦国 キャッチャー やる
浮気 搭載 SUPP 川島 日本代表
ドーピング 容量 違法コピー 修正 W杯
複利 通信 プロレス K−1 サッカー
XPS 募集 プラチナバンド ZALMAN チーム
各トピックの単語分布(Topic5〜9)
各ドキュメントのトピック分布
Topic Number Distribution
0 0.000301217
1 0.000301208
2 0.818409556
3 0.000301233
4 0.010190877
5 0.000301223
6 0.163988078
7 0.000301223
8 0.005604168
9 0.000301214
クラスタリングできた?
もう1ステップ!
Kmeansでクラスタリング
vec_list = []
for n in range(len(corpus)):
vec_list.append([lda[corpus[n]][i][1] for i in range(10)])
result = KMeans(n_clusters=10).fit_predict(vec_list)
・AIで合併症リスクを予測、NTTデータがスペインで実証実験を開始
・AI記者がニュース原稿作成、NTTデータが実証実験
・“IoT熱”は一段落? 本命はAIか
・AI記者が気象ニュース原稿を作成する実証実験--NTTデータが実施
・Alphabet(Googleの親会社)、“その他”部門の営業損失10億ドルで利益
が予測に届かず
・HTCのハードウェア責任者がGoogleの「Daydream」チームに
・グーグル、「Daydream」アプリの配信をすべての開発者に開放 etc.
・ 2年ぶり復帰の鈴木軍が大暴れ みのるがオカダを圧倒=新日本
・ IWGP王者ヒロム失態…ドラゴン・リー襲撃も返り討ち=新日本
・ 【新日本・後楽園】みのる大胆予告!新日の全ベルト強奪
・キングス3連敗 Bリーグ、地元沖縄で新潟に74-82
・千葉が川崎を下して初の日本一 = 全日本バスケ
・大仁田がカシンに王道マットでの電流爆破マッチ提案 etc.

Weitere ähnliche Inhalte

Was ist angesagt?

トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用Tomonari Masada
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明Satoshi Hara
 
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用Hiroyuki Masuda
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会takehikoihayashi
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?hoxo_m
 
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...西岡 賢一郎
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII
 
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計Takahiro Kubo
 
協調フィルタリング入門
協調フィルタリング入門協調フィルタリング入門
協調フィルタリング入門hoxo_m
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
潜在ディリクレ配分法
潜在ディリクレ配分法潜在ディリクレ配分法
潜在ディリクレ配分法y-uti
 
機械学習で嘘をつく話
機械学習で嘘をつく話機械学習で嘘をつく話
機械学習で嘘をつく話Satoshi Hara
 
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理Toru Tamaki
 
数理最適化とPython
数理最適化とPython数理最適化とPython
数理最適化とPythonYosuke Onoue
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理するHiroshi Shimizu
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門hoxo_m
 
実務と論文で学ぶジョブレコメンデーション最前線2022
実務と論文で学ぶジョブレコメンデーション最前線2022実務と論文で学ぶジョブレコメンデーション最前線2022
実務と論文で学ぶジョブレコメンデーション最前線2022Teruyuki Sakaue
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類Shintaro Fukushima
 

Was ist angesagt? (20)

トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
 
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
 
協調フィルタリング入門
協調フィルタリング入門協調フィルタリング入門
協調フィルタリング入門
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
潜在ディリクレ配分法
潜在ディリクレ配分法潜在ディリクレ配分法
潜在ディリクレ配分法
 
機械学習で嘘をつく話
機械学習で嘘をつく話機械学習で嘘をつく話
機械学習で嘘をつく話
 
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
 
PandasとSQLとの比較
PandasとSQLとの比較PandasとSQLとの比較
PandasとSQLとの比較
 
数理最適化とPython
数理最適化とPython数理最適化とPython
数理最適化とPython
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装
 
実務と論文で学ぶジョブレコメンデーション最前線2022
実務と論文で学ぶジョブレコメンデーション最前線2022実務と論文で学ぶジョブレコメンデーション最前線2022
実務と論文で学ぶジョブレコメンデーション最前線2022
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
 

トピックモデルでテキストをクラスタリングしてみた