SlideShare ist ein Scribd-Unternehmen logo
1 von 142
Downloaden Sie, um offline zu lesen
Asakusa DSLの内部


  2011/02/25
あらかわ (@ashigeru)
講演者について
 荒川 傑 (@ashigeru)
  Ashigel Compilerの中の人
    Asakusa DSLのデザ゗ンも担当
  株式会社グルージェント開発部所属
    2010年9月より出向中
  普段の仕事
    研究: コンパ゗ラ、開発環境
    調査: Google App Engineなど
    教育: 授業設計、教材開発


                  Asakusa DSLの内部   2
本日のテーマ
 第一部: Asakusa DSLの設計思想
 どんな言語か、何を考えて作ったのか
 第二部: Asakusa DSLのセマンテゖクス
 Hadoopとどのように関連するか
 第三部: コンパ゗ラのコード生成
 どのようなコードを生成しているか
 第四部: コンパ゗ラの最適化手法
 どのような最適化があるか


            Asakusa DSLの内部   3
本日の内容
 触れること
  DSLの位置づけ
  DSLの設計思想
  言語設計における判断
  DSLのセマンテゖクス
  実行計画作成の仕組み
  コード生成の仕組み
  最適化手法
 触れないこと
  Asakusa Frameworkの使い方
  Asakusa DSLの書き方
               Asakusa DSLの内部   4
言語設計者としての主張
 プログラミング言語は作るべきでない
 品質がどうしても落ちる
 新しい概念の習得は大変
 言語そのものよりも周辺環境が重要
 それでもAsakusa DSLなんてものを作った
 その価値はあったのか、という観点で




           Asakusa DSLの内部    5
まずは何を目指してDSLを作ったのかを紹介

第一部
Asakusa DSLの設計思想

             Asakusa DSLの内部   6
第一部: Asakusa DSLの設計思想
 Asakusa "Framework"の概要
 Hadoopを利用する障壁
 Asakusa DSL
 まとめ




                Asakusa DSLの内部   7
第一部: Asakusa DSLの設計思想
 Asakusa "Framework"の概要
 Hadoopを利用する障壁
 Asakusa DSL
 まとめ




                Asakusa DSLの内部   8
Asakusa "Framework"の概要
 エンタープラ゗ズ系のバッチ処理に
  Hadoopを利用するためのフレームワーク
 外部システムとの連携
 業務トランザクションの実現
 複雑なMap Reduceジョブネットの管理




           Asakusa DSLの内部   9
外部システムとの連携
 Map Reduceでない処理が含まれる
  計算単体で終わることはまずない
  データを外部から取り込んだり、計算結果を
   ほかで利用したりすることが必須
 例:
  フロントデータベースからの取り込み
  外部基幹システムからの取り込み
  印刷サーバーから帳票の出力


           Asakusa DSLの内部   10
業務トランザクションの実現
 外部システムと整合性を保ちながら処理
 一つ一つの処理はオンラ゗ントランザクショ
  ンよりもずっと時間がかかる
 Hadoopだけではジョブ単位の整合性のみ
 ジョブネット単位のロールバックやロール
  フォワードが必須
 上位のワークフローエンジンとの連携が必須




         Asakusa DSLの内部   11
複雑なMap Reduceジョブネットの管理
 単体のMap Reduceジョブで処理が完結す
  ることはほぼない
 ジョブの結果を複数の別のジョブが使う
 複数のジョブの結果を一つのジョブが使う
 業務トランザクションとの兼ね合いも
 ジョブネット中のどこで失敗しても整合性が
  崩れないようにする




          Asakusa DSLの内部    12
Asakusa "Framework"のゕプローチ
 外部システムとの連携
  外部システムのデータをMap Reduceで処理できる
  Map Reduceの処理結果を外部システムに送信できる
 業務トランザクションの概念
  DSLレベルでトランザクション境界を記述できる
  ワークフローエンジンと連携してロングトランザク
   ションを実現
 複雑なMap Reduceジョブネットの管理
  複雑なデータフローをDSLで記述し、Map Reduceジョ
   ブ群を自動生成
  ワークフローエンジンごとにジョブネット記述を自
   動生成

             Asakusa DSLの内部       13
Asakusa "Framework"での開発
 Asakusa DSLを中心にプログラムを生成

                             ワークフロー
 Asakusa                       定義
   DSL
 バッチ構造
            Ashigel          外部連携
           Compiler          プログラム
 データフロー

  プロセス                       Map Reduce
                             プログラム


 データモデル    Data Model        データモデル
  定義情報     Generator         Javaクラス


            Asakusa DSLの内部                14
第一部: Asakusa DSLの設計思想
 Asakusa "Framework"の概要
 Hadoopを利用する障壁
 Asakusa DSL
 まとめ




                Asakusa DSLの内部   15
Hadoopを利用する障壁
 設計技法の欠如
 Map Reduceの適用範囲の理解
 Hadoop特有の実装




           Asakusa DSLの内部   16
設計技法の欠如
 どのような設計情報があれば実装を始め
  られるのか
 データモデル
 データフロー
 構造化単位
 Map Reduceのプログラムにするにはどこ
  まで情報が必要か
 取り扱うデータの転送形式、フゔ゗ル形式
 データフロー内の「プロセス」の粒度

           Asakusa DSLの内部   17
Map Reduceの適用範囲の理解
 どんな計算が得意か
 どんな計算が不得意なのか
 どう書くと速いか
 どう書くと遅いのか
 そもそもできないことは何か
 設計、実装担当にどう理解してもらうか




         Asakusa DSLの内部   18
Hadoop特有の実装
 ある処理を実現する際に、どのようなも
  のを記述すればよいか
 JOINの処理
 グループ化
 どのような知識が必要か
 ネットワークゕルゴリズム
 ソートゕルゴリズム
 Hadoopの裏側の挙動


            Asakusa DSLの内部   19
Asakusa Frameworkのゕプローチ
 設計技法の欠如
  詳細設計と実装で両方使えるDSLを用意
   DSLの語彙と詳細設計の語彙を一致させる
   DSLの形式を詳細設計の成果物に寄せる
 Map Reduceの適用範囲の理解
  Map Reduceの処理パターンに対応するDSLを用意
   DSLで書けないことは実装できない
   DSLで書けることは速く動くように
 Hadoop特有の実装
  DSLを元にコンパ゗ラが自動生成
   DSLで書けることを制限
   裏側の実装を意識させない


            Asakusa DSLの内部    20
第一部: Asakusa DSLの設計思想
 Asakusa "Framework"の概要
 Hadoopを利用する障壁
 Asakusa DSL
 まとめ




                Asakusa DSLの内部   21
Asakusa DSL
 Operator DSL
   プロセスの最小単位である「演算子」を定義
   「Map Reduceができること」をテンプレート化して提供
   ほとんど普通のJavaを書ける
 Flow DSL
   演算子をつなぎ合わせて「データフロー」を定義
   作成したデータフローは演算子としてコンポーネント化
   ホスト言語がまさかのJava
 Batch DSL
   データフローやスクリプトを組み合わせて「バッチ」を定
    義
   処理の依存関係をシンプルに書く
   まさかのJava


                   Asakusa DSLの内部    22
各種DSLの構造
 層ごとに書くべきことが異なる
Batch DSL                Flow DSL                    Operator DSL


      UoW                                             1. ……………
       #1                                              1.1. ………
                                                       1.2. ………
                                                      2. ……………
UoW     UoW                                            2.1. ………
 #2      #3                                            2.2. ………
                                                       2.a. ………
                                                      3. …………
      UoW                                             4. …………
       #4

  Batch       Dataflow               Dataflow Part      Process
                         Asakusa DSLの内部                           23
例: Operator DSL
 Javaのメソッド+ゕノテーション
public abstract class ExampleOperator {
  @MasterJoinUpdate
  public void updateWithMaster(
        @Key(group = "id") ItemMst master,
        @Key(group = "itemId") PurchaseTrn tx) {
     tx.setPrice(master.getPrice());
  }
}                  master <<MasterJoinUpdate>> joined
                                 updateWithMaster
                     tx         master.id = tx.itemId   missed

                          Asakusa DSLの内部                         24
例: Flow DSL - 部品
 入出力とデータフローを記述
@FlowPart
public class ExampleFlowPart extends FlowDescription {
  In<Hoge> a;
  Out<Foo> b;
  public ExampleFlowPart(In<Hoge> a, Out<Foo> b) {
     this.a = a;
     this.b = b;                         Convert  UpdateFoo
  }                           a                     upd       b
                                           cnv
  @Override
  public void describe() {
     OperatorFactory f = new OperatorFactory();
     Convert cnv = f.convert(a);
     UpdateFoo upd = f.updateFoo(cnv.out);
     b.add(upd.out);
  }
}                            Asakusa DSLの内部                       25
例: Flow DSL - 業務トランザクション
 外部システムとの連携について追記
@JobFlow(name = “example”)
public class ExampleJobFlow extends FlowDescription {
  In<Hoge> in;
  Out<Hoge> out;
  public ExampleJobFlow(
         @Import(name=“hoge”, description=HogeFromDb.class)
         In<Hoge> a,
         @Export(name=“hoge”, description=HogeToFile.class)
         Out<Hoge> b) {
      this.in = a;
      this.out = b;
  }
                                  a        ...         b

  ...

                           Asakusa DSLの内部                     26
例: Batch DSL
 ジョブ間の依存関係を明記
@Batch(name = "batch.example")
public class ExampleBatch extends BatchDescription {
  @Override
  protected void describe() {
     Work job1 = run(Job1.class).soon();
     Work job2 = run(Job2.class).after(job1);
     Work job3 = run(Job3.class).after(job1);
     Work job4 = run(Job4.class).after(job2, job3);
  }
}                                            Job2
                                      Job1             Job4
                                             Job3

                          Asakusa DSLの内部                      27
3層のDSL
 DSLごとに扱う内容がまったく違う
 Operator DSL: 手続型
   レコードの順序を考慮する処理を書きやすい
    「普通のJava」としてテストも書ける
   いざとなれば力技で処理を書ける
 Flow DSL: フロー型
   「データの流れ」をそのまま書ける
   Map Reduceと演算子の関係を高度に隠蔽
 Batch DSL: 依存グラフ型
   依存関係を書く設定フゔ゗ルのレベル

               Asakusa DSLの内部   28
補足:レコードの順序を考慮する処理
 並列性が高いが、グループごとの処理が煩雑
  伝票照合
  単品管理
  修正伝票
  など
 一階の関係論理では極端に書きにくい
  ストゕドプロシージャ祭り
  PigやHiveはUDFのような補助的な仕組みで対応
 ドメ゗ンによってはこのタ゗プの計算が多い
  手続き型の計算で楽に済ませる
  徹底的にテストする

            Asakusa DSLの内部      29
ホスト言語としてのJava
 コンパ゗ラの開発工数的な話
  言語設計自体はパーサから書いたほうが楽
  IDEとの連携まで考えるとホスト言語に任せたほ
   うが楽
 スキルセットとの兼ね合い
  新しい言語の習得コストをとても懸念
  SQLに寄せたり、Scalaで作ろうという案もあった
 とはいえ、いろいろ最悪
  型の計算を気合で書いた
  メタプログラミングで心が折れかけた
  Flow DSLが黒魔術
           Asakusa DSLの内部    30
その他、気にしたこと
 構造化技法
  段階的にモジュール化して、一度に把握する範囲
   を減らせるように
  Asakusa DSLではデータフローを入れ子にできる
 テスト技法
  データフローの単位でテストを実施できるように
  生成するMap Reduceを意識せずに論理構造だけ
   でテスト
 IDEとの連携
  強い型付けで即座に結線ミスを検出
  ポップゕップされるドキュメンテーションを読み
   やすいように自動生成部分を設計

            Asakusa DSLの内部   31
第一部: Asakusa DSLの設計思想
 Asakusa "Framework"の概要
 Hadoopを利用する障壁
 Asakusa DSL
 まとめ




                Asakusa DSLの内部   32
第一部のまとめ
 Asakusa Framework
  エンタープラ゗ズバッチをHadoopで動かす
  Hadoopの大変なところをDSLで和らげる
 Asakusa DSL
  3種類のDSL
  それぞれ異なる領域をカバーするDSL
  いざとなれば手続き型も活用



                Asakusa DSLの内部   33
Asakusa DSLはHadoopのどんな機能とどのように対応するのか

第二部
Asakusa DSLのセマンティクス

               Asakusa DSLの内部          34
第二部: Asakusa DSLのセマンテゖクス
 Hadoop Map Reduceの表現力
 Operator DSLの表現力
 Flow DSLの表現力
 データフローの実行計画
 まとめ




             Asakusa DSLの内部   35
第二部: Asakusa DSLのセマンテゖクス
 Hadoop Map Reduceの表現力
 Operator DSLの表現力
 Flow DSLの表現力
 データフローの実行計画
 まとめ




             Asakusa DSLの内部   36
Hadoop Map Reduceの表現力
 Hadoopでどんな計算ができる?
 ここでの記法
  関数型を A -> B のように表記
   A型のデータを引数にとりB型のデータを返す
  T型のシーケンスを[T]と表記
   List<T>のようなもの
  直和型を A|B|... のように表記
   A型かB型か...のどれか
  レコード型を{a:A, b:B,...}のように表記
   フゖールドを持つオブジェクトのようなもの
  組型を(A, B, ...)のように表記
   RDBのカラム列のようなもの


               Asakusa DSLの内部   37
補足: Javaでの直和型の表現
 ゗ンスタンスフゖールドごとに要素型の
  データを持つだけ
  該当する型以外はnullにしておく
  Writableは型情報を落としてシリゕラ゗ズ
public class Union implements Writable {
  public int slot;
  public Hoge slot0;
  public Foo slot1;
  public Bar slot2;
  ...
}                    Asakusa DSLの内部        38
「普通の」Map Reduce
 Map: A -> [S]
  データごとに分解して別のデータを出力
 Shuffle: [S] -> [[S]]
  データ全体をグループ分け (List<List<S>>)
 Reduce: [S] -> [B]
  グループごとに分解して別のデータを出力


 これだけではデータフローというよりパ
  ゗プラ゗ン処理程度しかできない...
                    Asakusa DSLの内部   39
MultipleInputs
 複数の入力を一度のMap Reduceで処理
 入力ごとにMapperを指定できる
 入力ごとに異なる型を利用できる
 Shuffleの型は揃えておく必要あり
 少し表現力が上がった
 Map1: A1 -> [S]
 Map2: A2 -> [S]
 ...


                    Asakusa DSLの内部   40
MultipleOutputs
 複数の出力を一度のMap Reduceで行う
 出力ごとに名前を付けられる
 出力ごとに異なる型を指定できる
 少し表現力が上がった
 Reduce: [S] -> { b1:[B1], b2:[B2], ...}




                   Asakusa DSLの内部           41
直和型を利用したシャッフル
 Map: A -> [S|T|...]
  「SかTか...のどれか」型をシャッフルに渡す
 Shuffle: [S|T|...] -> [[S|T|...]]
  データ全体をグループ分け
 Reduce: [S|T|...] -> [B]
  「SかTか...のどれか」型を元に何かを出力
 少し表現力が上がった
  Shuffle時に複数の型を取り扱える
   (ように見せかけられる)
                   Asakusa DSLの内部     42
Secondary Sort
 Reduce時のグループをキーの一部で決め
  られる
 グループ化条件を指定する
 job.setGroupingComparator()
 残りのキーでグループ内をソートできる
 ソート条件を指定する
 job.setSortComparator()
 直和型と組み合わせると...

                 Asakusa DSLの内部   43
Secondary Sort付きのShuffle
 簡略化すると以下の通り
              キー全体 (ソート済み)

    グループ化項目     入力位置             ソート項目       実データ
    ID:0001     1                -           A1
    ID:0001     2                2001/12/1   B1
各
    ID:0001     2                2001/12/2   B2
グ
ル   ID:0001     2                2001/12/3   B3
ー   ID:0002     1                -           A2
プ                        2001/12/4 グループ毎に
    ID:0002     2   グループ内で           B4
                         2001/12/5 入力位置内で
    ID:0003     2
                    入力位置順に           B5

    グループ化             並ぶ             並ぶ
      条件             Asakusa DSLの内部                 44
Secondary Sortを利用したシャッフル
 Reducerが入力を複数とっているかのよう
  に見せかける
 実際は直和型の要素ごとに並んでいるだけ
 入力の区切りごとに切り分ける
 これでまた表現力が上がった
 Shuffle: [S|T|...] -> [([S], [T], ...)]
 Reduce: ([S], [T], ...) -> ...



                    Asakusa DSLの内部          45
Hadoop Map Reduceの表現力
 できることのまとめ
 複数の入力を取れる (MultipleInputs)
 入力ごとに好きな型のデータを好きなだけ
  Reducerに (Map, 直和型)
 複数のデータを自由にグループ化して処理で
  きる (Reduce, Secondary Sort)
 複数の出力を行える (MultipleOutputs)
 およそデータフローの計算で必要なこと
  は一通りできる

            Asakusa DSLの内部      46
Hadoop Map Reduceのモデル化
 型の確認
 Map1: A1 -> [(S|T|...)]
 Map2: A2 -> [(S|T|...)]
 ...
 Shuffle: [(S|T|...)] -> [([S], [T], ...)]
 Reduce:
    ([S], [T], ...) -> {b1:[B1], b2:[B2], ...}
 Asakusa DSLではこのモデルを基本にデー
  タフローを構築
 上記とできるだけ同じセマンテゖクスに

                     Asakusa DSLの内部              47
第二部: Asakusa DSLのセマンテゖクス
 Hadoop Map Reduceの表現力
 Operator DSLの表現力
 Flow DSLの表現力
 データフローの実行計画
 まとめ




             Asakusa DSLの内部   48
Operator DSLの表現力
 Operator DSLはデータフロー内の「プロセ
  ス」を記述するDSL
  Asakusa DSLでは「演算子」と呼んでいる
  Flow DSLで組み合わせてデータフローを構築
 演算子はフゔ゗ルを取ってフゔ゗ルを生成
  演算子の「種類」で処理方法が変わる


        入力1                    出力1
                演算子
        入力2                    出力2


              Asakusa DSLの内部         49
演算子の種類
 単一のレコードを入力にとる (Map系)
 レコードごとにどの順序で処理してもよい
  複数のレコードにまたがる処理はできない
 Mapperと同じセマンテゖクスを持つ演算子
  Map: A -> ...
 複数のレコードを入力にとる (Reduce系)
 グループごとにどの順序で処理してもよい
  複数のグループにまたがる処理はできない
  グループ化方法は自分で決められる
 Reducerと同じセマンテゖクスを持つ演算子
  Reduce: ([S], [T], ...) -> ...
                     Asakusa DSLの内部   50
例: 単一のレコードを入力にとる演算子

 更新(Update): A -> A
  入力されたレコードを変更して出力
 変換(Convert): A -> B
  入力されたレコードを別の型に変換して出力
 分岐(Branch): A -> {u:A, v:A, ...}
  入力されたレコードを条件に応じて振り分け
   て出力
 複製(Duplicate): A -> {u:A, v:A, ...}
  入力されたレコードを複製してそれぞれ出力
                  Asakusa DSLの内部        51
例: 複数のレコードを入力にとる演算子
 結合(MasterJoin):
  (A, B) -> {joined:C, missed:B}
   A, Bを結合してCを出力、結合に失敗したBも別途
    出力
 集計(Summarize): [A] -> B
   レコード列を集計して出力
 合流(Confluent): ([A], [A], ...) -> [A]
   複数の入力をまとめてひとつに
 CoGroup:
  ([A1], [A2], ...) -> {b1:[B1], b2:[B2], ...}
   気合でJavaのプログラム書く
                     Asakusa DSLの内部              52
補足: CoGroup
 Reducerと同じセマンテゖクス
 ([A1], [A2], ...) -> {b1:[B1], b2:[B2], ...}
 複数のListを受け取り、なんでも返せる
 気合で命令型のプログラムを書く




                    Asakusa DSLの内部               53
Operator DSLのセマンテゖクス
 演算子の種類を選んで命令型で記述
 演算子を組み合わせる限りは必ずMap Reduce
  に落とせるように言語を設計
 演算子の種類はMap系かReduce系
 プログラムはJavaのメソッドとして書く
  実際には書けることに制限があるが、後述
 システム詳細設計フェーズを強く意識
 「適切な演算子を選ぶ」ことで設計が進む
 「適切な演算子を提供する」ことで設計をコ
  ントロール

           Asakusa DSLの内部   54
第二部: Asakusa DSLのセマンテゖクス
 Hadoop Map Reduceの表現力
 Operator DSLの表現力
 Flow DSLの表現力
 データフローの実行計画
 まとめ




             Asakusa DSLの内部   55
Flow DSLの表現力
 Flow DSLはデータフローそのものを記述
 Operator DSLで記述した「演算子」を組み合
  わせる
 Flow DSLからすると演算子は「語彙」
 DFDでいう「プロセス」に該当
 複数の入力がある
 複数の出力がある
 入出力を繋ぎ合わせてデータフローを表現


           Asakusa DSLの内部      56
Flow DSLと構造化
 データフローと演算子は構造が似ている
  複数の入力がある
  複数の出力がある
 データフローも演算子として部品化可能
  Asakusa DSLでは「フロー部品」と呼んでいる
  回路図を゗メージすると良いかも




              Asakusa DSLの内部    57
Flow DSLと外部連携
 入出力を外部システムに接続できる
 データフローの処理開始前に外部システムか
  ら取り込み
 データフローの処理完了後に外部システムに
  書き出し
 このようなデータフローはトランザク
  ション単位としてマーク
 Asakusa DSLでは「ジョブフロー」と呼ぶ
 途中で失敗してもロールバックできるように
  連携部分を作りこむ

          Asakusa DSLの内部     58
第二部: Asakusa DSLのセマンテゖクス
 Hadoop Map Reduceの表現力
 Operator DSLの表現力
 Flow DSLの表現力
 データフローの実行計画
 まとめ




             Asakusa DSLの内部   59
データフローの実行計画
 Flow DSLとOperator DSLの内容から演算子
  グラフを構成
 論理的な処理の流れを表現したもの
 Map Reduceの単位はこの時点では意識しない
 これをMap Reduceの単位に分割
 大したものでもないが「実行計画」と呼ぶ
 DSLを明確に分離したのは、これをやりやす
  くするため
   Flow DSL: フロー型
   Operator DSL: 命令型

                 Asakusa DSLの内部   60
実行計画の方針
 Map Reduceの区切りを考える
 MapとReduceの間にShuffleが必要
 ReduceとMapの間をステージ境界と呼ぶ
 これらからMapとReduceを逆算できる

   Map   Reduce

                                   Map   Reduce
   Map   Reduce


                  Asakusa DSLの内部                  61
実行計画作成の流れ
 大雑把に言えば次の流れ
  構造の検証
  フロー部品の展開
  グラフの最適化 (第3部で紹介)
  Shuffleの抽出
  ステージ境界の抽出
  恒等演算子の挿入
  Reducerの抽出
  Mapperの抽出
  Map Reduceグラフの構築
  入出力の特定
            Asakusa DSLの内部   62
グラフ構造の検証
 グラフに循環がないこと
 Directed Acyclic Graph (DAG) を前提にすべて
  の処理を行う
 未結線の演算子がないこと
 見つかりにくい問題なので、安全側に




               Asakusa DSLの内部        63
フロー部品の展開
 構造化のために導入したフロー部品を展開
  階層構造を持たない巨大な演算子グラフをつくる
  巨大な演算子グラフで広域最適化を適用
 実際にはフロー部品の「ワク」を外すだけ




          Asakusa DSLの内部   64
Shuffleの抽出
 MapとReduceの間に来る「Shuffleが必要
  な処理」を探す
 つまり、「Reduce系演算子」を探す
 この手前で確実にShuffleが必要




            Asakusa DSLの内部     65
ステージ境界の抽出
 Map Reduceごとの区切りである「ステージ
  境界」を導入
  フローの入力と出力は自明なステージ境界
  ShuffleとShuffleの間になければ勝手に挿入
  Flow DSLで明示的に挿入することも可能




             Asakusa DSLの内部      66
恒等演算子の挿入
 ステージ境界の直後にShuffleが来る場合に、
  恒等演算子を挿入
  「入力をそのまま出力する」演算子
  これを入れないと、Mapperがないジョブが出来
   上がってしまう




           Asakusa DSLの内部     67
Reducerの抽出
 Shuffleからステージ境界までがReducerに
 逆方向でたどると、Reducerが分断されてグ
  ループ化に失敗




           Asakusa DSLの内部   68
Mapperの抽出 (1)
 Shuffleから逆方向のステージ境界までが
  Mapper
 MultipleInputsで同一ジョブに入れる




           Asakusa DSLの内部    69
Mapperの抽出 (2)
 ステージ境界から直接ステージ境界にた
  どり着くものもMapper
 Reducerがないジョブが出来上がる




           Asakusa DSLの内部   70
Map Reduceグラフの構築
 ステージ境界からステージ境界までを抽出
  Reducerとそれに先行するすべてのMapper
  Reducerが後続しないMapper
 元の構造と合わせてMap Reduce単位のグラ
  フを構築




             Asakusa DSLの内部    71
入出力の特定
 データフローの入力に直結するジョブは、
  その入力をそのまま使う
 ほかのジョブの出力に直結するジョブは、
  その出力を入力に使う




        Asakusa DSLの内部   72
実行計画
 データフローをMap Reduce単位に割当て
 Map Reduceそのものではなく、Shuffleやス
  テージなどの境界を基準に考える
 境界に含まれるものがMapperやReducerに
 最適化の余地がかなりある
 Shuffleの削減
 ステージ境界を適切に挿入
 MapperやReducerの合成


            Asakusa DSLの内部       73
Discussion: 分断された処理
 演算子の出力の一部を利用する場合も
 内部的には演算子を多重化させて対応
 演算子が関数的性質を持てばセマンテゖクス
  は崩れない
  演算子は出力が入力によってのみ決まること
  これはOperator DSLの制約 (緩和可能)


       B                     A   B
  A
       C                     A   C
            Asakusa DSLの内部           74
第二部: Asakusa DSLのセマンテゖクス
 Hadoop Map Reduceの表現力
 Operator DSLの表現力
 Flow DSLの表現力
 データフローの実行計画
 まとめ




             Asakusa DSLの内部   75
第二部のまとめ
 Operator DSLはHadoopのMapやReduce処理
  と同じ表現力をもつように
   単一のレコードをとる: Map系
   複数のレコードをとる: Reduce系
 Flow DSLは演算子を組み合わせてデータフ
  ローを構築
   データフロー自体も演算子として使える
   業務トランザクション境界もここで記述できる
 データフローは実行計画でMap Reduce単位
  に分割
   境界を中心に考えてMapperとReducerを計算
   紹介したゕルゴリズムをほぼそのまま利用
              Asakusa DSLの内部         76
ここまでくればあとは力技

第三部
コンパイラのコード生成

               Asakusa DSLの内部   77
第三部: コンパ゗ラのコード生成
 Flow DSLのコード生成
 Operator DSLのコード生成
 バッチ全体のコード生成
 まとめ




             Asakusa DSLの内部   78
第三部: コンパ゗ラのコード生成
 Flow DSLのコード生成
 Operator DSLのコード生成
 バッチ全体のコード生成
 まとめ




             Asakusa DSLの内部   79
Flow DSLのコード生成
 Map Reduce単位に区切ったので、それ用
  にプログラムを生成
 Shuffle Key
 Shuffle Value
 Secondary Sort関連
 Mapper
 Reducer
 Client


               Asakusa DSLの内部   80
補足: Shuffleの構造
 簡略化すると以下の通り
              キー全体 (ソート済み)

    グループ化項目     入力位置             ソート項目       実データ
    ID:0001     1                -           A1
    ID:0001     2                2001/12/1   B1
各
    ID:0001     2                2001/12/2   B2
グ
ル   ID:0001     2                2001/12/3   B3
ー   ID:0002     1                -           A2
プ                        2001/12/4 グループ毎に
    ID:0002     2   グループ内で           B4
                         2001/12/5 入力位置内で
    ID:0003     2
                    入力位置順に           B5

    グループ化             並ぶ             並ぶ
      条件             Asakusa DSLの内部                 81
Shuffle Keyの生成
 Asakusa DSLでは「キー」をほとんど意識
  しない
 コード生成時に適切なキーを生成
 後続するReduce系演算子の入力を元にク
  ラスを生成
 グループ化条件
 入力位置
 ソート順序


            Asakusa DSLの内部   82
Shuffle Valueの生成
 シャッフル時に転送される値のクラスを
  生成
  直和型をJavaで表現

public class Union implements Writable {
  public int slot;
  public Hoge slot0;
  public Foo slot1;
  public Bar slot2;
  ...
}
                    Asakusa DSLの内部         83
Secondary Sort関連の生成
 Shuffle KeyをもとにSecondary Sort用のク
  ラスを生成
 グループ化のためのComparator
   グループ化にかかわるキーのみを比較
 ソートのためのComparator
   Shuffle Keyのすべてを比較
 Partitioner
   グループ化にかかわるキーのみからハッシュ値を
    算出


                Asakusa DSLの内部   84
Mapperの生成
 演算子を組み合わせてMapper処理を実現
 Operator DSLで書いたJavaのメソッドを起動
  するコードを生成
 さらに出力前にShuffle Keyを生成して、
  Shuffleフェーズに送る
 必要な項目をデータから抽出して、キー項目
  を計算する




            Asakusa DSLの内部       85
Fragment Graph
 内部的には、Mapper部分の演算子グラフか
  ら「Fragment」というものを生成
  Operator DSLのメソッド呼び出しを組み合わせて
   処理を実現
  (コンパ゗ラでいうBasic Blockと同じ概念で分割)
 Fragmentを組み合わせて小さなデータフ
  ローを構築
  出現する演算子はMap系のみ
  このデータフローにデータを一つ渡すと、
   Mapper.map()の1回分の処理を行う
  Mapperではこれにデータを流すだけ

             Asakusa DSLの内部    86
補足: Fragment Graphの実装
 次々とJavaのメソッドを起動するだけ
 Call Treeのようになる
 最後に「出力」のメソッドを起動




           Asakusa DSLの内部   87
Reducerの生成
 Shuffleフェーズで作成されたグループの
  入力ごとにリストを作成して、Reduce系
  演算子を処理
 実際にはOperator DSLの該当するメソッドに
  処理を移譲する
 逐次処理が可能であればリストを作成しない
  で処理することも
 後続に別の演算子があれば、出力の前に
  Fragment Graphでさらにデータを加工


           Asakusa DSLの内部      88
補足: Reducerの入力
 入力位置ごとにリストを作成
 入力が空の場合には空のリストを作成
 グループ化項目ごとに演算子を実行
 グループ化項目    入力位置           ソート項目       実データ
 ID:0001    1              -           A1
 ID:0001    2              2001/12/1   B1
 ID:0001    2              2001/12/2   B2
 ID:0001    2              2001/12/3   B3
 ID:0002    1              -           A2
 ID:0002    2              2001/12/4   B4
 ID:0003    2              2001/12/5   B5
 ID:0003    2              2001/12/6   B6
                   Asakusa DSLの内部             89
Clientの生成
 Map Reduceジョブをキックするクラ゗ゕ
  ントプログラムを作成
 ここまでに作成したMapper, Reducer, Shuffle
  情報を渡す
 job.xmlを作るという手もあるが未実装




              Asakusa DSLの内部          90
Flow DSLのコード生成のまとめ
 ここまでくれば力技の世界
 実行計画を元にセマンテゖクスを崩さなけれ
  ばいい
 半月くらい地味なメタプログラミング
 Map Reduceを生で書きたくなくなる
 Secondary Sortで数回心が折れかけた
 ちゃんとシリゕラ゗ザから設計すべき




            Asakusa DSLの内部   91
第三部: コンパ゗ラのコード生成
 Flow DSLのコード生成
 Operator DSLのコード生成
 バッチ全体のコード生成
 まとめ




             Asakusa DSLの内部   92
Operator DSLのコード生成
 Operator DSLとFlow DSLに大きなギャップ
 Operator DSLではJavaのメソッドを定義
 Flow DSLでは演算子を組み合わせてデータフ
  ローを定義
 Javaらしくないことを実現するために、
  メタプログラミング
 Javaのメソッドから演算子の構造を定義
 演算子の構造をFlow DSLで使える「語彙」に
  する

             Asakusa DSLの内部    93
JSR-269: 注釈プロセッサ
 Operator DSLで記述したJavaのメソッドを
  Javaコンパ゗ル時に自動的に解析
 Javaコンパ゗ラのプラグ゗ンとして提供
 コンパ゗ルのたびにコードを自動生成
 スパ゗ラルに生成コードもコンパ゗ル
 IDEと相性が良い
 オートビルド時に自動生成が走る
 Operator DSLのエラーをIDE上に表示


              Asakusa DSLの内部   94
演算子フゔクトリ
 Flow DSLで演算子を表すオブジェクトを生成する
  フゔクトリ
    Operator DSLから自動生成される
    フローへの入力や、ほかの演算子の出力を引数にと
     るメソッドを提供

                                        UpdateOp
                                  in
In<Hoge> in;                              up
…
@Override public void describe() {
   OperatorFactory factory = new OperatorFactory();
   // 入力inをUpdate演算子upの入力へ
   UpdateOp up = factory.updateOp(in);
   ...
                       Asakusa DSLの内部                 95
演算子クラス
 Flow DSLで取り扱う「演算子」のデータ構造
    Operator DSLから自動生成される
    演算子の出力をフゖールドとして宣言

In<Hoge> in;
                                UpdateOp
Out<Hoge> out;                     up
                                         out out
…
@Override public void describe() {
   OperatorFactory factory = new OperatorFactory();
   UpdateOp up = factory.updateOp(in);
   // Update演算子upの結果を出力outに追加
   out.add(up.out);
}
                       Asakusa DSLの内部                 96
演算子の「語彙」に関する設計意図
 データフロー中の「プロセス」をモデル
  化
 プロセスの入力を引数にとって、モデルオブ
  ジェクトを生成
 モデルオブジェクトはプロセスの出力を提供
 DFDがないと書く気になれない
 DFDとの対応付けはとてもやりやすい (はず)




          Asakusa DSLの内部    97
余談: Java
 ホスト言語にJavaを選んで微妙に後悔
  とはいえ、消去法でこうなった
  LLに型システム入れるとかでもよかったかも

Some c = namespace.some(a.hoge, b.foo);
... namespace.other(c.bar, c.fuga);


   <<...>>      hoge                      bar
      a                    <<Some>>
   <<...>>                     c
      b          foo                      fuga
                       Asakusa DSLの内部            98
演算子クラスの位置づけ
 演算子グラフを構築するためのラッパー
     最終成果物で一切利用しない
     実行計画を立てるためのデータを入力する「ユー
      テゖリテゖ」
     IDEにうまくヒントを与えるためだけに存在する

Operator DSL          Flow DSL          実行計画

   演算子
                 演算子クラス
Javaメソッド
                                フロー記述   演算子グラフ
   演算子
                 演算子クラス
Javaメソッド

                     Asakusa DSLの内部          99
Operator DSLのコード生成のまとめ
 Operator DSLのコードを元に:
  演算子クラスを生成
  演算子フゔクトリーを生成
 Flow DSLではこれらを「語彙」としてプログ
  ラムを記述
  演算子を結線してデータフローを記述
  裏側では演算子グラフを構築している
 最終成果物にならない
  将来的になくなる予感はしている
  「絵から自動生成しないんですかね?」と100万
   回言われた
             Asakusa DSLの内部   100
第三部: コンパ゗ラのコード生成
 Flow DSLのコード生成
 Operator DSLのコード生成
 バッチ全体のコード生成
 まとめ




             Asakusa DSLの内部   101
バッチ全体のコード生成
 他システムとの連携
 業務トランザクション
 ワークフロー記述の生成




         Asakusa DSLの内部   102
他システムとの連携
 Flow DSLでは他システムと連携するため
  の情報を記載できる
 ゗ンポーター記述
  他システムから何をどのように゗ンポートするか
   をDSLで記述
  ジョブフローの入力に設定すると、他システムか
   らデータを取り込んでジョブの入力にする
 エクスポーター記述
  他システムへ何をどのようにエクスポートするか
   をDSLで記述
  ジョブフローの出力に設定すると、その出力結果
   が外部システムに送られる

          Asakusa DSLの内部   103
例: ゗ンポーター記述
 データの゗ンポート方法をJavaで記述
   対象システムごとに記述内容は異なる
public class HogeFromDb extends DbImporterDescription {
  @Override public Class<?> getModelType() {
     return Hoge.class;
  }
  @Override public String getWhere() {
     return "VALUE > 0";
  }
  @Override public LockType getLockType() {
     return LockType.TABLE;
  }
}
                         Asakusa DSLの内部                   104
例: エクスポーター記述
 データのエクスポート方法をJavaで記述
   対象システムごとに記述内容は異なる
public class HogeToFile extends FileExporterDescription {
  @Override public Class<?> getModelType() {
     return MockHoge.class;
  }
  @Override public String getPathPrefix() {
     return "example/export/hoge-*";
  }
}


                        Asakusa DSLの内部                  105
業務トランザクション
 ゗ンポートやエクスポートを行うデータ
  フローは、業務トランザクション処理
   失敗したらロールバック処理を起動

@JobFlow(name = “example”)
public class ExampleJobFlow extends FlowDescription {
  In<Hoge> in;                         a         ...     b
  Out<Hoge> out;
  public ExampleJobFlow(
        @Import(name=“hoge”, description=HogeFromDb.class)
        In<Hoge> a,
        @Export(name=“hoge”, description=HogeToDb.class)
        Out<Hoge> b) {
  ...
                          Asakusa DSLの内部                     106
外部システムとの連携のコード生成
 ゗ンポーター記述やエクスポーター記述
  はコンパ゗ラプラグ゗ンで処理
 適切なプラグ゗ンが入っていないとコンパ゗
  ルに失敗
 次の情報を生成
 ゗ンポートやエクスポート時に行われる処理
  の設定情報
 ゗ンポート処理を起動するコマンドラ゗ン
 エクスポート処理を起動するコマンドラ゗ン
 ロールバック処理を起動するコマンドラ゗ン

            Asakusa DSLの内部   107
Batch DSLの解析
 ジョブフローや、ほかのスクリプトを一連の
  バッチとしてまとめ上げる
    「エンドユーザーが認識する処理の単位」を記述
    内部的には、バッチに含まれるジョブフローをそ
     れぞれコンパ゗ルしている
@Batch(name = "batch.example")
public class ExampleBatch extends BatchDescription {
  @Override
  protected void describe() {
     Work script = runScript("daily-ftp.sh").soon();
     Work jobNet1 = run(JobNet1.class).after(script);
     Work jobNet2 = run(JobNet2.class).after(script);
  }
}                          Asakusa DSLの内部               108
ワークフロー記述の生成
 ここまでに作成したMap Reduceジョブや、
  他システムとの連携方法を一連のワーク
  フローとして出力
 ほかのワークフローエンジンが一連のジョブ
  を実行するための情報を生成
 Asakusa Frameworkはワークフローエンジン
  を内蔵していない




            Asakusa DSLの内部   109
標準のワークフロー記述
 バッチに含まれる処理を順に実行する
  シェルスクリプト
 依存関係のグラフをトポロジカルソートして
  順に起動するだけ
 負荷テスト用に少し試すなどの用途向け
 実運用には向いていない
 あえて「experimental.sh」という名前




            Asakusa DSLの内部    110
ワークフローの構造
 バッチ: エンドユーザーの認識単位
  ジョブフロー: 業務トランザクション
  ゗ニシャラ゗ズ: Hadoopクラスタの初期化
  ゗ンポート: 外部システムからの取り込み
  プロローグ: 外部システムから取り込んだデータを加工
  ステージグラフ: Map Reduce処理
  エピローグ: 外部システム向けに出力データを加工
  エクスポート: 外部システムへの書き出し
  フゔ゗ナラ゗ズ: 不要なデータのクリーンナップ
  リカバリ: 業務トランザクションのロールバック/ロー
   ルフォワード
  コマンドラ゗ンの起動

           Asakusa DSLの内部   111
ワークフロー記述の種類
 コンパ゗ラプラグ゗ンで生成するワーク
  フロー記述の種類が増える
 JP1向けとかあってもいいかも
 Oozieなどを標準にしたほうがよいか
 現在の標準は例のシェルスクリプト
 job.xmlを生成するようにすればできそう




          Asakusa DSLの内部   112
バッチ全体のコード生成のまとめ
 外部システムとの連携はFlow DSLに
 ゗ンポーター記述
 エクスポーター記述
 自動的に業務トランザクション単位になる
 コンパ゗ラの最終成果物はワークフロー
  記述
 ここまでに生成したコードがワークフロー処
  理としてまとめられる


          Asakusa DSLの内部   113
第三部: コンパ゗ラのコード生成
 Flow DSLのコード生成
 Operator DSLのコード生成
 バッチ全体のコード生成
 まとめ




             Asakusa DSLの内部   114
第三部のまとめ
 Flow DSL
  実行計画を元にMap Reduceジョブを生成
  Shuffleなどの情報も自動的に生成
 Operator DSL
  Flow DSLの「語彙」を生成
  何とかしたいところ
 ワークフロー記述
  外部連携や業務トランザクションもDSLで
  コンパ゗ラは最終的にワークフロー処理を行
   うための記述を生成
                 Asakusa DSLの内部   115
ここまでの過程で、どのような最適化が考えられるか

第四部
コンパイラの最適化手法

            Asakusa DSLの内部   116
第四部: コンパ゗ラの最適化手法
 最適化手法の紹介
 Asakusa Frameworkの制限
 まとめ




              Asakusa DSLの内部   117
第四部: コンパ゗ラの最適化手法
 最適化手法の紹介
 Asakusa Frameworkの制限
 まとめ




              Asakusa DSLの内部   118
注意
 未実装なもの含めて紹介します
 調査時間が足りてないので、過不足あればご
  指摘ください




         Asakusa DSLの内部   119
最適化手法の紹介
 死流の除去
 合流の除去
 ステージの合成
 Map side Join
 出力の合成
 Shuffleの合成
 プロフゔ゗ルベースの最適化


            Asakusa DSLの内部   120
最適化のポ゗ント
 Hadoop税が高い
  ジョブごとに35秒くらい最低かかる
  いかにジョブを減らせるか
   実行計画から逆算するとShuffleを減らせばよい
 細かいフゔ゗ルの取り扱いが遅い
  Hadoopは64MB~128MBのブロックで処理
  小さいフゔ゗ルはオーバーヘッドが相対的に大き
   い
 その他、分散処理で効くもの
  転送量を減らす
  キーの偏りを減らす
               Asakusa DSLの内部   121
死流の除去
 以下は死流としてマーク
 フローの入力から辿り着けないパス
  入力が来ない限り演算子の処理は発火しない
 副作用やフローの出力に辿り着けないパス
  結果が観測されないなら存在しないのと同じ




          Asakusa DSLの内部   122
死流の除去の意図
 フロー部品の一部だけを使える
 フロー部品は部品化されたデータフロー
 一部の出力が不要な場合、等
 最終結果に影響する演算子のみが発火




         Asakusa DSLの内部   123
合流の除去
 合流はわざわざReducerでやることもない
 Mapperに個別に渡せば処理してくれる
 Shuffleに個別に渡せば処理してくれる
 Shuffleの回数を減らせる



        合流




              Asakusa DSLの内部   124
ステージの合成
 依存関係のないMap Reduce処理は一つの
  ジョブで実行できる
 DAG上で先行しない、かつ後続しない
 DAGの直径までステージ数を減らせる


   Map   Reduce
                              Map   Reduce

   Map   Reduce


             Asakusa DSLの内部                  125
ステージ合成のポ゗ント
 複数の処理を同時にShuffleすることで、
  キーの偏りを軽減
 個々のキー種が少なくても、同時に処理すれ
  ばその分だけキー種が増える
 一番遅いジョブに引きずられるので、危
  険な最適化
 ダ゗ナミックスケジューリングしたほうが普
  通は速くなる
 とある理由により現在はデフォルトでONに
  なっている
          Asakusa DSLの内部   126
Map side Join
 結合対象のデータが十分に小さければ、
  Reducerでやらなくてもよい
 Mapperに小さいほうのデータを先に配布
 「サ゗ドデータ」として演算子そのものに埋
  め込まれているようなセマンテゖクスに
  大きいほうのデータだけの入力になり、Map
  系演算子として取り扱える
 Shuffleの回数を減らすため、Hadoop的に
  はものすごく効く

            Asakusa DSLの内部   127
出力の合成
 複数の出力を一つにまとめる
 セマンテゖクスの中で何をしてもよい
 フゔ゗ル数が減り、フゔ゗ルの粒度が大きく
  なるため、Hadoop的に効く
 ゕプローチ
 次段の入力が一致する出力を併合
 ステージを合成
 ステージ境界の位置を調整
 分岐演算子の位置を組み替え

           Asakusa DSLの内部   128
Shuffleの合成
 並行するReducerが似た条件のShuffleを
  行っていたら、1回分にまとめる
 Shuffleの転送量が1回分になる
 現在の内部表現だと少し遠い
 Shuffleフェーズを個別の内部表現として扱う
  必要がある
 データフローのゕセンブリ言語を作りたい




            Asakusa DSLの内部    129
プロフゔ゗ルベースの最適化
 サンプルデータを流して実行プロフゔ゗
  ル情報を作成
 プロフゔ゗ル情報を元に実行計画を修正
 …ということをやりたいな、というレベル




        Asakusa DSLの内部   130
第四部: コンパ゗ラの最適化手法
 最適化手法の紹介
 Asakusa Frameworkの制限
 まとめ




              Asakusa DSLの内部   131
Asakusa Frameworkの制限
 命令型のプログラムを含む
 静的スケジューリング
 外部システムとの疎結合性
 ワークフローエンジンとの疎結合性




          Asakusa DSLの内部   132
命令型のプログラム
 Operator DSLはJavaのメソッドを書ける
 ほとんど自由に命令型で記述可能
 解析が難しいため、広域最適化に制限
 かなりここはどうするか迷った
 最終的には、「開発容易性」を優先
 宣言的な部分はほぼFlow DSLのみ




            Asakusa DSLの内部     133
静的スケジューリング
 コンパ゗ル時に実行計画を確定させてしまう
  クラスタの状況に応じた動的な最適化が困難
  理想的には実行直前に1段分の実行計画を立てる
  例:データサ゗ズを動的に観測して結合ゕルゴリズムを
   選択
 障害追跡を考慮した選択
  速度を犠牲にしても、障害を追跡しやすい方向に
  動的実行計画を実現しつつ障害追跡をやれるかも
  DSLでかぶせてあるので、同じコードでそのまま速くな
   る可能性も


           Asakusa DSLの内部   134
外部システムとの疎結合性
 外部システムと疎結合なため、細かい制
  御が困難
 痛いのはsemi-joinを利用するのが厳しいこと
 これはHadoopクラスタと外部システムが
  完全に隔離されているという前提
 Hadoopは直接外部システムに問い合わせを行
  えず、ワークフローエンジンが制御する
 密結合を前提にした機構も作りたいところ
  HBaseなどをクラスタ内に配置する、など


           Asakusa DSLの内部   135
ワークフローエンジンとの疎結合性
 ワークフローエンジンと連携しにくいた
  め、クラスタ全体のリソース情報を利用
  した最適化を行いにくい
 OS不在でバッチ処理を行うのと似た辛さ
 Hadoop内部のリソース管理機構と連携し
  たワークフローエンジンがない
 外部システムとの連携まで視野に入れると、
  現状は妥当ではある
 Hadoop内部のキューをAsakusa Frameworkで
  提供することも視野に入れたい

             Asakusa DSLの内部     136
第四部: コンパ゗ラの最適化手法
 最適化手法の紹介
 Asakusa Frameworkの制限
 まとめ




              Asakusa DSLの内部   137
第四部のまとめ
 各種最適化
 現在はジョブ数を減らす方向を中心に作業中
 将来的には転送量等までちゃんとやりたい
 Asakusa Frameworkの制限
 開発容易性のために最適化を制限
 DSLのセマンテゖクスを崩さずに、将来はも
  う少し無茶なものを入れたい




              Asakusa DSLの内部   138
ここまで来るのか微妙…

全体のまとめ


              Asakusa DSLの内部   139
まとめ
 Asakusa DSLの設計思想について紹介
  エンタープラ゗ズ分野のバッチ処理をHadoopで
 Asakusa DSLとMap Reduceとの関係について
  紹介
  Map Reduceはそもそもどんなことが可能か
  それに対してDSLはどんなことが可能か
  DSLがどうやってHadoopのプログラムになるか
 最適化や今後の展望についても紹介
  まだまだやれることはたくさん

             Asakusa DSLの内部    140
OSS化について
 コード整理中
  実行計画周りは数か月以内に刷新予定
  データフローゕセンブリ言語の導入
  マルチホスト言語対応
 ドキュメント整備中
  今日のスラ゗ドが一番詳しいところもあるレベル
  一部プロトタ゗プとして先行実装している感じ
 3月中に出す
  予定で線を引いてます
  詳しくは主催者まで
           Asakusa DSLの内部   141
おわり
 第一部: Asakusa DSLの設計思想
 どんな言語か、何を考えて作ったのか
 第二部: Asakusa DSLのセマンテゖクス
 Hadoopとどのように関連するか
 第三部: コンパ゗ラのコード生成
 どのようなコードを生成しているか
 第四部: コンパ゗ラの最適化手法
 どのような最適化があるか


            Asakusa DSLの内部   142

Weitere ähnliche Inhalte

Was ist angesagt?

Hadoopのシステム設計・運用のポイント
Hadoopのシステム設計・運用のポイントHadoopのシステム設計・運用のポイント
Hadoopのシステム設計・運用のポイントCloudera Japan
 
Blueprintsについて
BlueprintsについてBlueprintsについて
BlueprintsについてTetsuro Nagae
 
簡単!AWRをEXCELピボットグラフで分析しよう♪
簡単!AWRをEXCELピボットグラフで分析しよう♪簡単!AWRをEXCELピボットグラフで分析しよう♪
簡単!AWRをEXCELピボットグラフで分析しよう♪Yohei Azekatsu
 
Spark graph framesとopencypherによる分散グラフ処理の最新動向
Spark graph framesとopencypherによる分散グラフ処理の最新動向Spark graph framesとopencypherによる分散グラフ処理の最新動向
Spark graph framesとopencypherによる分散グラフ処理の最新動向Nagato Kasaki
 
Apache Spark チュートリアル
Apache Spark チュートリアルApache Spark チュートリアル
Apache Spark チュートリアルK Yamaguchi
 
Introduction to Modern Analytical DB
Introduction to Modern Analytical DBIntroduction to Modern Analytical DB
Introduction to Modern Analytical DBTakeshi Yamamuro
 
Pythonで入門するApache Spark at PyCon2016
Pythonで入門するApache Spark at PyCon2016Pythonで入門するApache Spark at PyCon2016
Pythonで入門するApache Spark at PyCon2016Tatsuya Atsumi
 
40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料)
40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料) 40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料)
40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料) hamaken
 
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみたGMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみたTetsuo Yamabe
 
HadoopとRDBMSをシームレスに連携させるSmart SQL Processing (Hadoop Conference Japan 2014)
HadoopとRDBMSをシームレスに連携させるSmart SQL Processing (Hadoop Conference Japan 2014)HadoopとRDBMSをシームレスに連携させるSmart SQL Processing (Hadoop Conference Japan 2014)
HadoopとRDBMSをシームレスに連携させるSmart SQL Processing (Hadoop Conference Japan 2014)Hadoop / Spark Conference Japan
 

Was ist angesagt? (13)

Hadoopのシステム設計・運用のポイント
Hadoopのシステム設計・運用のポイントHadoopのシステム設計・運用のポイント
Hadoopのシステム設計・運用のポイント
 
Blueprintsについて
BlueprintsについてBlueprintsについて
Blueprintsについて
 
簡単!AWRをEXCELピボットグラフで分析しよう♪
簡単!AWRをEXCELピボットグラフで分析しよう♪簡単!AWRをEXCELピボットグラフで分析しよう♪
簡単!AWRをEXCELピボットグラフで分析しよう♪
 
日々進化するHadoopの 「いま」
日々進化するHadoopの 「いま」日々進化するHadoopの 「いま」
日々進化するHadoopの 「いま」
 
Spark graph framesとopencypherによる分散グラフ処理の最新動向
Spark graph framesとopencypherによる分散グラフ処理の最新動向Spark graph framesとopencypherによる分散グラフ処理の最新動向
Spark graph framesとopencypherによる分散グラフ処理の最新動向
 
Apache Spark チュートリアル
Apache Spark チュートリアルApache Spark チュートリアル
Apache Spark チュートリアル
 
Introduction to Modern Analytical DB
Introduction to Modern Analytical DBIntroduction to Modern Analytical DB
Introduction to Modern Analytical DB
 
Pythonで入門するApache Spark at PyCon2016
Pythonで入門するApache Spark at PyCon2016Pythonで入門するApache Spark at PyCon2016
Pythonで入門するApache Spark at PyCon2016
 
40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料)
40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料) 40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料)
40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料)
 
Apache Sparkのご紹介 (後半:技術トピック)
Apache Sparkのご紹介 (後半:技術トピック)Apache Sparkのご紹介 (後半:技術トピック)
Apache Sparkのご紹介 (後半:技術トピック)
 
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみたGMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
 
HadoopとRDBMSをシームレスに連携させるSmart SQL Processing (Hadoop Conference Japan 2014)
HadoopとRDBMSをシームレスに連携させるSmart SQL Processing (Hadoop Conference Japan 2014)HadoopとRDBMSをシームレスに連携させるSmart SQL Processing (Hadoop Conference Japan 2014)
HadoopとRDBMSをシームレスに連携させるSmart SQL Processing (Hadoop Conference Japan 2014)
 
Azure Search 大全
Azure Search 大全Azure Search 大全
Azure Search 大全
 

Ähnlich wie Inside of Asakusa DSL

Asakusa Enterprise Batch Processing Framework for Hadoop
Asakusa Enterprise Batch Processing Framework for HadoopAsakusa Enterprise Batch Processing Framework for Hadoop
Asakusa Enterprise Batch Processing Framework for HadoopTakashi Kambayashi
 
BPStudy32 CouchDB 再入門
BPStudy32 CouchDB 再入門BPStudy32 CouchDB 再入門
BPStudy32 CouchDB 再入門Yohei Sasaki
 
ビッグデータ処理データベースの全体像と使い分け - 2017年 Version -
ビッグデータ処理データベースの全体像と使い分け - 2017年 Version - ビッグデータ処理データベースの全体像と使い分け - 2017年 Version -
ビッグデータ処理データベースの全体像と使い分け - 2017年 Version - Tetsutaro Watanabe
 
Apache Sparkの基本と最新バージョン3.2のアップデート(Open Source Conference 2021 Online/Fukuoka ...
Apache Sparkの基本と最新バージョン3.2のアップデート(Open Source Conference 2021 Online/Fukuoka ...Apache Sparkの基本と最新バージョン3.2のアップデート(Open Source Conference 2021 Online/Fukuoka ...
Apache Sparkの基本と最新バージョン3.2のアップデート(Open Source Conference 2021 Online/Fukuoka ...NTT DATA Technology & Innovation
 
Smart Tennis Lesson Serverless Design
Smart Tennis Lesson Serverless DesignSmart Tennis Lesson Serverless Design
Smart Tennis Lesson Serverless DesignRyuji TAKEHARA
 
Map server入門 - FOSS4G 2012 Hokkaido
Map server入門 - FOSS4G 2012 HokkaidoMap server入門 - FOSS4G 2012 Hokkaido
Map server入門 - FOSS4G 2012 HokkaidoHideo Harada
 
Javascript as an Embedded DSL - Expression Problemの解法例
Javascript as an Embedded DSL - Expression Problemの解法例Javascript as an Embedded DSL - Expression Problemの解法例
Javascript as an Embedded DSL - Expression Problemの解法例Yasuyuki Maeda
 
Googleの基盤クローン Hadoopについて
Googleの基盤クローン HadoopについてGoogleの基盤クローン Hadoopについて
Googleの基盤クローン HadoopについてKazuki Ohta
 
[D33] そのデータベース 5年後大丈夫ですか by Hiromu Goto
[D33] そのデータベース 5年後大丈夫ですか by Hiromu Goto[D33] そのデータベース 5年後大丈夫ですか by Hiromu Goto
[D33] そのデータベース 5年後大丈夫ですか by Hiromu GotoInsight Technology, Inc.
 
Object-Functional Analysis and Design : 次世代モデリングパラダイムへの道標
Object-Functional Analysis and Design : 次世代モデリングパラダイムへの道標Object-Functional Analysis and Design : 次世代モデリングパラダイムへの道標
Object-Functional Analysis and Design : 次世代モデリングパラダイムへの道標Tomoharu ASAMI
 
Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~
Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~
Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~Sotaro Kimura
 
大量のデータ処理や分析に使えるOSS Apache Sparkのご紹介(Open Source Conference 2020 Online/Kyoto ...
大量のデータ処理や分析に使えるOSS Apache Sparkのご紹介(Open Source Conference 2020 Online/Kyoto ...大量のデータ処理や分析に使えるOSS Apache Sparkのご紹介(Open Source Conference 2020 Online/Kyoto ...
大量のデータ処理や分析に使えるOSS Apache Sparkのご紹介(Open Source Conference 2020 Online/Kyoto ...NTT DATA Technology & Innovation
 
もうSQLとNoSQLを選ぶ必要はない!? ~両者を備えたスケールアウトデータベースGridDB~
もうSQLとNoSQLを選ぶ必要はない!? ~両者を備えたスケールアウトデータベースGridDB~もうSQLとNoSQLを選ぶ必要はない!? ~両者を備えたスケールアウトデータベースGridDB~
もうSQLとNoSQLを選ぶ必要はない!? ~両者を備えたスケールアウトデータベースGridDB~griddb
 
データベースシステム論12 - 問い合わせ処理と最適化
データベースシステム論12 - 問い合わせ処理と最適化データベースシステム論12 - 問い合わせ処理と最適化
データベースシステム論12 - 問い合わせ処理と最適化Shohei Yokoyama
 
[db tech showcase Tokyo 2017] E35: 12台でやってみた!DWHソフトウェアアプライアンス Db2 Warehouse ~...
[db tech showcase Tokyo 2017] E35: 12台でやってみた!DWHソフトウェアアプライアンス Db2 Warehouse ~...[db tech showcase Tokyo 2017] E35: 12台でやってみた!DWHソフトウェアアプライアンス Db2 Warehouse ~...
[db tech showcase Tokyo 2017] E35: 12台でやってみた!DWHソフトウェアアプライアンス Db2 Warehouse ~...Insight Technology, Inc.
 
2014 03-15 業務アプリinsider ソフトウェア方面の先進テクノロジー
2014 03-15 業務アプリinsider ソフトウェア方面の先進テクノロジー2014 03-15 業務アプリinsider ソフトウェア方面の先進テクノロジー
2014 03-15 業務アプリinsider ソフトウェア方面の先進テクノロジーHub DotnetDeveloper
 
Aerospike xdr (Cross Datacenter Replication)
Aerospike xdr (Cross Datacenter Replication)Aerospike xdr (Cross Datacenter Replication)
Aerospike xdr (Cross Datacenter Replication)Makoto Uehara
 
Oracle Database Standard EditionでセミオンラインDDL
Oracle Database Standard EditionでセミオンラインDDLOracle Database Standard EditionでセミオンラインDDL
Oracle Database Standard EditionでセミオンラインDDLKentaro Kitagawa
 
OSC2011 Tokyo/Spring Hadoop入門
OSC2011 Tokyo/Spring Hadoop入門OSC2011 Tokyo/Spring Hadoop入門
OSC2011 Tokyo/Spring Hadoop入門Shinichi YAMASHITA
 

Ähnlich wie Inside of Asakusa DSL (20)

Asakusa Enterprise Batch Processing Framework for Hadoop
Asakusa Enterprise Batch Processing Framework for HadoopAsakusa Enterprise Batch Processing Framework for Hadoop
Asakusa Enterprise Batch Processing Framework for Hadoop
 
BPStudy32 CouchDB 再入門
BPStudy32 CouchDB 再入門BPStudy32 CouchDB 再入門
BPStudy32 CouchDB 再入門
 
ビッグデータ処理データベースの全体像と使い分け - 2017年 Version -
ビッグデータ処理データベースの全体像と使い分け - 2017年 Version - ビッグデータ処理データベースの全体像と使い分け - 2017年 Version -
ビッグデータ処理データベースの全体像と使い分け - 2017年 Version -
 
Apache Sparkの基本と最新バージョン3.2のアップデート(Open Source Conference 2021 Online/Fukuoka ...
Apache Sparkの基本と最新バージョン3.2のアップデート(Open Source Conference 2021 Online/Fukuoka ...Apache Sparkの基本と最新バージョン3.2のアップデート(Open Source Conference 2021 Online/Fukuoka ...
Apache Sparkの基本と最新バージョン3.2のアップデート(Open Source Conference 2021 Online/Fukuoka ...
 
Smart Tennis Lesson Serverless Design
Smart Tennis Lesson Serverless DesignSmart Tennis Lesson Serverless Design
Smart Tennis Lesson Serverless Design
 
PostgreSQL 12の話
PostgreSQL 12の話PostgreSQL 12の話
PostgreSQL 12の話
 
Map server入門 - FOSS4G 2012 Hokkaido
Map server入門 - FOSS4G 2012 HokkaidoMap server入門 - FOSS4G 2012 Hokkaido
Map server入門 - FOSS4G 2012 Hokkaido
 
Javascript as an Embedded DSL - Expression Problemの解法例
Javascript as an Embedded DSL - Expression Problemの解法例Javascript as an Embedded DSL - Expression Problemの解法例
Javascript as an Embedded DSL - Expression Problemの解法例
 
Googleの基盤クローン Hadoopについて
Googleの基盤クローン HadoopについてGoogleの基盤クローン Hadoopについて
Googleの基盤クローン Hadoopについて
 
[D33] そのデータベース 5年後大丈夫ですか by Hiromu Goto
[D33] そのデータベース 5年後大丈夫ですか by Hiromu Goto[D33] そのデータベース 5年後大丈夫ですか by Hiromu Goto
[D33] そのデータベース 5年後大丈夫ですか by Hiromu Goto
 
Object-Functional Analysis and Design : 次世代モデリングパラダイムへの道標
Object-Functional Analysis and Design : 次世代モデリングパラダイムへの道標Object-Functional Analysis and Design : 次世代モデリングパラダイムへの道標
Object-Functional Analysis and Design : 次世代モデリングパラダイムへの道標
 
Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~
Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~
Hadoop基盤上のETL構築実践例 ~多様なデータをどう扱う?~
 
大量のデータ処理や分析に使えるOSS Apache Sparkのご紹介(Open Source Conference 2020 Online/Kyoto ...
大量のデータ処理や分析に使えるOSS Apache Sparkのご紹介(Open Source Conference 2020 Online/Kyoto ...大量のデータ処理や分析に使えるOSS Apache Sparkのご紹介(Open Source Conference 2020 Online/Kyoto ...
大量のデータ処理や分析に使えるOSS Apache Sparkのご紹介(Open Source Conference 2020 Online/Kyoto ...
 
もうSQLとNoSQLを選ぶ必要はない!? ~両者を備えたスケールアウトデータベースGridDB~
もうSQLとNoSQLを選ぶ必要はない!? ~両者を備えたスケールアウトデータベースGridDB~もうSQLとNoSQLを選ぶ必要はない!? ~両者を備えたスケールアウトデータベースGridDB~
もうSQLとNoSQLを選ぶ必要はない!? ~両者を備えたスケールアウトデータベースGridDB~
 
データベースシステム論12 - 問い合わせ処理と最適化
データベースシステム論12 - 問い合わせ処理と最適化データベースシステム論12 - 問い合わせ処理と最適化
データベースシステム論12 - 問い合わせ処理と最適化
 
[db tech showcase Tokyo 2017] E35: 12台でやってみた!DWHソフトウェアアプライアンス Db2 Warehouse ~...
[db tech showcase Tokyo 2017] E35: 12台でやってみた!DWHソフトウェアアプライアンス Db2 Warehouse ~...[db tech showcase Tokyo 2017] E35: 12台でやってみた!DWHソフトウェアアプライアンス Db2 Warehouse ~...
[db tech showcase Tokyo 2017] E35: 12台でやってみた!DWHソフトウェアアプライアンス Db2 Warehouse ~...
 
2014 03-15 業務アプリinsider ソフトウェア方面の先進テクノロジー
2014 03-15 業務アプリinsider ソフトウェア方面の先進テクノロジー2014 03-15 業務アプリinsider ソフトウェア方面の先進テクノロジー
2014 03-15 業務アプリinsider ソフトウェア方面の先進テクノロジー
 
Aerospike xdr (Cross Datacenter Replication)
Aerospike xdr (Cross Datacenter Replication)Aerospike xdr (Cross Datacenter Replication)
Aerospike xdr (Cross Datacenter Replication)
 
Oracle Database Standard EditionでセミオンラインDDL
Oracle Database Standard EditionでセミオンラインDDLOracle Database Standard EditionでセミオンラインDDL
Oracle Database Standard EditionでセミオンラインDDL
 
OSC2011 Tokyo/Spring Hadoop入門
OSC2011 Tokyo/Spring Hadoop入門OSC2011 Tokyo/Spring Hadoop入門
OSC2011 Tokyo/Spring Hadoop入門
 

Inside of Asakusa DSL

  • 1. Asakusa DSLの内部 2011/02/25 あらかわ (@ashigeru)
  • 2. 講演者について  荒川 傑 (@ashigeru) Ashigel Compilerの中の人 Asakusa DSLのデザ゗ンも担当 株式会社グルージェント開発部所属 2010年9月より出向中 普段の仕事 研究: コンパ゗ラ、開発環境 調査: Google App Engineなど 教育: 授業設計、教材開発 Asakusa DSLの内部 2
  • 3. 本日のテーマ  第一部: Asakusa DSLの設計思想 どんな言語か、何を考えて作ったのか  第二部: Asakusa DSLのセマンテゖクス Hadoopとどのように関連するか  第三部: コンパ゗ラのコード生成 どのようなコードを生成しているか  第四部: コンパ゗ラの最適化手法 どのような最適化があるか Asakusa DSLの内部 3
  • 4. 本日の内容  触れること  DSLの位置づけ  DSLの設計思想  言語設計における判断  DSLのセマンテゖクス  実行計画作成の仕組み  コード生成の仕組み  最適化手法  触れないこと  Asakusa Frameworkの使い方  Asakusa DSLの書き方 Asakusa DSLの内部 4
  • 5. 言語設計者としての主張  プログラミング言語は作るべきでない 品質がどうしても落ちる 新しい概念の習得は大変 言語そのものよりも周辺環境が重要  それでもAsakusa DSLなんてものを作った その価値はあったのか、という観点で Asakusa DSLの内部 5
  • 7. 第一部: Asakusa DSLの設計思想  Asakusa "Framework"の概要  Hadoopを利用する障壁  Asakusa DSL  まとめ Asakusa DSLの内部 7
  • 8. 第一部: Asakusa DSLの設計思想  Asakusa "Framework"の概要  Hadoopを利用する障壁  Asakusa DSL  まとめ Asakusa DSLの内部 8
  • 9. Asakusa "Framework"の概要  エンタープラ゗ズ系のバッチ処理に Hadoopを利用するためのフレームワーク 外部システムとの連携 業務トランザクションの実現 複雑なMap Reduceジョブネットの管理 Asakusa DSLの内部 9
  • 10. 外部システムとの連携  Map Reduceでない処理が含まれる 計算単体で終わることはまずない データを外部から取り込んだり、計算結果を ほかで利用したりすることが必須  例: フロントデータベースからの取り込み 外部基幹システムからの取り込み 印刷サーバーから帳票の出力 Asakusa DSLの内部 10
  • 11. 業務トランザクションの実現  外部システムと整合性を保ちながら処理 一つ一つの処理はオンラ゗ントランザクショ ンよりもずっと時間がかかる  Hadoopだけではジョブ単位の整合性のみ ジョブネット単位のロールバックやロール フォワードが必須 上位のワークフローエンジンとの連携が必須 Asakusa DSLの内部 11
  • 12. 複雑なMap Reduceジョブネットの管理  単体のMap Reduceジョブで処理が完結す ることはほぼない ジョブの結果を複数の別のジョブが使う 複数のジョブの結果を一つのジョブが使う  業務トランザクションとの兼ね合いも ジョブネット中のどこで失敗しても整合性が 崩れないようにする Asakusa DSLの内部 12
  • 13. Asakusa "Framework"のゕプローチ  外部システムとの連携  外部システムのデータをMap Reduceで処理できる  Map Reduceの処理結果を外部システムに送信できる  業務トランザクションの概念  DSLレベルでトランザクション境界を記述できる  ワークフローエンジンと連携してロングトランザク ションを実現  複雑なMap Reduceジョブネットの管理  複雑なデータフローをDSLで記述し、Map Reduceジョ ブ群を自動生成  ワークフローエンジンごとにジョブネット記述を自 動生成 Asakusa DSLの内部 13
  • 14. Asakusa "Framework"での開発  Asakusa DSLを中心にプログラムを生成 ワークフロー Asakusa 定義 DSL バッチ構造 Ashigel 外部連携 Compiler プログラム データフロー プロセス Map Reduce プログラム データモデル Data Model データモデル 定義情報 Generator Javaクラス Asakusa DSLの内部 14
  • 15. 第一部: Asakusa DSLの設計思想  Asakusa "Framework"の概要  Hadoopを利用する障壁  Asakusa DSL  まとめ Asakusa DSLの内部 15
  • 16. Hadoopを利用する障壁  設計技法の欠如  Map Reduceの適用範囲の理解  Hadoop特有の実装 Asakusa DSLの内部 16
  • 17. 設計技法の欠如  どのような設計情報があれば実装を始め られるのか データモデル データフロー 構造化単位  Map Reduceのプログラムにするにはどこ まで情報が必要か 取り扱うデータの転送形式、フゔ゗ル形式 データフロー内の「プロセス」の粒度 Asakusa DSLの内部 17
  • 18. Map Reduceの適用範囲の理解  どんな計算が得意か どんな計算が不得意なのか  どう書くと速いか どう書くと遅いのか  そもそもできないことは何か  設計、実装担当にどう理解してもらうか Asakusa DSLの内部 18
  • 19. Hadoop特有の実装  ある処理を実現する際に、どのようなも のを記述すればよいか JOINの処理 グループ化  どのような知識が必要か ネットワークゕルゴリズム ソートゕルゴリズム Hadoopの裏側の挙動 Asakusa DSLの内部 19
  • 20. Asakusa Frameworkのゕプローチ  設計技法の欠如  詳細設計と実装で両方使えるDSLを用意 DSLの語彙と詳細設計の語彙を一致させる DSLの形式を詳細設計の成果物に寄せる  Map Reduceの適用範囲の理解  Map Reduceの処理パターンに対応するDSLを用意 DSLで書けないことは実装できない DSLで書けることは速く動くように  Hadoop特有の実装  DSLを元にコンパ゗ラが自動生成 DSLで書けることを制限 裏側の実装を意識させない Asakusa DSLの内部 20
  • 21. 第一部: Asakusa DSLの設計思想  Asakusa "Framework"の概要  Hadoopを利用する障壁  Asakusa DSL  まとめ Asakusa DSLの内部 21
  • 22. Asakusa DSL  Operator DSL  プロセスの最小単位である「演算子」を定義  「Map Reduceができること」をテンプレート化して提供  ほとんど普通のJavaを書ける  Flow DSL  演算子をつなぎ合わせて「データフロー」を定義  作成したデータフローは演算子としてコンポーネント化  ホスト言語がまさかのJava  Batch DSL  データフローやスクリプトを組み合わせて「バッチ」を定 義  処理の依存関係をシンプルに書く  まさかのJava Asakusa DSLの内部 22
  • 23. 各種DSLの構造  層ごとに書くべきことが異なる Batch DSL Flow DSL Operator DSL UoW 1. …………… #1 1.1. ……… 1.2. ……… 2. …………… UoW UoW 2.1. ……… #2 #3 2.2. ……… 2.a. ……… 3. ………… UoW 4. ………… #4 Batch Dataflow Dataflow Part Process Asakusa DSLの内部 23
  • 24. 例: Operator DSL  Javaのメソッド+ゕノテーション public abstract class ExampleOperator { @MasterJoinUpdate public void updateWithMaster( @Key(group = "id") ItemMst master, @Key(group = "itemId") PurchaseTrn tx) { tx.setPrice(master.getPrice()); } } master <<MasterJoinUpdate>> joined updateWithMaster tx master.id = tx.itemId missed Asakusa DSLの内部 24
  • 25. 例: Flow DSL - 部品  入出力とデータフローを記述 @FlowPart public class ExampleFlowPart extends FlowDescription { In<Hoge> a; Out<Foo> b; public ExampleFlowPart(In<Hoge> a, Out<Foo> b) { this.a = a; this.b = b; Convert UpdateFoo } a upd b cnv @Override public void describe() { OperatorFactory f = new OperatorFactory(); Convert cnv = f.convert(a); UpdateFoo upd = f.updateFoo(cnv.out); b.add(upd.out); } } Asakusa DSLの内部 25
  • 26. 例: Flow DSL - 業務トランザクション  外部システムとの連携について追記 @JobFlow(name = “example”) public class ExampleJobFlow extends FlowDescription { In<Hoge> in; Out<Hoge> out; public ExampleJobFlow( @Import(name=“hoge”, description=HogeFromDb.class) In<Hoge> a, @Export(name=“hoge”, description=HogeToFile.class) Out<Hoge> b) { this.in = a; this.out = b; } a ... b ... Asakusa DSLの内部 26
  • 27. 例: Batch DSL  ジョブ間の依存関係を明記 @Batch(name = "batch.example") public class ExampleBatch extends BatchDescription { @Override protected void describe() { Work job1 = run(Job1.class).soon(); Work job2 = run(Job2.class).after(job1); Work job3 = run(Job3.class).after(job1); Work job4 = run(Job4.class).after(job2, job3); } } Job2 Job1 Job4 Job3 Asakusa DSLの内部 27
  • 28. 3層のDSL  DSLごとに扱う内容がまったく違う Operator DSL: 手続型 レコードの順序を考慮する処理を書きやすい  「普通のJava」としてテストも書ける いざとなれば力技で処理を書ける Flow DSL: フロー型 「データの流れ」をそのまま書ける Map Reduceと演算子の関係を高度に隠蔽 Batch DSL: 依存グラフ型 依存関係を書く設定フゔ゗ルのレベル Asakusa DSLの内部 28
  • 29. 補足:レコードの順序を考慮する処理  並列性が高いが、グループごとの処理が煩雑  伝票照合  単品管理  修正伝票  など  一階の関係論理では極端に書きにくい  ストゕドプロシージャ祭り  PigやHiveはUDFのような補助的な仕組みで対応  ドメ゗ンによってはこのタ゗プの計算が多い  手続き型の計算で楽に済ませる  徹底的にテストする Asakusa DSLの内部 29
  • 30. ホスト言語としてのJava  コンパ゗ラの開発工数的な話  言語設計自体はパーサから書いたほうが楽  IDEとの連携まで考えるとホスト言語に任せたほ うが楽  スキルセットとの兼ね合い  新しい言語の習得コストをとても懸念  SQLに寄せたり、Scalaで作ろうという案もあった  とはいえ、いろいろ最悪  型の計算を気合で書いた  メタプログラミングで心が折れかけた  Flow DSLが黒魔術 Asakusa DSLの内部 30
  • 31. その他、気にしたこと  構造化技法  段階的にモジュール化して、一度に把握する範囲 を減らせるように  Asakusa DSLではデータフローを入れ子にできる  テスト技法  データフローの単位でテストを実施できるように  生成するMap Reduceを意識せずに論理構造だけ でテスト  IDEとの連携  強い型付けで即座に結線ミスを検出  ポップゕップされるドキュメンテーションを読み やすいように自動生成部分を設計 Asakusa DSLの内部 31
  • 32. 第一部: Asakusa DSLの設計思想  Asakusa "Framework"の概要  Hadoopを利用する障壁  Asakusa DSL  まとめ Asakusa DSLの内部 32
  • 33. 第一部のまとめ  Asakusa Framework エンタープラ゗ズバッチをHadoopで動かす Hadoopの大変なところをDSLで和らげる  Asakusa DSL 3種類のDSL それぞれ異なる領域をカバーするDSL いざとなれば手続き型も活用 Asakusa DSLの内部 33
  • 35. 第二部: Asakusa DSLのセマンテゖクス  Hadoop Map Reduceの表現力  Operator DSLの表現力  Flow DSLの表現力  データフローの実行計画  まとめ Asakusa DSLの内部 35
  • 36. 第二部: Asakusa DSLのセマンテゖクス  Hadoop Map Reduceの表現力  Operator DSLの表現力  Flow DSLの表現力  データフローの実行計画  まとめ Asakusa DSLの内部 36
  • 37. Hadoop Map Reduceの表現力  Hadoopでどんな計算ができる?  ここでの記法  関数型を A -> B のように表記 A型のデータを引数にとりB型のデータを返す  T型のシーケンスを[T]と表記 List<T>のようなもの  直和型を A|B|... のように表記 A型かB型か...のどれか  レコード型を{a:A, b:B,...}のように表記 フゖールドを持つオブジェクトのようなもの  組型を(A, B, ...)のように表記 RDBのカラム列のようなもの Asakusa DSLの内部 37
  • 38. 補足: Javaでの直和型の表現  ゗ンスタンスフゖールドごとに要素型の データを持つだけ 該当する型以外はnullにしておく Writableは型情報を落としてシリゕラ゗ズ public class Union implements Writable { public int slot; public Hoge slot0; public Foo slot1; public Bar slot2; ... } Asakusa DSLの内部 38
  • 39. 「普通の」Map Reduce  Map: A -> [S] データごとに分解して別のデータを出力  Shuffle: [S] -> [[S]] データ全体をグループ分け (List<List<S>>)  Reduce: [S] -> [B] グループごとに分解して別のデータを出力  これだけではデータフローというよりパ ゗プラ゗ン処理程度しかできない... Asakusa DSLの内部 39
  • 40. MultipleInputs  複数の入力を一度のMap Reduceで処理 入力ごとにMapperを指定できる 入力ごとに異なる型を利用できる Shuffleの型は揃えておく必要あり  少し表現力が上がった Map1: A1 -> [S] Map2: A2 -> [S] ... Asakusa DSLの内部 40
  • 41. MultipleOutputs  複数の出力を一度のMap Reduceで行う 出力ごとに名前を付けられる 出力ごとに異なる型を指定できる  少し表現力が上がった Reduce: [S] -> { b1:[B1], b2:[B2], ...} Asakusa DSLの内部 41
  • 42. 直和型を利用したシャッフル  Map: A -> [S|T|...] 「SかTか...のどれか」型をシャッフルに渡す  Shuffle: [S|T|...] -> [[S|T|...]] データ全体をグループ分け  Reduce: [S|T|...] -> [B] 「SかTか...のどれか」型を元に何かを出力  少し表現力が上がった Shuffle時に複数の型を取り扱える (ように見せかけられる) Asakusa DSLの内部 42
  • 43. Secondary Sort  Reduce時のグループをキーの一部で決め られる グループ化条件を指定する job.setGroupingComparator()  残りのキーでグループ内をソートできる ソート条件を指定する job.setSortComparator()  直和型と組み合わせると... Asakusa DSLの内部 43
  • 44. Secondary Sort付きのShuffle  簡略化すると以下の通り キー全体 (ソート済み) グループ化項目 入力位置 ソート項目 実データ ID:0001 1 - A1 ID:0001 2 2001/12/1 B1 各 ID:0001 2 2001/12/2 B2 グ ル ID:0001 2 2001/12/3 B3 ー ID:0002 1 - A2 プ 2001/12/4 グループ毎に ID:0002 2 グループ内で B4 2001/12/5 入力位置内で ID:0003 2 入力位置順に B5 グループ化 並ぶ 並ぶ 条件 Asakusa DSLの内部 44
  • 45. Secondary Sortを利用したシャッフル  Reducerが入力を複数とっているかのよう に見せかける 実際は直和型の要素ごとに並んでいるだけ 入力の区切りごとに切り分ける  これでまた表現力が上がった Shuffle: [S|T|...] -> [([S], [T], ...)] Reduce: ([S], [T], ...) -> ... Asakusa DSLの内部 45
  • 46. Hadoop Map Reduceの表現力  できることのまとめ 複数の入力を取れる (MultipleInputs) 入力ごとに好きな型のデータを好きなだけ Reducerに (Map, 直和型) 複数のデータを自由にグループ化して処理で きる (Reduce, Secondary Sort) 複数の出力を行える (MultipleOutputs)  およそデータフローの計算で必要なこと は一通りできる Asakusa DSLの内部 46
  • 47. Hadoop Map Reduceのモデル化  型の確認 Map1: A1 -> [(S|T|...)] Map2: A2 -> [(S|T|...)] ... Shuffle: [(S|T|...)] -> [([S], [T], ...)] Reduce: ([S], [T], ...) -> {b1:[B1], b2:[B2], ...}  Asakusa DSLではこのモデルを基本にデー タフローを構築 上記とできるだけ同じセマンテゖクスに Asakusa DSLの内部 47
  • 48. 第二部: Asakusa DSLのセマンテゖクス  Hadoop Map Reduceの表現力  Operator DSLの表現力  Flow DSLの表現力  データフローの実行計画  まとめ Asakusa DSLの内部 48
  • 49. Operator DSLの表現力  Operator DSLはデータフロー内の「プロセ ス」を記述するDSL  Asakusa DSLでは「演算子」と呼んでいる  Flow DSLで組み合わせてデータフローを構築  演算子はフゔ゗ルを取ってフゔ゗ルを生成  演算子の「種類」で処理方法が変わる 入力1 出力1 演算子 入力2 出力2 Asakusa DSLの内部 49
  • 50. 演算子の種類  単一のレコードを入力にとる (Map系) レコードごとにどの順序で処理してもよい 複数のレコードにまたがる処理はできない Mapperと同じセマンテゖクスを持つ演算子 Map: A -> ...  複数のレコードを入力にとる (Reduce系) グループごとにどの順序で処理してもよい 複数のグループにまたがる処理はできない グループ化方法は自分で決められる Reducerと同じセマンテゖクスを持つ演算子 Reduce: ([S], [T], ...) -> ... Asakusa DSLの内部 50
  • 51. 例: 単一のレコードを入力にとる演算子  更新(Update): A -> A 入力されたレコードを変更して出力  変換(Convert): A -> B 入力されたレコードを別の型に変換して出力  分岐(Branch): A -> {u:A, v:A, ...} 入力されたレコードを条件に応じて振り分け て出力  複製(Duplicate): A -> {u:A, v:A, ...} 入力されたレコードを複製してそれぞれ出力 Asakusa DSLの内部 51
  • 52. 例: 複数のレコードを入力にとる演算子  結合(MasterJoin): (A, B) -> {joined:C, missed:B}  A, Bを結合してCを出力、結合に失敗したBも別途 出力  集計(Summarize): [A] -> B  レコード列を集計して出力  合流(Confluent): ([A], [A], ...) -> [A]  複数の入力をまとめてひとつに  CoGroup: ([A1], [A2], ...) -> {b1:[B1], b2:[B2], ...}  気合でJavaのプログラム書く Asakusa DSLの内部 52
  • 53. 補足: CoGroup  Reducerと同じセマンテゖクス ([A1], [A2], ...) -> {b1:[B1], b2:[B2], ...}  複数のListを受け取り、なんでも返せる 気合で命令型のプログラムを書く Asakusa DSLの内部 53
  • 54. Operator DSLのセマンテゖクス  演算子の種類を選んで命令型で記述 演算子を組み合わせる限りは必ずMap Reduce に落とせるように言語を設計 演算子の種類はMap系かReduce系 プログラムはJavaのメソッドとして書く 実際には書けることに制限があるが、後述  システム詳細設計フェーズを強く意識 「適切な演算子を選ぶ」ことで設計が進む 「適切な演算子を提供する」ことで設計をコ ントロール Asakusa DSLの内部 54
  • 55. 第二部: Asakusa DSLのセマンテゖクス  Hadoop Map Reduceの表現力  Operator DSLの表現力  Flow DSLの表現力  データフローの実行計画  まとめ Asakusa DSLの内部 55
  • 56. Flow DSLの表現力  Flow DSLはデータフローそのものを記述 Operator DSLで記述した「演算子」を組み合 わせる  Flow DSLからすると演算子は「語彙」 DFDでいう「プロセス」に該当 複数の入力がある 複数の出力がある 入出力を繋ぎ合わせてデータフローを表現 Asakusa DSLの内部 56
  • 57. Flow DSLと構造化  データフローと演算子は構造が似ている  複数の入力がある  複数の出力がある  データフローも演算子として部品化可能  Asakusa DSLでは「フロー部品」と呼んでいる  回路図を゗メージすると良いかも Asakusa DSLの内部 57
  • 58. Flow DSLと外部連携  入出力を外部システムに接続できる データフローの処理開始前に外部システムか ら取り込み データフローの処理完了後に外部システムに 書き出し  このようなデータフローはトランザク ション単位としてマーク Asakusa DSLでは「ジョブフロー」と呼ぶ 途中で失敗してもロールバックできるように 連携部分を作りこむ Asakusa DSLの内部 58
  • 59. 第二部: Asakusa DSLのセマンテゖクス  Hadoop Map Reduceの表現力  Operator DSLの表現力  Flow DSLの表現力  データフローの実行計画  まとめ Asakusa DSLの内部 59
  • 60. データフローの実行計画  Flow DSLとOperator DSLの内容から演算子 グラフを構成 論理的な処理の流れを表現したもの Map Reduceの単位はこの時点では意識しない  これをMap Reduceの単位に分割 大したものでもないが「実行計画」と呼ぶ DSLを明確に分離したのは、これをやりやす くするため Flow DSL: フロー型 Operator DSL: 命令型 Asakusa DSLの内部 60
  • 61. 実行計画の方針  Map Reduceの区切りを考える MapとReduceの間にShuffleが必要 ReduceとMapの間をステージ境界と呼ぶ  これらからMapとReduceを逆算できる Map Reduce Map Reduce Map Reduce Asakusa DSLの内部 61
  • 62. 実行計画作成の流れ  大雑把に言えば次の流れ  構造の検証  フロー部品の展開  グラフの最適化 (第3部で紹介)  Shuffleの抽出  ステージ境界の抽出  恒等演算子の挿入  Reducerの抽出  Mapperの抽出  Map Reduceグラフの構築  入出力の特定 Asakusa DSLの内部 62
  • 63. グラフ構造の検証  グラフに循環がないこと Directed Acyclic Graph (DAG) を前提にすべて の処理を行う  未結線の演算子がないこと 見つかりにくい問題なので、安全側に Asakusa DSLの内部 63
  • 64. フロー部品の展開  構造化のために導入したフロー部品を展開  階層構造を持たない巨大な演算子グラフをつくる  巨大な演算子グラフで広域最適化を適用  実際にはフロー部品の「ワク」を外すだけ Asakusa DSLの内部 64
  • 65. Shuffleの抽出  MapとReduceの間に来る「Shuffleが必要 な処理」を探す つまり、「Reduce系演算子」を探す この手前で確実にShuffleが必要 Asakusa DSLの内部 65
  • 66. ステージ境界の抽出  Map Reduceごとの区切りである「ステージ 境界」を導入  フローの入力と出力は自明なステージ境界  ShuffleとShuffleの間になければ勝手に挿入  Flow DSLで明示的に挿入することも可能 Asakusa DSLの内部 66
  • 67. 恒等演算子の挿入  ステージ境界の直後にShuffleが来る場合に、 恒等演算子を挿入  「入力をそのまま出力する」演算子  これを入れないと、Mapperがないジョブが出来 上がってしまう Asakusa DSLの内部 67
  • 69. Mapperの抽出 (1)  Shuffleから逆方向のステージ境界までが Mapper  MultipleInputsで同一ジョブに入れる Asakusa DSLの内部 69
  • 70. Mapperの抽出 (2)  ステージ境界から直接ステージ境界にた どり着くものもMapper Reducerがないジョブが出来上がる Asakusa DSLの内部 70
  • 71. Map Reduceグラフの構築  ステージ境界からステージ境界までを抽出  Reducerとそれに先行するすべてのMapper  Reducerが後続しないMapper  元の構造と合わせてMap Reduce単位のグラ フを構築 Asakusa DSLの内部 71
  • 72. 入出力の特定  データフローの入力に直結するジョブは、 その入力をそのまま使う  ほかのジョブの出力に直結するジョブは、 その出力を入力に使う Asakusa DSLの内部 72
  • 73. 実行計画  データフローをMap Reduce単位に割当て Map Reduceそのものではなく、Shuffleやス テージなどの境界を基準に考える 境界に含まれるものがMapperやReducerに  最適化の余地がかなりある Shuffleの削減 ステージ境界を適切に挿入 MapperやReducerの合成 Asakusa DSLの内部 73
  • 74. Discussion: 分断された処理  演算子の出力の一部を利用する場合も 内部的には演算子を多重化させて対応 演算子が関数的性質を持てばセマンテゖクス は崩れない 演算子は出力が入力によってのみ決まること これはOperator DSLの制約 (緩和可能) B A B A C A C Asakusa DSLの内部 74
  • 75. 第二部: Asakusa DSLのセマンテゖクス  Hadoop Map Reduceの表現力  Operator DSLの表現力  Flow DSLの表現力  データフローの実行計画  まとめ Asakusa DSLの内部 75
  • 76. 第二部のまとめ  Operator DSLはHadoopのMapやReduce処理 と同じ表現力をもつように  単一のレコードをとる: Map系  複数のレコードをとる: Reduce系  Flow DSLは演算子を組み合わせてデータフ ローを構築  データフロー自体も演算子として使える  業務トランザクション境界もここで記述できる  データフローは実行計画でMap Reduce単位 に分割  境界を中心に考えてMapperとReducerを計算  紹介したゕルゴリズムをほぼそのまま利用 Asakusa DSLの内部 76
  • 78. 第三部: コンパ゗ラのコード生成  Flow DSLのコード生成  Operator DSLのコード生成  バッチ全体のコード生成  まとめ Asakusa DSLの内部 78
  • 79. 第三部: コンパ゗ラのコード生成  Flow DSLのコード生成  Operator DSLのコード生成  バッチ全体のコード生成  まとめ Asakusa DSLの内部 79
  • 80. Flow DSLのコード生成  Map Reduce単位に区切ったので、それ用 にプログラムを生成 Shuffle Key Shuffle Value Secondary Sort関連 Mapper Reducer Client Asakusa DSLの内部 80
  • 81. 補足: Shuffleの構造  簡略化すると以下の通り キー全体 (ソート済み) グループ化項目 入力位置 ソート項目 実データ ID:0001 1 - A1 ID:0001 2 2001/12/1 B1 各 ID:0001 2 2001/12/2 B2 グ ル ID:0001 2 2001/12/3 B3 ー ID:0002 1 - A2 プ 2001/12/4 グループ毎に ID:0002 2 グループ内で B4 2001/12/5 入力位置内で ID:0003 2 入力位置順に B5 グループ化 並ぶ 並ぶ 条件 Asakusa DSLの内部 81
  • 82. Shuffle Keyの生成  Asakusa DSLでは「キー」をほとんど意識 しない コード生成時に適切なキーを生成  後続するReduce系演算子の入力を元にク ラスを生成 グループ化条件 入力位置 ソート順序 Asakusa DSLの内部 82
  • 83. Shuffle Valueの生成  シャッフル時に転送される値のクラスを 生成 直和型をJavaで表現 public class Union implements Writable { public int slot; public Hoge slot0; public Foo slot1; public Bar slot2; ... } Asakusa DSLの内部 83
  • 84. Secondary Sort関連の生成  Shuffle KeyをもとにSecondary Sort用のク ラスを生成 グループ化のためのComparator グループ化にかかわるキーのみを比較 ソートのためのComparator Shuffle Keyのすべてを比較 Partitioner グループ化にかかわるキーのみからハッシュ値を 算出 Asakusa DSLの内部 84
  • 85. Mapperの生成  演算子を組み合わせてMapper処理を実現 Operator DSLで書いたJavaのメソッドを起動 するコードを生成  さらに出力前にShuffle Keyを生成して、 Shuffleフェーズに送る 必要な項目をデータから抽出して、キー項目 を計算する Asakusa DSLの内部 85
  • 86. Fragment Graph  内部的には、Mapper部分の演算子グラフか ら「Fragment」というものを生成  Operator DSLのメソッド呼び出しを組み合わせて 処理を実現  (コンパ゗ラでいうBasic Blockと同じ概念で分割)  Fragmentを組み合わせて小さなデータフ ローを構築  出現する演算子はMap系のみ  このデータフローにデータを一つ渡すと、 Mapper.map()の1回分の処理を行う  Mapperではこれにデータを流すだけ Asakusa DSLの内部 86
  • 87. 補足: Fragment Graphの実装  次々とJavaのメソッドを起動するだけ Call Treeのようになる 最後に「出力」のメソッドを起動 Asakusa DSLの内部 87
  • 88. Reducerの生成  Shuffleフェーズで作成されたグループの 入力ごとにリストを作成して、Reduce系 演算子を処理 実際にはOperator DSLの該当するメソッドに 処理を移譲する 逐次処理が可能であればリストを作成しない で処理することも 後続に別の演算子があれば、出力の前に Fragment Graphでさらにデータを加工 Asakusa DSLの内部 88
  • 89. 補足: Reducerの入力  入力位置ごとにリストを作成 入力が空の場合には空のリストを作成 グループ化項目ごとに演算子を実行 グループ化項目 入力位置 ソート項目 実データ ID:0001 1 - A1 ID:0001 2 2001/12/1 B1 ID:0001 2 2001/12/2 B2 ID:0001 2 2001/12/3 B3 ID:0002 1 - A2 ID:0002 2 2001/12/4 B4 ID:0003 2 2001/12/5 B5 ID:0003 2 2001/12/6 B6 Asakusa DSLの内部 89
  • 90. Clientの生成  Map Reduceジョブをキックするクラ゗ゕ ントプログラムを作成 ここまでに作成したMapper, Reducer, Shuffle 情報を渡す job.xmlを作るという手もあるが未実装 Asakusa DSLの内部 90
  • 91. Flow DSLのコード生成のまとめ  ここまでくれば力技の世界 実行計画を元にセマンテゖクスを崩さなけれ ばいい 半月くらい地味なメタプログラミング  Map Reduceを生で書きたくなくなる Secondary Sortで数回心が折れかけた ちゃんとシリゕラ゗ザから設計すべき Asakusa DSLの内部 91
  • 92. 第三部: コンパ゗ラのコード生成  Flow DSLのコード生成  Operator DSLのコード生成  バッチ全体のコード生成  まとめ Asakusa DSLの内部 92
  • 93. Operator DSLのコード生成  Operator DSLとFlow DSLに大きなギャップ Operator DSLではJavaのメソッドを定義 Flow DSLでは演算子を組み合わせてデータフ ローを定義  Javaらしくないことを実現するために、 メタプログラミング Javaのメソッドから演算子の構造を定義 演算子の構造をFlow DSLで使える「語彙」に する Asakusa DSLの内部 93
  • 94. JSR-269: 注釈プロセッサ  Operator DSLで記述したJavaのメソッドを Javaコンパ゗ル時に自動的に解析 Javaコンパ゗ラのプラグ゗ンとして提供 コンパ゗ルのたびにコードを自動生成 スパ゗ラルに生成コードもコンパ゗ル  IDEと相性が良い オートビルド時に自動生成が走る Operator DSLのエラーをIDE上に表示 Asakusa DSLの内部 94
  • 95. 演算子フゔクトリ  Flow DSLで演算子を表すオブジェクトを生成する フゔクトリ  Operator DSLから自動生成される  フローへの入力や、ほかの演算子の出力を引数にと るメソッドを提供 UpdateOp in In<Hoge> in; up … @Override public void describe() { OperatorFactory factory = new OperatorFactory(); // 入力inをUpdate演算子upの入力へ UpdateOp up = factory.updateOp(in); ... Asakusa DSLの内部 95
  • 96. 演算子クラス  Flow DSLで取り扱う「演算子」のデータ構造  Operator DSLから自動生成される  演算子の出力をフゖールドとして宣言 In<Hoge> in; UpdateOp Out<Hoge> out; up out out … @Override public void describe() { OperatorFactory factory = new OperatorFactory(); UpdateOp up = factory.updateOp(in); // Update演算子upの結果を出力outに追加 out.add(up.out); } Asakusa DSLの内部 96
  • 97. 演算子の「語彙」に関する設計意図  データフロー中の「プロセス」をモデル 化 プロセスの入力を引数にとって、モデルオブ ジェクトを生成 モデルオブジェクトはプロセスの出力を提供  DFDがないと書く気になれない DFDとの対応付けはとてもやりやすい (はず) Asakusa DSLの内部 97
  • 98. 余談: Java  ホスト言語にJavaを選んで微妙に後悔 とはいえ、消去法でこうなった LLに型システム入れるとかでもよかったかも Some c = namespace.some(a.hoge, b.foo); ... namespace.other(c.bar, c.fuga); <<...>> hoge bar a <<Some>> <<...>> c b foo fuga Asakusa DSLの内部 98
  • 99. 演算子クラスの位置づけ  演算子グラフを構築するためのラッパー  最終成果物で一切利用しない  実行計画を立てるためのデータを入力する「ユー テゖリテゖ」  IDEにうまくヒントを与えるためだけに存在する Operator DSL Flow DSL 実行計画 演算子 演算子クラス Javaメソッド フロー記述 演算子グラフ 演算子 演算子クラス Javaメソッド Asakusa DSLの内部 99
  • 100. Operator DSLのコード生成のまとめ  Operator DSLのコードを元に:  演算子クラスを生成  演算子フゔクトリーを生成  Flow DSLではこれらを「語彙」としてプログ ラムを記述  演算子を結線してデータフローを記述  裏側では演算子グラフを構築している  最終成果物にならない  将来的になくなる予感はしている  「絵から自動生成しないんですかね?」と100万 回言われた Asakusa DSLの内部 100
  • 101. 第三部: コンパ゗ラのコード生成  Flow DSLのコード生成  Operator DSLのコード生成  バッチ全体のコード生成  まとめ Asakusa DSLの内部 101
  • 103. 他システムとの連携  Flow DSLでは他システムと連携するため の情報を記載できる ゗ンポーター記述 他システムから何をどのように゗ンポートするか をDSLで記述 ジョブフローの入力に設定すると、他システムか らデータを取り込んでジョブの入力にする エクスポーター記述 他システムへ何をどのようにエクスポートするか をDSLで記述 ジョブフローの出力に設定すると、その出力結果 が外部システムに送られる Asakusa DSLの内部 103
  • 104. 例: ゗ンポーター記述  データの゗ンポート方法をJavaで記述 対象システムごとに記述内容は異なる public class HogeFromDb extends DbImporterDescription { @Override public Class<?> getModelType() { return Hoge.class; } @Override public String getWhere() { return "VALUE > 0"; } @Override public LockType getLockType() { return LockType.TABLE; } } Asakusa DSLの内部 104
  • 105. 例: エクスポーター記述  データのエクスポート方法をJavaで記述 対象システムごとに記述内容は異なる public class HogeToFile extends FileExporterDescription { @Override public Class<?> getModelType() { return MockHoge.class; } @Override public String getPathPrefix() { return "example/export/hoge-*"; } } Asakusa DSLの内部 105
  • 106. 業務トランザクション  ゗ンポートやエクスポートを行うデータ フローは、業務トランザクション処理 失敗したらロールバック処理を起動 @JobFlow(name = “example”) public class ExampleJobFlow extends FlowDescription { In<Hoge> in; a ... b Out<Hoge> out; public ExampleJobFlow( @Import(name=“hoge”, description=HogeFromDb.class) In<Hoge> a, @Export(name=“hoge”, description=HogeToDb.class) Out<Hoge> b) { ... Asakusa DSLの内部 106
  • 107. 外部システムとの連携のコード生成  ゗ンポーター記述やエクスポーター記述 はコンパ゗ラプラグ゗ンで処理 適切なプラグ゗ンが入っていないとコンパ゗ ルに失敗  次の情報を生成 ゗ンポートやエクスポート時に行われる処理 の設定情報 ゗ンポート処理を起動するコマンドラ゗ン エクスポート処理を起動するコマンドラ゗ン ロールバック処理を起動するコマンドラ゗ン Asakusa DSLの内部 107
  • 108. Batch DSLの解析  ジョブフローや、ほかのスクリプトを一連の バッチとしてまとめ上げる  「エンドユーザーが認識する処理の単位」を記述  内部的には、バッチに含まれるジョブフローをそ れぞれコンパ゗ルしている @Batch(name = "batch.example") public class ExampleBatch extends BatchDescription { @Override protected void describe() { Work script = runScript("daily-ftp.sh").soon(); Work jobNet1 = run(JobNet1.class).after(script); Work jobNet2 = run(JobNet2.class).after(script); } } Asakusa DSLの内部 108
  • 109. ワークフロー記述の生成  ここまでに作成したMap Reduceジョブや、 他システムとの連携方法を一連のワーク フローとして出力 ほかのワークフローエンジンが一連のジョブ を実行するための情報を生成 Asakusa Frameworkはワークフローエンジン を内蔵していない Asakusa DSLの内部 109
  • 110. 標準のワークフロー記述  バッチに含まれる処理を順に実行する シェルスクリプト 依存関係のグラフをトポロジカルソートして 順に起動するだけ  負荷テスト用に少し試すなどの用途向け 実運用には向いていない あえて「experimental.sh」という名前 Asakusa DSLの内部 110
  • 111. ワークフローの構造  バッチ: エンドユーザーの認識単位  ジョブフロー: 業務トランザクション ゗ニシャラ゗ズ: Hadoopクラスタの初期化 ゗ンポート: 外部システムからの取り込み プロローグ: 外部システムから取り込んだデータを加工 ステージグラフ: Map Reduce処理 エピローグ: 外部システム向けに出力データを加工 エクスポート: 外部システムへの書き出し フゔ゗ナラ゗ズ: 不要なデータのクリーンナップ リカバリ: 業務トランザクションのロールバック/ロー ルフォワード  コマンドラ゗ンの起動 Asakusa DSLの内部 111
  • 112. ワークフロー記述の種類  コンパ゗ラプラグ゗ンで生成するワーク フロー記述の種類が増える JP1向けとかあってもいいかも  Oozieなどを標準にしたほうがよいか 現在の標準は例のシェルスクリプト job.xmlを生成するようにすればできそう Asakusa DSLの内部 112
  • 113. バッチ全体のコード生成のまとめ  外部システムとの連携はFlow DSLに ゗ンポーター記述 エクスポーター記述 自動的に業務トランザクション単位になる  コンパ゗ラの最終成果物はワークフロー 記述 ここまでに生成したコードがワークフロー処 理としてまとめられる Asakusa DSLの内部 113
  • 114. 第三部: コンパ゗ラのコード生成  Flow DSLのコード生成  Operator DSLのコード生成  バッチ全体のコード生成  まとめ Asakusa DSLの内部 114
  • 115. 第三部のまとめ  Flow DSL 実行計画を元にMap Reduceジョブを生成 Shuffleなどの情報も自動的に生成  Operator DSL Flow DSLの「語彙」を生成 何とかしたいところ  ワークフロー記述 外部連携や業務トランザクションもDSLで コンパ゗ラは最終的にワークフロー処理を行 うための記述を生成 Asakusa DSLの内部 115
  • 117. 第四部: コンパ゗ラの最適化手法  最適化手法の紹介  Asakusa Frameworkの制限  まとめ Asakusa DSLの内部 117
  • 118. 第四部: コンパ゗ラの最適化手法  最適化手法の紹介  Asakusa Frameworkの制限  まとめ Asakusa DSLの内部 118
  • 120. 最適化手法の紹介  死流の除去  合流の除去  ステージの合成  Map side Join  出力の合成  Shuffleの合成  プロフゔ゗ルベースの最適化 Asakusa DSLの内部 120
  • 121. 最適化のポ゗ント  Hadoop税が高い  ジョブごとに35秒くらい最低かかる  いかにジョブを減らせるか 実行計画から逆算するとShuffleを減らせばよい  細かいフゔ゗ルの取り扱いが遅い  Hadoopは64MB~128MBのブロックで処理  小さいフゔ゗ルはオーバーヘッドが相対的に大き い  その他、分散処理で効くもの  転送量を減らす  キーの偏りを減らす Asakusa DSLの内部 121
  • 122. 死流の除去  以下は死流としてマーク フローの入力から辿り着けないパス 入力が来ない限り演算子の処理は発火しない 副作用やフローの出力に辿り着けないパス 結果が観測されないなら存在しないのと同じ Asakusa DSLの内部 122
  • 123. 死流の除去の意図  フロー部品の一部だけを使える フロー部品は部品化されたデータフロー 一部の出力が不要な場合、等 最終結果に影響する演算子のみが発火 Asakusa DSLの内部 123
  • 124. 合流の除去  合流はわざわざReducerでやることもない Mapperに個別に渡せば処理してくれる Shuffleに個別に渡せば処理してくれる  Shuffleの回数を減らせる 合流 Asakusa DSLの内部 124
  • 125. ステージの合成  依存関係のないMap Reduce処理は一つの ジョブで実行できる DAG上で先行しない、かつ後続しない DAGの直径までステージ数を減らせる Map Reduce Map Reduce Map Reduce Asakusa DSLの内部 125
  • 126. ステージ合成のポ゗ント  複数の処理を同時にShuffleすることで、 キーの偏りを軽減 個々のキー種が少なくても、同時に処理すれ ばその分だけキー種が増える  一番遅いジョブに引きずられるので、危 険な最適化 ダ゗ナミックスケジューリングしたほうが普 通は速くなる とある理由により現在はデフォルトでONに なっている Asakusa DSLの内部 126
  • 127. Map side Join  結合対象のデータが十分に小さければ、 Reducerでやらなくてもよい Mapperに小さいほうのデータを先に配布 「サ゗ドデータ」として演算子そのものに埋 め込まれているようなセマンテゖクスに  大きいほうのデータだけの入力になり、Map 系演算子として取り扱える  Shuffleの回数を減らすため、Hadoop的に はものすごく効く Asakusa DSLの内部 127
  • 128. 出力の合成  複数の出力を一つにまとめる セマンテゖクスの中で何をしてもよい フゔ゗ル数が減り、フゔ゗ルの粒度が大きく なるため、Hadoop的に効く  ゕプローチ 次段の入力が一致する出力を併合 ステージを合成 ステージ境界の位置を調整 分岐演算子の位置を組み替え Asakusa DSLの内部 128
  • 129. Shuffleの合成  並行するReducerが似た条件のShuffleを 行っていたら、1回分にまとめる Shuffleの転送量が1回分になる  現在の内部表現だと少し遠い Shuffleフェーズを個別の内部表現として扱う 必要がある データフローのゕセンブリ言語を作りたい Asakusa DSLの内部 129
  • 130. プロフゔ゗ルベースの最適化  サンプルデータを流して実行プロフゔ゗ ル情報を作成  プロフゔ゗ル情報を元に実行計画を修正  …ということをやりたいな、というレベル Asakusa DSLの内部 130
  • 131. 第四部: コンパ゗ラの最適化手法  最適化手法の紹介  Asakusa Frameworkの制限  まとめ Asakusa DSLの内部 131
  • 132. Asakusa Frameworkの制限  命令型のプログラムを含む  静的スケジューリング  外部システムとの疎結合性  ワークフローエンジンとの疎結合性 Asakusa DSLの内部 132
  • 133. 命令型のプログラム  Operator DSLはJavaのメソッドを書ける ほとんど自由に命令型で記述可能  解析が難しいため、広域最適化に制限 かなりここはどうするか迷った 最終的には、「開発容易性」を優先 宣言的な部分はほぼFlow DSLのみ Asakusa DSLの内部 133
  • 134. 静的スケジューリング  コンパ゗ル時に実行計画を確定させてしまう  クラスタの状況に応じた動的な最適化が困難  理想的には実行直前に1段分の実行計画を立てる 例:データサ゗ズを動的に観測して結合ゕルゴリズムを 選択  障害追跡を考慮した選択  速度を犠牲にしても、障害を追跡しやすい方向に  動的実行計画を実現しつつ障害追跡をやれるかも DSLでかぶせてあるので、同じコードでそのまま速くな る可能性も Asakusa DSLの内部 134
  • 135. 外部システムとの疎結合性  外部システムと疎結合なため、細かい制 御が困難 痛いのはsemi-joinを利用するのが厳しいこと  これはHadoopクラスタと外部システムが 完全に隔離されているという前提 Hadoopは直接外部システムに問い合わせを行 えず、ワークフローエンジンが制御する 密結合を前提にした機構も作りたいところ HBaseなどをクラスタ内に配置する、など Asakusa DSLの内部 135
  • 136. ワークフローエンジンとの疎結合性  ワークフローエンジンと連携しにくいた め、クラスタ全体のリソース情報を利用 した最適化を行いにくい OS不在でバッチ処理を行うのと似た辛さ  Hadoop内部のリソース管理機構と連携し たワークフローエンジンがない 外部システムとの連携まで視野に入れると、 現状は妥当ではある Hadoop内部のキューをAsakusa Frameworkで 提供することも視野に入れたい Asakusa DSLの内部 136
  • 137. 第四部: コンパ゗ラの最適化手法  最適化手法の紹介  Asakusa Frameworkの制限  まとめ Asakusa DSLの内部 137
  • 138. 第四部のまとめ  各種最適化 現在はジョブ数を減らす方向を中心に作業中 将来的には転送量等までちゃんとやりたい  Asakusa Frameworkの制限 開発容易性のために最適化を制限 DSLのセマンテゖクスを崩さずに、将来はも う少し無茶なものを入れたい Asakusa DSLの内部 138
  • 140. まとめ  Asakusa DSLの設計思想について紹介  エンタープラ゗ズ分野のバッチ処理をHadoopで  Asakusa DSLとMap Reduceとの関係について 紹介  Map Reduceはそもそもどんなことが可能か  それに対してDSLはどんなことが可能か  DSLがどうやってHadoopのプログラムになるか  最適化や今後の展望についても紹介  まだまだやれることはたくさん Asakusa DSLの内部 140
  • 141. OSS化について  コード整理中  実行計画周りは数か月以内に刷新予定 データフローゕセンブリ言語の導入 マルチホスト言語対応  ドキュメント整備中  今日のスラ゗ドが一番詳しいところもあるレベル  一部プロトタ゗プとして先行実装している感じ  3月中に出す  予定で線を引いてます  詳しくは主催者まで Asakusa DSLの内部 141
  • 142. おわり  第一部: Asakusa DSLの設計思想 どんな言語か、何を考えて作ったのか  第二部: Asakusa DSLのセマンテゖクス Hadoopとどのように関連するか  第三部: コンパ゗ラのコード生成 どのようなコードを生成しているか  第四部: コンパ゗ラの最適化手法 どのような最適化があるか Asakusa DSLの内部 142