11. “By 2020, between 70-80% of unstructured data will be held on
lower-cost storage managed by SDS environments.”
“By 2019, 70% of existing storage array products
will also be available as software only versions”
“By 2016, server-based storage solutions will lower storage
hardware costs by 50% or more.”
Gartner: “IT Leaders Can Benefit From Disruptive Innovation in the Storage Industry”
Innovation Insight: Separating Hype From Hope for Software-Defined Storage
Innovation Insight: Separating Hype From Hope for Software-Defined Storage
2013 2014 2015 2016 2017 2018 2019
$1,349B
$1,195B
$1,029B
$859B
$706B
$592B
SDS製品別市場規模
$457B
Source: IDC
Software-Defined Storageが ストレージ産業全体の構造
変革をグローバル市場で牽引しています
ハイパーコンバージド
ブロックストレージ
ファイルストレージ
オブジェクトストレージ
市場規模は、2015年から2019年までの間、前年比で約20%増での成長
が予測されています
著名な調査会社のコメント
SDSの市場動向
11
24. DEVICE → LV → XFS → DIR → BRICK → VOLUME
Gluster 論理構成
BRICKS
(LVM + XFS)
BRICKS
(LVM + XFS)
Local disk
or RAID LUN
Local disk
or RAID LUN
Local disk
or RAID LUN
Local disk
or RAID LUN
24
VOLUME
Clients
• クライアントは Volume をマウントしてファイ
ルアクセス
• Volume は Brick が集合した仮想的なファ
イルシステム
• Brick はサーバーのローカルデバイス上の
物理的なXFSファイルシステム
一般的なLinuxファイルシステムを束ねて
スケーラブルなファイルシステムとして提供
26. スナップショット
● コマンドラインから実行
● ユーザーへのアクセス提供も可
能
● ボリュームごとに最大256 個 作成
可能
● スケジュールベースで実行可能
● スナップショットの名前はクラスター
内で一意に
● 取得時点のストレージ状態、データを
保存
● ボリューム単位に作成、リスト、リスト
ア、削除可能
● LVM2 の thin-provisioned volume
を利用
26
CURRENT FILE
SYSTEM
CURRENT FILE
SYSTEM
CURRENT FILE
SYSTEM
SNAPSHOTSNAPSHOT
A B C D A B C D A B C D B D+ E1 E2
スナップショット取得前 スナップショット取得後 ファイルシステムへの変更
データ
削除
データ
変更
新規
データ
27. 27
Geo-Replication
• LAN, WAN, or Internet を介した非同期レプリケーション
• Master/Slave型
• 常時差分レプリケーションを実行
• 柔軟な構成
- One to one
- One to many
- Cascading
• パフォーマンス
- 並列転送
- 高速な対象ファイル走査
- 複数コネクションを使用、一括転送
- ファイル種別・階層には非依存
• チェックポイント
• Failover/Failback
Site A
Site B
Site B
Site A Site C
One to One replication
Cascading replication
33. 33
● 2つのタイプのPoolが存在
RADOS
obj
objobj obj
Replicated Pool
- オブジェクト全体を複製して冗長化
- 容量効率は低いがI/O性能とリカバリの早さには EC Poolより優れ
る
- 一般的によく利用される標準のタイプ
Replicated Pool
RADOS
obj
A
Erasure Coded(EC) Pool
- Erasure Codingの仕組みで冗長化
- I/O性能とリカバリはReplicated Poolに劣るが容量効率は高い
- RGWからのみ利用サポート
Erasure Coded Pool
B C X Ycoding codingdata data data
Placement Group Placement Group
Poolのタイプ
35. OpenStack環境におけるRed Hat Ceph Storageの利用
FEATURES
• Nova, Cinder, Glanceとの連携
• VMイメージとVMボリューム(ephemeral/persistent)用のスト
レージ機能を提供
• Copy-on-Write(CoW)クローニング
• Swift互換のオブジェクトストレージゲートウェイ
• Red Hat OpenStack Platformとの統合
BENEFITS
• オブジェクトとブロックの両ストレージを単独で提供
• インスタンスのプロビジョニングの時間を短縮
• Storage nodeとCompute nodeの間でVMイメージのコピー不
要
• Swiftからの移行、およびSwiftバックエンドとしての稼働
• Red Hat OpenStack Platformと一緒に導入可能
CEPH BLOCK DEVICE
(RBD)
CEPH OBJECT GATEWAY
(RGW)
CEPH STORAGE CLUSTER
(RADOS)
OPENSTACK
Keystone API Swift API Cinder API Glance API Nova API
Hypervisor
* http://superuser.openstack.org/articles/openstack-users-share-how-their-deployments-stack-up
RADOS CLUSTER
35
36. * April 2017 OpenStack User Survey
https://www.openstack.org/assets/survey/April2017SurveyReport.pdf
Which OpenStack block storage (Cinder) drivers are in use?
OpenStackで最も利用されているストレージ
36