Weitere ähnliche Inhalte Ähnlich wie 第20回CloudStackユーザ会_ApacheCloudStack4.4新機能紹介 (20) 第20回CloudStackユーザ会_ApacheCloudStack4.4新機能紹介2. わたし
大削 緑/Midori Oge
みろりん @star76popin
☆某SI会社 → 某通信事業者 → NTTコミュニケーションズで
の開発を担当しています
☆こんな記事を書いてます
オープンソースの「クラウド基盤ソフトウェア」を比較する【第1回】
機能を徹底比較! ∼Eucalyptus、CloudStack、OpenStack
オープンソースの「クラウド基盤ソフトウェア」を比較する【第2回】
【徹底比較】Eucalyptus、CloudStack、OpenStackの仮想マシン性能
☆いろんなユーザ会にいます
@副会長
star76
8. 4.4の新機能
1. Support managed storage for root disks
2. Root disk resize
3. Per primary Storage OverProvisioning
4. VMWare Support for DRS
5. Virtual Router Service Failure Alerting
6. Region wide Guest networks and VPC
7. Distributed routing and network ACL with OVS plug-in
8. Hyper-V support improvements
- Zone Wide Primary Store in Hyper-V
- VPC support on Hyper-V
- Storage Live-Migration support for Hyper-V
* 135 bugfixes
* 12 New Features
* 9 Improvements
10. はまりどころ①
$ java -version
java version "1.6.0_31"
OpenJDK Runtime Environment (IcedTea6 1.13.3) (6b31-1.13.3-1ubuntu1~0.12.04.2)
OpenJDK 64-Bit Server VM (build 23.25-b01, mixed mode)
!
$ sudo apt-get install openjdk-7-jre
!
$ sudo update-alternatives --config java
There are 2 choices for the alternative java (providing /usr/bin/java).
!
Selection Path Priority Status
------------------------------------------------------------
* 0 /usr/lib/jvm/java-6-openjdk-amd64/jre/bin/java 1061 auto mode
1 /usr/lib/jvm/java-6-openjdk-amd64/jre/bin/java 1061 manual mode
2 /usr/lib/jvm/java-7-openjdk-amd64/jre/bin/java 1051 manual mode
!
Press enter to keep the current choice[*], or type selection number: 2
!
$ java -version
java version "1.7.0_55"
OpenJDK Runtime Environment (IcedTea 2.4.7) (7u55-2.4.7-1ubuntu1~0.12.04.2)
OpenJDK 64-Bit Server VM (build 24.51-b03, mixed mode)
インストール後、GUIに接続すると503エラーが出る
-> Javaが1.6 ー> 1.7系になっているので、
Management ServerとHostのバージョンを1.7に変更
16. 1.Support managed storage for root disks
ルート/データディスクに「SolidFire」が使用可能に!
「provider」に「SolidFire」
を指定
IOPSやByte数を指定
-対象HyperVisor: XenServer, VMWare
・「createStoragePool」APIでストレージプールを作成
Primary Storageを指定
ストレージとOfferingを
結びつける「tag」を指定
例)「SF_SAN」
17. 1.Support managed storage for root disks
・専用のCompute Offering または Disk Offeringを作成
Min IOPS: 最小IOPS
Max IOPS: 最大IOPS
!
Storage Tags:
ストレージプール
のタグを入力
19. 2. Root disk resize
> resize volume id=2dcc6df1-e847-4d42-8cfc-c2c29da4ce35 size=10
<略>
size = 10737418240
<略>
> list volumes
count = 1
volume:
id = 2dcc6df1-e847-4d42-8cfc-c2c29da4ce35
<略>
size = 8589934592
<略>
「resizeVolume」APIでサイズを指定する
起動中のVMのルートディスクのサイズを変更可能に!
-対象HyperVisor: KVM
約8G
変更された!
サイズを指定
変更された!
20. 3. Per Primary Storage OverProvisioning
PrimaryStorageごとにオーバープロビジョニング係数を変更できる!
-対象HyperVisor: KVM
PrimaryStorageの「Settings」タブ
個別に設定可能
ここで個別に設定した値は、
GlobalSettingの値より優先されます
21. 4. VMWare Support for DRS
VMWare vSphereの機能サポート
参考)https://www.VMWare.com/jp/products/vsphere/features/drs-dpm.html
DRS=Distributed Resource Scheduler
VMwareクラスタ内のサーバのリソース使用率や負荷を監視し
サーバの負荷が均等になるようにする機能
- VMデプロイ時は適切なサーバに配置
- クラスタ内の別のホストに移動(vMotion)
DPM=Distributed Power Management
クラスタ内でリソースに空きのあるサーバがある場合、
そのサーバを自動でスタンバイにする機能
リソースが必要になった際は、スタンバイにしたサーバを起動
22. 5. Virtual Router Service Failure Alerting
4.3で実装されたVRの監視機能を使って
Management Serverにアラートを送信する機能
-対象HyperVisor: XenServer, KVM, VMWare
root@r-4-VM:~# crontab -l
#monitoringConfig
SHELL=/bin/bash
PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin
*/3 * * * * /usr/bin/python /root/monitorServices.py
「monitorServices.py」が3分毎に実行される
監視スクリプト
-サービスが起動していない場合は、1秒ごとにチェック
-5秒たっても起動していなかった場合は、サービスを再起動
-再起動が失敗したら、30秒後に再度再起動
23. id uuid service
process_
name
service_
name
service_path pidfile isDefault
1
85cd3961-173a-11e4-8
961-6c626d67983a
ssh sshd ssh /etc/init.d/ssh /var/run/sshd.pid 1
2
85cd4f96-173a-11e4-8
961-6c626d67983a
dhcp dnsmasq dnsmasq /etc/init.d/dnsmasq
/var/run/dnsmasq/
dnsmasq.pid
0
3
85cd6111-173a-11e4-8
961-6c626d67983a
loadbalancing haproxy haproxy /etc/init.d/haproxy /var/run/haproxy.pid 0
4
85cd775d-173a-11e4-8
961-6c626d67983a
webserver apache2 apache2 /etc/init.d/apache2 /var/run/apache2.pid 1
「monitoring_services」テーブル
「dnsmasq」と「haproxy」はNetworkOfferingで関連するサービスが
指定された時のみ対象となる
5. Virtual Router Service Failure Alerting
24. root@r-4-VM:~# ps aux | grep sshd
root 7108 0.0 2.9 69184 3548 ? Ss 11:43 0:00 sshd: root@pts/0
root 7319 0.0 1.0 49932 1244 ? Ss 11:54 0:00 /usr/sbin/sshd
root 7357 0.0 2.9 69184 3552 ? Ss 11:55 0:00 sshd: root@pts/1
root 7442 0.0 0.6 8072 832 pts/0 S+ 12:01 0:00 grep sshd
!
root@r-4-VM:~# ls -la /var/run/sshd.pid
-rw-r--r-- 1 root root 5 Jul 30 11:54 /var/run/sshd.pid
!
root@r-4-VM:~# cat /var/run/sshd.pid
7319
!
root@r-4-VM:~# service ssh stop
[ ok ] Stopping OpenBSD Secure Shell server: sshd.
!
root@r-4-VM:~# service ssh status
[FAIL] sshd is not running ... failed!
!
!
root@r-4-VM:~# service ssh status
[ ok ] sshd is running.
試してみよう
←sshd が自動で再起動された
5. Virtual Router Service Failure Alerting
25. root@r-4-VM:/var/log# tail -f routerServiceMonitor.log
!
2014-07-30 12:03:06,674 [INFO] [The process sshd is not running trying recover ] sshd
!
2014-07-30 12:03:06,704 [INFO] [ssh] The process ssh is recovered successfully
/var/log/routerServiceMonitor.log (/var/log/messages)
vm_id router_name last_alert_timestamp
4 r-4-VM 2014-07-30 12:03:06
「op_router_monitoring_services」テーブル
←タイムスタンプが更新された
自動で再起動された
5. Virtual Router Service Failure Alerting
26. 6. Region wide Guest networks and VPC
ZoneA ZoneB
Region
Tier
VPC
Tier Tier Tier
VPC
ZoneA ZoneB
Region
VPC
Tier Tier ZoneをまたいだVPC(Tier)や
Guestネットワークが作れる
ようになった!!
27. Web1A Web1B
LB2BLB2A
DB SlaveDB Master
WebTier
AppTier
DBTier
ZoneA ZoneB
Region
VPC
LB1A
failover
LB1B
Web2A
App1A App2A App1B App2B
Web2B
NetScaler
6. Region wide Guest networks and VPC
ゾーン分散可能!!
28. 7. Distributed routing and network ACL with OVS plug-in
OVSプラグインを使って、
分散ルーティングとネットワークACLを提供する機能!
-対象HyperVisor: XenServer, KVM, VMWare
VPC-VRの負荷を減らすための機能
VPCが大きくなってくると…
Tier間の通信が、VPC VR経由のトロンボーン構成となり
VPC VRがボトルネックとなる
Open vSwitchプラグインで抑制
29. 7. Distributed routing and network ACL with OVS plug-in
Host1
VM1 VM2 VM1 VM2
Tier1
Bridge
Tier2
Bridge
Tier3
Bridge
Host2
VM1 VM2
Tier2
Bridge
Tier1
Bridge
Host3VM3 VM5
Tier1
Bridge
VPC VR
Tier2
Bridge
Tier3
Bridge
VM3 VM4
Tier3
Bridge
例) Tier1のVM1 から Tier3のVM1への通信
logical VPC VRがないと、Tier1 VM1→Host1 Tier1 Bridge→Host3 Tier1 Bridge
→VPC VR→Host3 Tier3 Bridge→Host1 Tier3 Bridge→Tier3 VM1 となる
30. 7. Distributed routing and network ACL with OVS plug-in
Host1
VM1 VM2 VM1 VM2
Tier1
Bridge
logical
VPC VR
Tier2
Bridge
Tier3
Bridge
Host2
VM1 VM2
Tier2
Bridge
logical
VPC VR
Tier1
Bridge
Host3VM3 VM5
Tier1
Bridge
VPC VR
Tier2
Bridge
Tier3
Bridge
VM3 VM4
Tier3
Bridge
例) Tier1のVM1 から Tier3のVM1への通信
Tier内通信はlogical VPC VRで折り返す
Tier1 VM1→Host1 Tier1 Bridge→logical VPC VR→Host1 Tier3 Bridge→Tier3 VM1 となる
31. 8. Hyper-V support improvements
1)Zone Wide Primary Store in Hyper-V
2)VPC support on Hyper-V
3)Storage Live-Migration support for Hyper-V
他のハイパーバイザで既に実装済みの
これらの機能がHyper-Vでも使用可能に!