Définir et construire des architectures à Haute Disponibilité et Performance pour Lync
Animée par Angela Thai, Microsoft Consulting et Eric Chauvot, Sonus
6. Matrice de support des fonctions de
HA/DR
Fonctionnalité
HA DR
Fonctionnalité
HA
Peer-to-peer (all modalities)
Presence
Conferencing (all modalities)
UCWA
Archiving
CDR / QoE
Federation
PIC routing
Unified Contact Store
6
X
Topology Builder
Lync Server Control Panel
Persistent Chat
Planning Tool
PSTN Voice / E911*
CAA / CAS / PVA / GVA
RGS / CPS
Call Admission Control
XMPP
DR
X
X
7. Concept – Haute disponibilité et
améliorations
Plusieurs serveurs Front-Ends
présentés aux utilisateurs grâce au
DNS ou Hardware Load Balancing
Instance locale pour les données
liées aux utilisateurs (RTClocal)
Implémentation de la logique de
Windows Fabric et des Groupes de
Routage (Routing group)
Plusieurs serveurs Back-End
disponibles pour un pool
Moins de dépendance avec les
Back-End permettant la continuité
des services en cas
d’indisponibilité
Implémentation du SQL Mirroring
qui permet de partager les
données, mais pas le stockage
8. Concept - Haute disponibilité et FrontEnd
Group 1
Group 3
Windows Fabric est installé sur
chaque Front End.
Les utilisateurs sont provisionnés
sur un pool Lync dans un des
Routing Groups (dimensionnement
et répartition automatique).
Via Lync Fabric, 3 réplicas de
Routing Group sont conservés et
mis à jour de manière synchrone
8
Group 2
Group 1
Fabric
node
Fabric
node
Fabric
node
User
Group 1
Fabric
node
Group 3
Group 2
Group 2
Group 1
Group 3
Fabric
node
Fabric
node
User
Group 2
9. Concept - Haute disponibilité et FrontEnd
Group 1
Group 3
En fonctionnement nominal, les
requêtes utilisateur sont gérées par
le replica primaire.
En cas de panne, la bascule est
automatique, rapide et tous les
services sont disponibles.
Cette logique s’applique aux
services MCU Factory,
Conferencing Directory, Routing,
LYSS…
9
Group 2
Group 1
Fabric
node
Fabric
node
Fabric
node
User
Group 1
Fabric
node
Group 3
Group 2
Group 2
Group 1
Group 3
Fabric
node
Fabric
node
User
Group 2
10. Recos- Haute disponibilité et Front-End
Group 1
Group 3
3 serveurs Front-End par pool afin
de disposer des 3 réplicas liés à
Windows Fabric.
DNS Load Balancing afin de
réduire la complexité au niveau des
HLB
Group 2
Group 1
Fabric
node
Fabric
node
Fabric
node
User
Group 1
Group 3
Group 2
Group 2
Group 1
Group 3
10
Fabric
node
Fabric
node
Fabric
node
User
Group 2
11. Concept - Haute disponibilité et Back-End
Witness server
instance (optional)
SQL Mirroring: SQL Clustering non
supporté sur 2013
SQL Mirroring conserve 2 instances
SQL (principale et secondaire) à jour
Server Data flow Server
instance as
instance as
principal
mirror
server for
server for
DB_1
DB_1
Une 3ème instance SQL configurée en
tant que témoin permet la bascule
automatique primaire <-> secondaire
Lync 2013 Pool
11
12. Recos - Haute disponibilité et Back-End
Witness server
instance (optional)
Primaire et miroir doivent avoir la
même version SQL
Primaire et miroir doivent avoir la
même Edition SQL, Witness peut
avoir une Edition différente
Recommandé d’avoir le nom
d’instance entre le primaire et le
secondaire (facilité d’administration et
de déploiement)
Utilisation du Topology Builder
12
Server Data flow Server
instance as
instance as
principal
mirror
server for
server for
DB_1
DB_1
Lync 2013 Pool
13. Concepts – Résilience de site
2 pools peuvent être “pairés”
(relation 1:1) en mode actif-actif
Permet une réplication en temps
réel des données persistantes
entre 2 pools via le service Backup
Lors d’une bascule, les utilisateurs
sont activés pour les services Lync
en mode résilience
Failover et Failback ne sont pas
automatiques
14. User Pool Failover
Pairing
Pool 1
Utilisateurs
Pool 1
Utilisateurs
Pool 2
Utilisateurs
Pool 2
Utilisateurs
Backup
Pool 1
Données
Utilisateur
Pool 1
Site 1
14
Pool 1
Données
Utilisateur
Pool 2
Données
Utilisateur
Pool 2
Données
Utilisateur
Pool 2
Site 2
15. Recos – Résilience de site
Via la topology builder:
2 pools “pairés” doivent être dans
la même région, la même version
de pools (Enterprise/Standard), le
même type de support
(physique/virtuel)
Dimensionner le pool pour
supporter 50 % de la charge afin
d’assurer la totalité de la charge en
cas de bascule
Si le CMS est impliqué, il doit être
basculé avant le pool Front-End:
1) Localiser le CMS:
Get-CSService –CentralManagement
Get-CSPoolBackupRelationship –PoolFQDN (Find
associated pool)
Get-CSManagementStoreReplicationStatus –
CentralManagementStoreStatus
2) Déplacement du CMS:
Invoke-CSManagementServerFailover –
BackupSQLServerFQDN <Pool2
PrimarySQLFQDN> -BackupSQLInstanceName <Name>
3) Failover Pool1 vers Pool2
Invoke-CSPoolFailover –PoolFQDN <Pool1> DisasterMode
16. Terminologie - Haute disponibilité et Voix
ITSP
PSTN: réseau operateur télécom
traditionnel
PRI: lien de 30 appels simultanés
avec le PSTN ou un PBX
ITSP: opérateur télécom VoIP
SIP Trunk: lien VoIP, x appels
simultanés
Cluster: nœud de 2 SBC, actif/passif
SIP OPTIONS: monitoring d’état SIP
LQM: Link Quality Monitoring,
16 informations de qualité d’un lien VoIP
SIP Trunk
PSTN
PRI
20. Cas d’une petite infrastructure
Mode nominal:
- 1 Lync Standard Edition sur un même
site ou 2 sites différents
- Mise en place du Pool Pairing entre
les 2 serveurs Standard: une copie
des données du serveur A est
hébergée sur le serveur B et
réciproquement
Pool A User Data
Lync Std Edition
Front-End 2013
Utilisateurs Lync
20
21. Cas d’une petite infrastructure
Pool Pairing
Mode nominal:
- 1 Lync Standard Edition sur un même
site ou 2 sites différents
- Mise en place du Pool Pairing entre
les 2 serveurs Standard: une copie
des données du serveur A est
hébergée sur le serveur B et
réciproquement
21
Pool A User Data
Lync Std Edition
Front-End 2013 (A)
Pool A User Data
Pool B User Data
Pool B User Data
Utilisateurs du Std A
Lync Std Edition
Front-End 2013 (B)
Utilisateurs du Std B
22. Cas d’une petite infrastructure
Pool Pairing
Mode secours:
- Le serveur Lync A est en panne
- Les utilisateurs A se reconnectent au
serveur Lync appairé à leur pool, i.e.
sur le pool B
- Accèdent aux services Lync et à leurs
données
Pool A User Data
Lync Std Edition
Front-End 2013 (A)
Utilisateurs du Std A
22
Pool A User Data
Pool B User Data
Pool B User Data
Lync Std Edition
Front-End 2013 (B)
Utilisateurs du Std B
23. Cas d’une petite infrastructure
Mode nominal:
Les SBC A et B sont actifs
simultanément et traitent le trafic
entrant/sortant des PRI 1 et 2.
L’un des deux pools Lync Std Ed
traite les appels à destination et en
provenance des deux SBC.
23
SBC1000 «A»
PRI 1
PRI 2
SBC1000 «B»
SIP
Lync 2013 Std Ed + Mediation
Pool pairing
24. Cas d’une petite infrastructure
Mode secours:
Le SBA A est arrêté, le SBC B reste
actif. Le PRI 1 bascule en mode
« Passthrough », redirigé vers le
SBC B via le PRI d’interconnexion.
Le pool Lync détecte la disponibilité
du SBC actif (SIP OPTIONS).
-> Bascule automatique, capacité
PSTN de 100%
24
SBC1000 «A»
PRI 1
PRI 2
SBC1000 «B»
PRI
SIP
Lync 2013 Std Ed + Mediation
Pool pairing
28. Cas d’une infrastructure moyenne
Mode nominal:
- Déploiement d’un pool Lync FrontEnd Enterprise (3 serveurs FE)
- Déploiement d’un pool Lync BackEnd (2 serveurs SQL en mirroring
et 1 serveur SQL témoin)
- Déploiement de HA sur les autres
composants: Persistent Chat,
Office Web Apps (HLB), file
share…
28
Lync Enterprise Edition
Front-End 2013
Primaire
mirroring
Persistent Chat
Witness
Secondaire
Lync Back-End 2013
Site « A »
Utilisateur du site A
Office Web Apps
29. Cas d’une infrastructure moyenne
Tolérance à la panne d’un serveur:
- Perte d’un serveur FE: bascule
automatique des clients
- Perte d’un serveur BE: bascule
automatique vers le serveur SQL miroir en
cas de panne du serveur SQL primaire
grâce au serveur witness
- Perte d’un serveur Persistent Chat:
bascule automatique vers le 2ème serveur
- Perte d’un serveur Office Web Apps:
redirection du flux HTTPS vers le 2ème
serveur
29
Lync Enterprise Edition
Front-End 2013
Primaire
mirroring
Persistent Chat
Persistent Chat
Secondaire
Lync Back-End 2013
Site « A »
Utilisateur du site A
Office Web Apps
Office Web Apps
30. Cas d’une infrastructure moyenne
Tolérance à la panne d’un serveur:
- Perte d’un serveur FE: bascule
automatique des clients
- Perte d’un serveur BE: bascule
automatique vers le serveur SQL mirroir
en cas de panne du serveur SQL primaire
grâce au serveur witness
- Perte d’un serveur Persistent Chat:
bascule automatique vers le 2ème serveur
- Perte d’un serveur Office Web Apps:
redirection du flux HTTPS vers le 2ème
serveur
30
Lync Enterprise Edition
Front-End 2013
Primaire
mirroring
Persistent Chat
Persistent Chat
Secondaire
Lync Back-End 2013
Site « A »
Utilisateur du site A
Office Web Apps
Office Web Apps
31. Cas d’une infrastructure moyenne
ITSP 1
Mode nominal:
Les SBC A et B sont actifs
simultanément et traitent le trafic
entrant/sortant des PRI et des SIP
trunks opérateurs en distribuant les
appels vers les serveurs Mediation.
Le pool Lync route les appels vers les
2 SBC (1 ou 2 routes Lync).
PSTN
SIP
ITSP 2
SIP
PRI
SBC 2000 «A»
SBC 2000 «B»
SIP
SIP
Lync 2013 Ent Ed pool + Mediation
32. Cas d’une infrastructure moyenne
ITSP 1
PSTN
ITSP 2
SIP
Mode secours:
Le SBC A est arrêté, le SBC B est
actif et traite le trafic entrant/sortant
de ses PRI et des SIP trunks
opérateurs 1 & 2.
Le pool Lync détecte la perte du SBC
A (SIP OPTIONS) et ne route les
appels que vers le SBC B.
-> Routage intelligent entre TDM et
SIP trunks (métriques de qualité).
PRI
SBC 2000 «A»
SIP
SBC 2000 «B»
SIP
Lync 2013 Ent Ed pool + Mediation
33. Cas d’une infrastructure moyenne
Des indicateurs de qualité (LQM)
peuvent être mesurés pour chaque
route SIP afin de définir si une route
peut être empruntée ou non, en
fonction de seuils acceptables.
Si la qualité ne répond pas aux
seuils, la route suivante est évaluée.
Ces calculs d’indicateurs, le failover
ainsi que le failback sont
automatiques.
37. Cas d’une infrastructure complexe
Lync Front-End 2013
Mode nominal:
- Haute disponibilité locale:
tolérance en cas de perte d’un
serveur dans un site
- Résilience de site (bascule) avec
le mécanisme de pool pairing
- Modèle actif/actif avec répartition
des charges entre les 2 sites
Office Web Apps
Lync Front-End 2013
Persistent Chat
Lync Back-End 2013
Lync Back-End
Witness
Site « Primaire »
Office Web Apps
Persistent Chat
Lync Back-End 2013
Lync Back-End
Witness
Site « Secondaire »
Centre de données Siège
Utilisateurs du Siège
37
38. Cas d’une infrastructure complexe
Lync Front-End 2013
Mode secours:
Le site primaire n’est plus
disponible, les connexions clients
sont dirigées vers le site secondaire.
Les utilisateurs accèdent aux
services Lync et à leurs données via
le site secondaire (pool pairing)
Office Web Apps
Lync Front-End 2013
Persistent Chat
Lync Back-End 2013
Lync Back-End
Witness
Custer A SBC 5110
Site « Primaire »
Office Web Apps
Persistent Chat
Lync Back-End 2013
Lync Back-End
Witness
Custer B SBC 5110
Site « Secondaire »
Centre de données Siège
Utilisateurs du Siège
38
39. Cas d’une infrastructure complexe
Mode nominal:
Le cluster SBC du DC 1 est utilisé, le
cluster du DC 2 est en secours PRA.
Appels entrants: les ITSP routent les
appels vers le SBC du DC1. Le SBC
du DC1 distribue les appels vers le
Pool Lync (Round Robin ou priorité).
Appels sortants: Le pool Lync
achemine les appels vers le SBC qui
les route vers les ISTP.
Lync Front-End 2013 Office Web Apps
Lync Back-End 2013
Cluster A SBC 5110 – DC 1
Lync Front-End 2013 Office Web Apps
Lync Back-End
Witness
SIP
Priorité 1
Lync Back-End 2013
Lync Back-End
Witness
Cluster A SBC 5110 – DC 1
ITSP 2
Custer A SBC 5110
DC « Primaire »
Custer B SBC 5110
ITSP 1
DC « Secondaire »
40. Cas d’une infrastructure complexe
Mode secours:
Le nœud actif du cluster SBC du DC1
n’est plus disponible. Le cluster SBC
fait un failover vers le nœud passif en
conservant les sessions SIP en
cours.
Il n’y a pas d’impact sur le routage
des appels entrants & sortants.
Reprise des sessions SIP, haute
capacité d’appels (DC avec
conferencing Lync).
DC 2 Cluster B
Lync Front-End-2013 Office Web Apps
Lync Front-End 2013 Office Web Apps
Lync Back-End 2013
Cluster A SBC 5110 – DC 1
Sonus SBC 5110
Lync Back-End
Witness
SIP
Priorité 1
Lync Back-End 2013
Lync Back-End
Witness
Cluster A SBC 5110 – DC 1
ITSP 2
Custer A SBC 5110
DC « Primaire »
Custer B SBC 5110
ITSP 1
DC « Secondaire »
41. Cas d’une infrastructure complexe
Mode PRA:
Le DC1 n’est plus disponible, le
cluster SBC du DC2 prend le relais,
interconnecté avec un ou plusieurs
ITSP.
Appels entrants: Les ITSP détectent
que le SBC du DC1 n’est plus
disponible (LQM, SIP OPTIONS) et
redirigent les appels vers le SBC du
DC2.
Appels sortants: le pool Lync du DC2
route les appels vers le cluster de
Lync Front-End 2013 Office Web Apps
Lync Back-End 2013
Cluster A SBC 5110 – DC 1
Office Web Apps
Lync Back-End
Witness
Lync Front-End 2013
Lync Back-End 2013
Lync Back-End
Witness
Cluster A SBC 5110 – DC 1
SIP
Priorité 1
ITSP 2
Custer A SBC 5110
DC « Primaire »
Custer B SBC 5110
ITSP 1
DC « Secondaire »
42. Cas d’une infrastructure complexe
SBC1000
Lync Std Edition
Front-End 2013
Office Web Apps
Réseau MPLS
Site « Agence 2 »
Architecture complète:
Utilisateurs de l Agence 2
Lync Front-End 2013
Office Web Apps
Lync Front-End 2013
Office Web Apps
SBC1000
- Siège: HA locale (tolérance en cas
de perte d’un serveur) + résilience
de site (bascule) avec le pool
pairing
- Agence: Sites distants, Standard
Edition, Pool Pairing possible.
Persistent Chat
Persistent Chat
Office Web Apps
Site « Agence 1 »
Lync Back-End 2013
Lync Back-End
Witness
Custer A SBC 5110
Site « Primaire »
Lync Back-End 2013
Lync Back-End
Witness
Custer B SBC 5110
Site « Secondaire »
Centre de données Siège
Utilisateurs du Siège
42
Lync Std Edition
Front-End 2013
Utilisateurs de l Agence 1
43. Cas d’une infrastructure complexe
Cluster A SBC 5110 – DC 1
ITSP 1
Cluster B SBC 5110 – DC 2
ITSP 2
Architecture complète:
Priorité 1
SIP
SIP
Priorité 2
Les deux DC permettent d’offrir à la
fois une haute disponibilité locale et
un PRA.
Les sites distants sont
éventuellement autonomes avec leur
SBC 1000/2000 embarquant un SBA
et des connexions locales PSTN
et/ou ITSP.
Ent Ed pool + Mediation
Ent Ed pool + Mediation
Remote Offices
with SBC & SBA
ITSP
PSTN