Daniel Neumann
Windows Server 2008 R2 SP1   Microsoft Expert Student Partner
                             Fachhochschule Köln, Campus Gummersbach
Hyper-V                      daniel.neumann@studentpartners.de
About me

    Daniel Neumann
     •   Allgemeine Informatik, FH Köln
     •   Microsoft Expert Student Partner
         •   seit Juli 2009
Agenda

    Neuerungen – Hyper-V Server
    Live Migration
    Cluster Shared Volume
    Dynamic Memory
    RemoteFX
    SLAT
    Virtual Machine Queue Support
    Verbesserungen
Neuerungen – Hyper-V Server
                      Hyper-V Server 2008          Hyper-V Server 2008 R2
CPU                            4 CPUs                       8 CPUs
RAM (Host)                      32 GB                         1 TB
RAM (VM)              32 GB insgesamt (alle VMs)         64 GB pro VM
Live Migration                  Nein                           Ja
Failover Clustering             Nein                           Ja
Verwaltung             Hyper-V Manager (MMC),       Hyper-V Manager (MMC),
                         System Center Virtual        System Center Virtual
                           Machine Manager              Machine Manager
Live Migration
Live Migration

    Ausfall max. 300 ms – im Durchschnitt 10-20 ms

    VM weiterhin verfügbar

    Alle VMs unterstützen Live Migration

    Live Migration auch ohne Cluster Shared Volumes möglich
Live Migration – Schritt 1

                     Virtual Machine                        Virtual Machine




    User
                                       Configuration Data
           Cluster                                                 Cluster
           Node 1                                                  Node 2




                                             .BIN
                                            .VSV
                                           .XML
                                          .VHD


                                          Network
                                          Storage
Live Migration – Schritt 2

                     Virtual Machine                    Virtual Machine




    User
                                       Memory Content
           Cluster                                             Cluster
           Node 1                                              Node 2




                                           .BIN
                                          .VSV
                                         .XML
                                        .VHD


                                         Network
                                         Storage
Live Migration – Schritt 3

                     Virtual Machine                 Virtual Machine




    User
                                       Memory Sync
           Cluster                                                Cluster
           Node 1                                                 Node 2




                                          .BIN
                                         .VSV
                                        .XML
                                       .VHD


                                       Network
                                       Storage
Live Migration – Schritt 4

                     Virtual Machine             Virtual Machine




    User
           Cluster                                      Cluster
           Node 1                                       Node 2




                                          .BIN
                                         .VSV
                                        .XML
                                       .VHD


                                       Network
                                       Storage
Cluster Shared Volumes
Cluster Shared Volumes

    Alle Clusterknoten haben Zugriff

    Zugriff muss während Live Migration nicht umgezogen werden

    Auf einem Clusterknoten gemountet
Cluster Shared Volumes
        Gleichzeitiger Zugriff auf    Gleichzeitiger Zugriff auf   Gleichzeitiger Zugriff auf
            das Dateisystem               das Dateisystem              das Dateisystem




                                            SAN




                                             .BIN
                                            .VSV
                                           .XML
                                          .VHD

                                     Nur noch ein Volume
CSV – I/O Fehlertoleranz
                     I/O Umleitung über
                          Netzwerk




                                                                        VM auf Knoten 2
                                                                        nicht betroffen




                   Netzwerk Fehlertoleranz


    Volume über
     Knoten 1
    angebunden


                              SAN
                              SAN
                                             Fehler der SAN Anbindung




                               .BIN
                              .VSV
                             .XML
                            .VHD
CSV – Knoten Fehlertoleranz

                                                                                  VM auf Knoten 2
                                                                                  nicht betroffen
  Knoten Ausfall




                   Netzwerk Fehlertoleranz




                                             Begrenztes Queuing von I/O während
                                                  der Eigentümer wechselt
                             SAN
                             SAN




                              .BIN
                             .VSV
                            .XML
                           .VHD
CSV – Netzwerk Fehlertoleranz

     Umgeleitet
        über
    redundantes
      Netzwerk
                                                                      VM auf Knoten 2
                                                                      nicht betroffen




                      Netzwerk Fehlertoleranz


        Volume über
         Knoten 1
        angebunden

                                                Fehler der Netzwerk
                                SAN
                                SAN                Konnektivität




                                 .BIN
                                .VSV
                               .XML
                              .VHD
Dynamic Memory
Dynamic Memory



    derzeitiges Problem unter
     Hyper-V: VM Performance
     vs. VM Density

    Lösung: Dynamic Memory
                                 Quelle: Microsoft
Dynamic Memory

    Dynamische Arbeitsspeicher-Verwaltung für Hyper-V

    Aktive Abstimmung zwischen Hyper-V Host und Gastsystemen

    Kein Performance-Verlust
Dynamic Memory

    Memory Overcommitment
    Technologien zur Speicherverwaltung
     •   Page Sharing
         • nicht dynamisch
         • ineffektiv bei Large Pages => Standard bei Windows Server 2008 R2
         • SuperFetch und ASLR mindern zusätzlich die Effektivität
     •   Second Level Paging
         • Paging im Gastsystem
         • Paging in der Virtualisierungsschicht
         • Performance-Verlust


    → Dynamic Memory Balancing (Balloning)
Dynamic Memory - Konfiguration

    Startup RAM:
     •   BIOS weiß nichts von
         Dynamic Memory
     •   Gastsystem vielleicht ebenso
    Maximum RAM:
     •   Obere Grenze
     •   Nur auf Anfrage
         des Gastsystems
    Memory buffer
    Memory weight
Dynamic Memory



    Assigned Memory
     •    Derzeitig zu gewiesener Arbeitsspeicher
    Memory Demand
     •    Derzeitig benötigter Arbeitsspeicher
    Memory Status
     OK                    Low                   Warning
     Min. 80% des Memory   Weniger als 80% des   Weniger als Memory
     buffers               Memory buffers aber   Demand
                           mehr als Memory
                           Demand
RemoteFX
RemoteFX

    Hardware-basierte Grafikbeschleunigung für Hosted Desktops

    Virtuelles Gerät: GPU

    Unterstützt Rich Clients und Thin Clients

    Applikationsunabhängig

    128 MB Grafikarbeitsspeicher pro Hosted Desktop
RemoteFX – Voraussetzungen – Server

    CPU muss SLAT (Second-Level Address Translation)
     unterstützen

    GPU → DirectX 9.0c und DirectX 10.0
     •   ATI FirePro und Nvidia Quadro
     •   Best Practice: in allen Hyper-V Hosts die gleiche GPU verwenden

    RemoteFX encoder (optional)

    Hyper-V
RemoteFX – Voraussetzungen

    VDI Virtual Machine
     •   Windows 7 Enterprise SP1
     •   Windows 7 Ultimate SP1

    Remote Client
     •   Windows 7 SP1
     •   Gerät mit RDP 7.1
RemoteFX – Host-Side Rendering




      Decrypt
    Uncompress                    Render
                          GPU
      Display                     Capture
                                 Compress
                                  Encrypt
SLAT / VMQ /
Verbesserungen
SLAT

                  Guest Virtual     Guest Virtual
 VM definiert
                    Address           Address
 GVA -> GPA-
 Zuordnung



                 Guest Physical                      CPU unterstützt nur
                                                     eine Ebene der
                   Address                           Speicheradressen-
                                                     Virtualisierung

 Hypervisor
 definiert GPA
 -> SPA-
 Zuordnung       System Physical   System Physical
                     Address           Address
Virtual Machine Queue




 Quelle: Microsoft      Quelle: Microsoft
Verbesserungen – Core Parking
Verbesserungen – Hot Add/Remove Storage
Verbesserungen – Hot Add/Remove Storage
Verbesserungen – Hot Add/Remove Storage
Verbesserungen – Prozessor Kompatibilität

                                          VM NOT in Processor compatibility mode



    VM sees processor features: X, Y, Z




                                                     Migration fails



  Physical Processor features: X, Y, Z                                             Physical Processor features: X, Y

                Host A                                                                             Host B
Verbesserungen – Prozessor Kompatibilität

                                         VM in Processor compatibility mode



      VM sees processor features: X, Y




                                                Migration succeeds



  Physical Processor features: X, Y, Z                                        Physical Processor features: X, Y

                Host A                                                                        Host B
Verbesserungen

    TCP-IP Chimney Offload
     •   VM kann direkt Arbeit an die physische NIC auslagern

    Jumbo Frames

    Unterstützung von bis zu 64 logischen Prozessoren
Q&A
Weitere Informationen…

 …zum Microsoft Student Partner Programm:
  www.stnc.de
  www.studentpartners.de

  www.microsoft.de/dreamspark



 Mail: daniel.neumann@studentpartners.de
Links

    Crysis RemoteFX Video:
     •   http://www.youtube.com/TechStudentGermany#p/u/16/sRbEh_58X
         mI
    Core Parking über die Cmd aktivieren:
     •   http://www.hyper-v-server.de/hypervisior/hyper-v-r2-und-cpu-core-
         parking/
    Failover Clustering (Live Migration & CSV)
     •   http://technet.microsoft.com/de-de/library/cc732181(WS.10).aspx
     •   http://technet.microsoft.com/en-us/library/dd446679(WS.10).aspx

Windows Server 2008 R2 – Hyper-V

  • 1.
    Daniel Neumann Windows Server2008 R2 SP1 Microsoft Expert Student Partner Fachhochschule Köln, Campus Gummersbach Hyper-V daniel.neumann@studentpartners.de
  • 2.
    About me  Daniel Neumann • Allgemeine Informatik, FH Köln • Microsoft Expert Student Partner • seit Juli 2009
  • 3.
    Agenda  Neuerungen – Hyper-V Server  Live Migration  Cluster Shared Volume  Dynamic Memory  RemoteFX  SLAT  Virtual Machine Queue Support  Verbesserungen
  • 4.
    Neuerungen – Hyper-VServer Hyper-V Server 2008 Hyper-V Server 2008 R2 CPU 4 CPUs 8 CPUs RAM (Host) 32 GB 1 TB RAM (VM) 32 GB insgesamt (alle VMs) 64 GB pro VM Live Migration Nein Ja Failover Clustering Nein Ja Verwaltung Hyper-V Manager (MMC), Hyper-V Manager (MMC), System Center Virtual System Center Virtual Machine Manager Machine Manager
  • 5.
  • 6.
    Live Migration  Ausfall max. 300 ms – im Durchschnitt 10-20 ms  VM weiterhin verfügbar  Alle VMs unterstützen Live Migration  Live Migration auch ohne Cluster Shared Volumes möglich
  • 7.
    Live Migration –Schritt 1 Virtual Machine Virtual Machine User Configuration Data Cluster Cluster Node 1 Node 2 .BIN .VSV .XML .VHD Network Storage
  • 8.
    Live Migration –Schritt 2 Virtual Machine Virtual Machine User Memory Content Cluster Cluster Node 1 Node 2 .BIN .VSV .XML .VHD Network Storage
  • 9.
    Live Migration –Schritt 3 Virtual Machine Virtual Machine User Memory Sync Cluster Cluster Node 1 Node 2 .BIN .VSV .XML .VHD Network Storage
  • 10.
    Live Migration –Schritt 4 Virtual Machine Virtual Machine User Cluster Cluster Node 1 Node 2 .BIN .VSV .XML .VHD Network Storage
  • 11.
  • 12.
    Cluster Shared Volumes  Alle Clusterknoten haben Zugriff  Zugriff muss während Live Migration nicht umgezogen werden  Auf einem Clusterknoten gemountet
  • 13.
    Cluster Shared Volumes Gleichzeitiger Zugriff auf Gleichzeitiger Zugriff auf Gleichzeitiger Zugriff auf das Dateisystem das Dateisystem das Dateisystem SAN .BIN .VSV .XML .VHD Nur noch ein Volume
  • 14.
    CSV – I/OFehlertoleranz I/O Umleitung über Netzwerk VM auf Knoten 2 nicht betroffen Netzwerk Fehlertoleranz Volume über Knoten 1 angebunden SAN SAN Fehler der SAN Anbindung .BIN .VSV .XML .VHD
  • 15.
    CSV – KnotenFehlertoleranz VM auf Knoten 2 nicht betroffen Knoten Ausfall Netzwerk Fehlertoleranz Begrenztes Queuing von I/O während der Eigentümer wechselt SAN SAN .BIN .VSV .XML .VHD
  • 16.
    CSV – NetzwerkFehlertoleranz Umgeleitet über redundantes Netzwerk VM auf Knoten 2 nicht betroffen Netzwerk Fehlertoleranz Volume über Knoten 1 angebunden Fehler der Netzwerk SAN SAN Konnektivität .BIN .VSV .XML .VHD
  • 17.
  • 18.
    Dynamic Memory  derzeitiges Problem unter Hyper-V: VM Performance vs. VM Density  Lösung: Dynamic Memory Quelle: Microsoft
  • 19.
    Dynamic Memory  Dynamische Arbeitsspeicher-Verwaltung für Hyper-V  Aktive Abstimmung zwischen Hyper-V Host und Gastsystemen  Kein Performance-Verlust
  • 20.
    Dynamic Memory  Memory Overcommitment  Technologien zur Speicherverwaltung • Page Sharing • nicht dynamisch • ineffektiv bei Large Pages => Standard bei Windows Server 2008 R2 • SuperFetch und ASLR mindern zusätzlich die Effektivität • Second Level Paging • Paging im Gastsystem • Paging in der Virtualisierungsschicht • Performance-Verlust  → Dynamic Memory Balancing (Balloning)
  • 21.
    Dynamic Memory -Konfiguration  Startup RAM: • BIOS weiß nichts von Dynamic Memory • Gastsystem vielleicht ebenso  Maximum RAM: • Obere Grenze • Nur auf Anfrage des Gastsystems  Memory buffer  Memory weight
  • 22.
    Dynamic Memory  Assigned Memory • Derzeitig zu gewiesener Arbeitsspeicher  Memory Demand • Derzeitig benötigter Arbeitsspeicher  Memory Status OK Low Warning Min. 80% des Memory Weniger als 80% des Weniger als Memory buffers Memory buffers aber Demand mehr als Memory Demand
  • 23.
  • 24.
    RemoteFX  Hardware-basierte Grafikbeschleunigung für Hosted Desktops  Virtuelles Gerät: GPU  Unterstützt Rich Clients und Thin Clients  Applikationsunabhängig  128 MB Grafikarbeitsspeicher pro Hosted Desktop
  • 25.
    RemoteFX – Voraussetzungen– Server  CPU muss SLAT (Second-Level Address Translation) unterstützen  GPU → DirectX 9.0c und DirectX 10.0 • ATI FirePro und Nvidia Quadro • Best Practice: in allen Hyper-V Hosts die gleiche GPU verwenden  RemoteFX encoder (optional)  Hyper-V
  • 26.
    RemoteFX – Voraussetzungen  VDI Virtual Machine • Windows 7 Enterprise SP1 • Windows 7 Ultimate SP1  Remote Client • Windows 7 SP1 • Gerät mit RDP 7.1
  • 27.
    RemoteFX – Host-SideRendering Decrypt Uncompress Render GPU Display Capture Compress Encrypt
  • 28.
    SLAT / VMQ/ Verbesserungen
  • 29.
    SLAT Guest Virtual Guest Virtual VM definiert Address Address GVA -> GPA- Zuordnung Guest Physical CPU unterstützt nur eine Ebene der Address Speicheradressen- Virtualisierung Hypervisor definiert GPA -> SPA- Zuordnung System Physical System Physical Address Address
  • 30.
    Virtual Machine Queue Quelle: Microsoft Quelle: Microsoft
  • 31.
  • 32.
    Verbesserungen – HotAdd/Remove Storage
  • 33.
    Verbesserungen – HotAdd/Remove Storage
  • 34.
    Verbesserungen – HotAdd/Remove Storage
  • 35.
    Verbesserungen – ProzessorKompatibilität VM NOT in Processor compatibility mode VM sees processor features: X, Y, Z Migration fails Physical Processor features: X, Y, Z Physical Processor features: X, Y Host A Host B
  • 36.
    Verbesserungen – ProzessorKompatibilität VM in Processor compatibility mode VM sees processor features: X, Y Migration succeeds Physical Processor features: X, Y, Z Physical Processor features: X, Y Host A Host B
  • 37.
    Verbesserungen  TCP-IP Chimney Offload • VM kann direkt Arbeit an die physische NIC auslagern  Jumbo Frames  Unterstützung von bis zu 64 logischen Prozessoren
  • 38.
  • 39.
    Weitere Informationen… …zumMicrosoft Student Partner Programm:  www.stnc.de  www.studentpartners.de  www.microsoft.de/dreamspark Mail: daniel.neumann@studentpartners.de
  • 40.
    Links  Crysis RemoteFX Video: • http://www.youtube.com/TechStudentGermany#p/u/16/sRbEh_58X mI  Core Parking über die Cmd aktivieren: • http://www.hyper-v-server.de/hypervisior/hyper-v-r2-und-cpu-core- parking/  Failover Clustering (Live Migration & CSV) • http://technet.microsoft.com/de-de/library/cc732181(WS.10).aspx • http://technet.microsoft.com/en-us/library/dd446679(WS.10).aspx