SlideShare ist ein Scribd-Unternehmen logo
1 von 60
Downloaden Sie, um offline zu lesen
Tecnologías de Virtualización
Proxmox como alternativa a VMware e Hyper-V
Eneko Lacunza
Binovo IT Human Project SL
elacunza@binovo.es
www.binovo.es
Índice
1.Introducción a la virtualización
2.Proxmox VE
3.Proxmox VE Ceph Server
4.Comparativa Proxmox VE / VMWare / Hyper-V
1. Introducción a la virtualización
1.Definición
2.Categorías
3.Virtualización del datacenter
1.1. Definición
● http://es.wikipedia.org/wiki/Virtualización
– Virtualización es la creación -a través de software- de
una versión virtual de algún recurso tecnológico, como
puede ser
● una plataforma de hardware
● un sistema operativo
● un dispositivo de almacenamiento
● recursos de red
● Etc.
1.2. Categorías
● Virtualización personal
– Emulación (consolas, otras arquitecturas...)
– Otras instancias de sistemas operativos
● Virtualización de servidores / datacenter
– Servidores virtualizados
– Almacenamiento virtualizado
– Red virtualizada
●
Virtualización de escritorio
– Separación del PC de escritorio, del sistema operativo lógico
1.3. Virtualización del datacenter
● Qué es
– Múltiples sistemas en una máquina física
● Ventajas
– Consolidación
● Ahorro energético, de espacio, costes hw
– Facilita la alta disponibilidad de la infraestructura
● Inconvenientes
– Criticidad servidores virtualización
● ¿Novedad?
– Lo hacían los mainframes en los 60
1.3. Virtualización del datacenter (II)
● Tipos de virtualización
– Emulación
– Virtualización completa
● Hardware con soporte de virtualización
– Intel (VT-x), AMD (AMD-V), ...
– Paravirtualización
– Contenedores
● Linux (openvz, lxc) Solaris (zonas) FreeBSD (jails) ...
2. Proxmox VE
1.Características
2.Requisitos
1.Servidor independiente
2.Cluster
3.HA
3.Migración de servidores
1.Físico a virtual
2.Virtual a virtual
2.1. Características (I)
● Distribución Linux especializada para virtualización
● Open Source
– Versión completa gratuita y libre
– Repositorio de código accesible (GIT)
● Tecnología:
– Sistema: derivado de Debian 7 (Linux)
– Núcleo: kernel RHEL 6.x (2.6.32.x) y RHEL 7 (3.10.x)
– KVM
– OpenVZ
– KSM – kernel shared memory (Linux)
2.1. Características (II)
● Tipos virtualización soportados:
– (Para)virtualización: KVM
● Windows: ISOs Fedora (Red Hat)
– http://alt.fedoraproject.org/pub/alt/virtio-win/latest/images/
● Linux: incluidos en kernel 2.6.25+
● ...
– Contenedores: OpenVZ
● Solo Linux
2.1.Características (III)
● Arquitecturas soportadas VM
– i386
– x86_64
● Sistemas operativos soportados VM
– Linux
– Windows
– Solaris
– ...
2.1. Características – consola (I)
● Interfaz gestión Web
– Cualquier navegador web actualizado
– Permite realizar toda la gestión habitual
● Línea de comandos (SSH/Consola)
– Shell estándard Linux
– Control total de la plataforma
● Con toda la potencia de Linux
– Solo desde CLI:
● Instalación/puesta en marcha de algunas cosas
2.1. Características – consola (II)
● Consola VM/CT/Host
– VNC (HTML5 o cliente Java)
– SPICE
● Guest VMs
– Windows 7+ (driver)
– Fedora 18+, Debian 7.1, Ubuntu 12.04+
● Visor externo:
– Windows/Linux: virt-viewer 0.5.6+
– Mac: RemoteViewer 0.5.7+ (-usb -tarjetas
inteligentes)
2.1. Características – clúster (I)
● Gestión centralizada del cluster, multi-maestro
– Acceso a gestionar todos los nodos (16 nodos máx)
– Definición centralizada de
● Almacenamiento local y compartido
● Backups
● Usuarios
● Proxmox Cluster filesystem (pmxcfs)
– Sistema de almacenamiento de configuración replicado
a todos los nodos con Corosync
2.1. Características - clúster (II)
● Alta disponibilidad de VMs
● Migración de VMs/CTts entre nodos
– Apagados
– En caliente con almacenamiento compartido, Ceph y
GlusterFS
● API REST
2.1. Características - clúster (III)
● Soporte de múltiples fuentes de autentificación
– PAM Linux
– Proxmox VE Cluster
– LDAP
– Directorio Activo
● Sistema de permisos basado en roles
2.1. Características - red (I)
● Red (host)
– Interfaces físicas
– Bridges
– Bonding (agregación de interfaces)
– VLANs
– Open vSwitch (Technology preview)
2.1. Características – red (II)
● Red en VMs
– Bridge
– NAT
● Red en contenedores
– Bridge
– Routing
2.1. Características – storage (I)
● Elementos de almacenamiento
– Imágenes discos
● Raw: estable y rápido
● Qcow2: más características, thin provisioning
● Vmdk: más experimental
– ISOs (para DVDs virtuales)
– Backups
– Contenedores
– Plantillas (CT)
2.1. Características – storage (II)
● Migración de imágenes en vivo
– Es posible migrar entre cualquier almacenamiento de
imágenes (independiente del formato)
● Almacenamiento para cualquier elemento
– Directorio
– NFS
– GlusterFS (T.P.)
2.1. Características – storage (III)
● Almacenamiento sólo imágenes RAW
– LVM local
– LVM clusterizado (iSCSI, DRBD)
– iSCSI (base LVM o ZFS)
– ISCSI* (uso directo LUN)
– RBD (Rados Block Device – Ceph)
– ZFS
– Sheepdog (T.P.)
● Mecanismos adicionales
– DRBD pri/pri (pri/sec)
2.1. Características - instalación
● Desde imagen ISO (CD/USB)
– Particionamiento automático
– Más rápido y cómodo que sobre Debian
– Pocas opciones de personalización
● Sobre Debian 7
– Mayor flexibilidad en el particionamiento e instalación
– Más complicado
2.1. Características – soporte (I)
● Comunidad:
– Lista de correo pve-users
● http://pve.proxmox.com/cgi-bin/mailman/listinfo/pve-user
● http://pve.proxmox.com/pipermail/pve-user/
– Foro web
● 23.000 miembros
● http://forum.proxmox.com/forum.php
2.1. Características – soporte (II)
● Comercial
*Tickets adicionales para Basic y Standard disponibles
Tipo Repositorio Soporte SSH Precio/socket
- no-subscription comunidad - -
Community enterprise comunidad NO 50€/año
Basic enterprise 3 tickets* NO 200€/año
Standard enterprise 10 tickets* SÍ 400€/año
Enterprise enterprise Sin límite SÍ 800€/año
2.1. Características - uso
● Usado en más de 57.000 servidores en 140 países.
– Ayto. Trento (Italia), 100.000 habitantes
● 10 nodos, 3 clusters, 80 VMs
● Servicios online y 1000 worktations internas
– 1000 VMs (web/BBDD) en cluster de 16 nodos
– ISP con 3 clusters de 8
● Casos de éxito
– http://www.proxmox.com/proxmox-ve/testimonials
2.2. Requisitos
1.Generales
2.Clúster
3.HA
2.2.1. Requisitos generales
● Mínimos
– Procesador y placa base x86_64 con soporte VT-x /
AMD-V / ...
● Necesario para virtualización completa con KVM
● Revisar BIOS
– 1 GB RAM
– 1 t.red
– 1 disco duro
2.2.1. Requisitos generales (II)
● Recomendados
– Múltiples CPUs/cores
– 8 GB RAM o más
– Controladora RAID con caché NV o batería (*)
– Discos (rápidos) separados para el sistema y VMs,
RAID10
– Varias t.red 1 Gbit / 10Gbit
● Hardware certificado
– Cualquiera que soporte RedHat Enterprise 6/7, 64 bits
2.2.2. Requisitos – clúster
● Red: multicast
– Misma red
– Switch debe tener activado el multicast
● Fecha y hora sincronizadas
● Tunel sobre SSH puerto 22
● VNC sobre SSL, puertos 5900-5999
2.2.2. Requisitos – HA
● 3 nodos (recomendado)
– (2 nodos “funciona” pero problema de quorum)
● 2 nodos + qdisk (quorum)
● Almacenamiento compartido / distribuido
– NFS para containers
– Cualquiera para KVM
● Dispositivo(s) de Fencing (aislamiento): fiables y
comprobados
– Esto es necesario, no hay “aislamiento por software”
2.2.3. Requisitos - HA (Fencing)
● Dispositivos soportados
– APC Switch rack PDU (P.e. AP7921) SSH
– APC Master Switch (SNMP)
– Intel Modular Server HA
– Dell DRAC
– Dell Blade server
● M1000e Chassis Management Controller
● IDRAC no soportado
– IPMI sobre LAN (instalar ipmitool)
– Switch de red gestionado
● Acceso de escritura via SNMP al switch
– Es posible configurar múltiples métodos para un nodo, si falla uno se intentará el siguiente.
– En caso de cortar la corriente, cuidad con fuentes de alimentación dobles
2.3. Migración
1.Físico a virtual
2.Virtual a virtual
2.3.1. Migración de físico a virtual (I)
● Factores a tener en cuenta
– Uso de hardware no disco/red?
● Tarjeta telefonía, modem, ...
– PCI passthough
● Configuración manual
2.3.1. Migración de físico a virtual (II)
● Preparación previa
– Windows:
● Activar drivers IDE
– Win2003/WinXP
● Mergeide.reg
● Atapi.sys, intelide.sys, pciide.sys pciidex.sys (driver.cab)
– Win2008+
● “A veces” funciona directamente – no siempre
● HKLMACHINEsystemControlSet001Servicesintelide
– Linux:
● Check /etc/fstab: nombres dispositivos podrían cambiar
● Usar UUID o etiqueta de FS mejor
2.3.1. Migración de físico a virtual (III)
● Copia del/los disco(s)
– Software
● Dd
● Clonezilla
● VMWare Converter
– Medio
● Red: directamente a almacenamiento Proxmox VE
● Disco externo (USB...)
2.3.2. Migración de virtual a virtual
● Debería ser posible desde cualquier sistema del que
podamos obtener un disco RAW
– Qemu-img
● vmdk3 -> ubuntu 14.04
– VMWare converter
– Activar siempre driver IDE
¿Descanso?
3. Proxmox VE Ceph Server
1.Introducción a Ceph/Rados Block Device
2.Ceph en Proxmox
3.Requisitos
4.Puesta en marcha
3.1. Intro a Ceph/RDB
● Sistema de almacenamiento distribuido
– Open Source
– Muy escalable (hexabyte)
– Altamente disponible
– Descentralizado/sin punto único de fallo
– Rendimiento excelente
– Simple de gestionar (CRUSH)
● Ubicación de datos automática
● En caso de fallo HW, recuperación automática
3.1. Intro a Ceph/RDB (II)
● Datos replicados: tolerante a fallos
● Múltiples pools con diferentes parámetros de rendimiento y
redundancia
● Basado en hardware simple/barato
● Sin cabinas compartidas de discos
● Sin RAID, Sin SAN
● Usable en diferentes niveles
– Almacén de objetos (RadosGW: Amazon S3 / OpenStack Swift)
– Rados Block Device (RBD)
– CephFS (sistema de ficheros)
3.1. Intro a Ceph/RDB (III)
● Arquitectura
– 3 servicios
● Monitor: mantiene el mapa del cluster (>=3)
● OSDs: gestión del almacenamiento, replicación (>=2)
● MDS: directorio de metadatos de CephFS
– Redundancia de datos configurable a nivel de pool
● Puede haber múltiples pools en un cluster ceph
● Los pools se trocean y reparten entre los OSDs (CRUSH)
● www.ceph.com - desarrollador principal: Inktank (RedHat)
3.1. Intro a Ceph/RDB (IV)
3.2. Ceph en Proxmox VE
● Cliente de Ceph: storage RBD
● Technology Preview
– Gestión de servidor Ceph
● Creación de monitor, OSDs, mds
– Integrado en GUI
● Parte del setup CLI
– Control a nivel de nodo Proxmox:
● Solo servidor Ceph
● Solo servidor virtualización
● Mixto ceph/virtualización
3.3. Requisitos
● Mismos requisitos que servidores Ceph
● Tener en cuenta carga virtualización en casos de nodos
mixtos
Servicio CPU RAM Red
Monitor 1c 1GB 1gbit
OSD 2c 0,5GB/disco 1gbit
MDS 4c 1GB 1gbit
3.3. Requisitos (II)
● Recomendaciones
– Almacenamiento
● 1 OSD por disco
● No compartir disco con Proxmox, Monitor, MDS
– Disco SSD para journals OSD
● Hacer pruebas primero (IOPS escritura)
– T. red 1 Gbit independiente virtualización/ceph, o bien 10 Gbit
● Replicar 1TB sobre red 1Gbps: 3 horas / 3TB: 9 horas
● Red 10Gbps: podrían ser 20 minutos y 1 hora
respectivamente
3.3. Requisitos (III)
● Ejemplo: 3 servidores
– Con redundancia 3, 16TB útiles
CPU 2x Xeon E5-2620v2
RAM 32 GB
Red 1x10 Gbit
Disco OS 2x80 GB
Journal Ceph 2xIntel DC S3500 80 GB
Discos OSD 4x4 TB SATA
4. Comparativa
1.VMWare vSphere 5.5
2.Microsoft Hyper-V 2012R2
3.Comparativas
4.1. VMWare vSphere v5.5
● Primer producto de éxito de virtualización en plataforma Intel
● Basado en Linux
● Diferentes versiones
– ESXi Hypervisor
– vSphere Standard / Enterprise / Enterprise plus
● Acceleration kits (6 CPUs + vCenter Server)
– vSphere Essentials kit
– vSphere Essentials kit plus
● Versiones con mejoras de gestión
– w/Operations Management
4.2. Microsoft Hyper-V 2012R2
● Diferentes versiones
– Hyper-V server (solo CLI)
– Windows Server Standard / Datacenter
● Sólo se diferencian en el nº de VMs Windows
licenciados
● Para mejoras de gestión
– System Center
4.3. Comparativa máximos
Proxmox 3.3 Hypervisor 5.5 vSphere Std 5.5 Hyper-V 2012R2
CoresHW 160 [5120] 320 320 320
RAM 4TB [64TB] 4TB 4TB 4TB
vCPU - 2.048 2.048 2.048
VM
vCore 160 8 64 64
vRAM 4TB 1TB 1TB 1TB
vDisk * 62TB 62TB 64TB
VM activos N/A 512 512 1.024
Cluster
Nodos cluster 16 X 32 64TB
VMs N/A X 4.000 8.000
Servidor
físico
4.3. Comparativa general
Proxmox 3.3 Hypervisor 5.5 vSphere Std 5.5 Hyper-V 2012R2
Open Source Sí No No No
Sí Sí Sí Sí
Firewall VMs Sí No No No
KSM Sí Sí Sí No
Firewall
hipervisor
4.3. Comparativa interfaz gestión
Proxmox 3.3 Hypervisor 5.5 vSphere Std 5.5 Hyper-V 2012R2
CLI SSH SSH SSH WSH
GUI Web Windows Web[/Windows] Windows
Cluster Sí No Sí Sí
Consola VM Cliente Windows
¿No? ¿No? ¿No?
VNC – HTML5
VNC – Java
SPICE
Cliente
Windows
HTML5[/Cliente
Windows]
Autentificación
2-factores
Sí
(Yubico, OATH)
4.3. Comparativa gestión VMs
Proxmox 3.3 Hypervisor 5.5 vSphere Std 5.5 Hyper-V 2012R2
Contenedores Sí - No No
Migración online Sí - Sí Sí
-
HA Sí - Sí Sí
Replica en caliente No - No
Migración online
sin alm.compart.
Sí*
(Ceph/Gluster)
Sí (Enhanced
vMotion)
Sí
(Shared nothing)
Sí (VM
Fault Tolerance)
4.3. Comparativa almacenamiento
Proxmox 3.3 Hypervisor 5.5 vSphere Std 5.5 Hyper-V 2012R2
Migración online Sí - Sí Sí
Backup Sí - Sí Sí
Backup incr. No - Sí Sí
Resize online Sí (aumentar) - Sí (aumentar) Sí
Replicación Sí (DRBD) - Sí (30s,5m,15m) Sí (15m-24h)
Replicación sínc. Sí (DRBD) - No No
Distributed RAID Sí (Ceph) - Sí (vSAN-5.5u1) No
Snapshots Sí* - Sí Sí
4.3. Comparativa costes
Hypervisor 5.5
Licencia 0 0 580€ (6 CPU) 0
Licencia+1y - - 0
+Soporte 1y 0-50€ - - -
- 309€/u 309€/u
Proxmox 3.3
No subscripción
vSphere 5.5
Essentials Kit
Hyper-V Server
2012R2
Soporte por
incidencia
179€/u
358€/u (24x7)
4.3. Comparativa costes (II)
Licencia 0 - - 830€/2CPU
Licencia+1y - 4.465€ (6 CPU) 1.247€*/2CPU
+Soporte 1y 200-800€/CPU 778,00 € N/A
- -
Proxmox 3.3
Suscripción
vSphere 5.5
Ess. Kit Plus
vSphere 5.5
Standard
WinSrv 2012R2
Standard
2.110€
+1.362€/CPU
580€
+290€/CPU
Soporte por
incidencia
200€/u
(Basic*/Std*)
179€
358€ (24x7)
4.3. Comparativa costes (III)
Licencia Proxmox
1 serv 1CPU 0 € 4.465 € 3.472 € 830 €
1 serv 2CPU 0 € 4.465 € 4.834 € 830 €
3 serv 1CPU 0 € 4.465 € 6.196 € 2.490 €
3 serv 2CPU 0 € 4.465 € 10.282 € 2.490 €
5 serv 1CPU 0 € N/A 8.920 € 4.150 €
5 serv 2CPU 0 € N/A 15.730 € 4.150 €
vSphere
Ess. Plus
vSphere
Standard
2012R2
Standard
4.3. Comparativa costes (IV)
1 serv 1CPU 200 € 400 € 778 € 870 € (por incidencia)
1 serv 2CPU 400 € 800 € 778 € 1.160 € (por incidencia)
3 serv 1CPU 600 € 1.200 € 778 € 1.450 € (por incidencia)
3 serv 2CPU 1.200 € 2.400 € 778 € 2.320 € (por incidencia)
5 serv 1CPU 1.000 € 2.000 € N/A 2.573 € (por incidencia)
5 serv 2CPU 2.000 € 4.000 € N/A 4.023 € (por incidencia)
3 tickets/año 10 tickets/año
Soporte
anual
Proxmox
Basic
Proxmox
Std
vSphere
Ess.Plus
vSphere
Std
2012R2
Std
4.4. ¿Por qué Proxmox VE?
● Rendimiento
● Estabilidad
● Coste
● Escalabilidad
● Simplicidad
● Tecnología abierta / integradora
● Open Source
Preguntas y comentarios
Web: http://www.proxmox.com/proxmox-ve
Wiki: https://pve.proxmox.com/wiki
Eneko Lacunza
Binovo IT Human Project SL
elacunza@binovo.es
www.binovo.es

Weitere ähnliche Inhalte

Was ist angesagt?

X86平台三种不同的虚拟化之路
X86平台三种不同的虚拟化之路X86平台三种不同的虚拟化之路
X86平台三种不同的虚拟化之路
Jasson wong
 

Was ist angesagt? (20)

Managing ESXi - Tools and Techniques
Managing ESXi - Tools and TechniquesManaging ESXi - Tools and Techniques
Managing ESXi - Tools and Techniques
 
OSSNA18: Xen Beginners Training
OSSNA18: Xen Beginners Training OSSNA18: Xen Beginners Training
OSSNA18: Xen Beginners Training
 
Xen on ARM for embedded and IoT: from secure containers to dom0less systems
Xen on ARM for embedded and IoT: from secure containers to dom0less systemsXen on ARM for embedded and IoT: from secure containers to dom0less systems
Xen on ARM for embedded and IoT: from secure containers to dom0less systems
 
UAV Presentation
UAV PresentationUAV Presentation
UAV Presentation
 
what is LINUX ? presentation.
what is LINUX ? presentation.what is LINUX ? presentation.
what is LINUX ? presentation.
 
Chapter 6
Chapter 6Chapter 6
Chapter 6
 
Understanding RAID Controller
Understanding RAID ControllerUnderstanding RAID Controller
Understanding RAID Controller
 
Qnx os
Qnx os Qnx os
Qnx os
 
Linux kernel Architecture and Properties
Linux kernel Architecture and PropertiesLinux kernel Architecture and Properties
Linux kernel Architecture and Properties
 
2018 Genivi Xen Overview Nov Update
2018 Genivi Xen Overview Nov Update2018 Genivi Xen Overview Nov Update
2018 Genivi Xen Overview Nov Update
 
Standardizing the tee with global platform and RISC-V
Standardizing the tee with global platform and RISC-VStandardizing the tee with global platform and RISC-V
Standardizing the tee with global platform and RISC-V
 
Trusted firmware deep_dive_v1.0_
Trusted firmware deep_dive_v1.0_Trusted firmware deep_dive_v1.0_
Trusted firmware deep_dive_v1.0_
 
Linux Operating System
Linux Operating SystemLinux Operating System
Linux Operating System
 
X86平台三种不同的虚拟化之路
X86平台三种不同的虚拟化之路X86平台三种不同的虚拟化之路
X86平台三种不同的虚拟化之路
 
Introduction To SELinux
Introduction To SELinuxIntroduction To SELinux
Introduction To SELinux
 
Virtualization with KVM (Kernel-based Virtual Machine)
Virtualization with KVM (Kernel-based Virtual Machine)Virtualization with KVM (Kernel-based Virtual Machine)
Virtualization with KVM (Kernel-based Virtual Machine)
 
Example VDI Solution Architecture
Example VDI Solution ArchitectureExample VDI Solution Architecture
Example VDI Solution Architecture
 
Case study linux
Case study linuxCase study linux
Case study linux
 
Emc isilon overview
Emc isilon overview Emc isilon overview
Emc isilon overview
 
Virtualization Architecture & KVM
Virtualization Architecture & KVMVirtualization Architecture & KVM
Virtualization Architecture & KVM
 

Ähnlich wie presentacion-proxmox-comparativa.pdf

El servidor perfecto
El servidor perfectoEl servidor perfecto
El servidor perfecto
betabeers
 
Guia de aprendizage 5 introduccion a ios de cisco
Guia de aprendizage 5 introduccion a ios de ciscoGuia de aprendizage 5 introduccion a ios de cisco
Guia de aprendizage 5 introduccion a ios de cisco
yoes1053
 

Ähnlich wie presentacion-proxmox-comparativa.pdf (20)

El servidor perfecto
El servidor perfectoEl servidor perfecto
El servidor perfecto
 
Virtualizacion KVM + libvirt + HREL6
Virtualizacion KVM + libvirt + HREL6Virtualizacion KVM + libvirt + HREL6
Virtualizacion KVM + libvirt + HREL6
 
Tema 02 virtualizacion
Tema 02 virtualizacionTema 02 virtualizacion
Tema 02 virtualizacion
 
SISTEMAS OPERATIVOS VIRTUALIZACION
SISTEMAS OPERATIVOS VIRTUALIZACIONSISTEMAS OPERATIVOS VIRTUALIZACION
SISTEMAS OPERATIVOS VIRTUALIZACION
 
Usando docker
Usando dockerUsando docker
Usando docker
 
Despliegue de Imágenes en aulas de informática
Despliegue de Imágenes en aulas de informáticaDespliegue de Imágenes en aulas de informática
Despliegue de Imágenes en aulas de informática
 
Virtualizacion
VirtualizacionVirtualizacion
Virtualizacion
 
Virtualización con vmware
Virtualización con vmwareVirtualización con vmware
Virtualización con vmware
 
Docker: la revolución en virtualización
Docker: la revolución en virtualizaciónDocker: la revolución en virtualización
Docker: la revolución en virtualización
 
OpenSolaris para la comunidad educativa
OpenSolaris para la comunidad educativaOpenSolaris para la comunidad educativa
OpenSolaris para la comunidad educativa
 
Docker 2014 v2
Docker 2014 v2Docker 2014 v2
Docker 2014 v2
 
Cloud Computing. Contenedores
Cloud Computing. ContenedoresCloud Computing. Contenedores
Cloud Computing. Contenedores
 
Introduccion a kata containers
Introduccion a kata containersIntroduccion a kata containers
Introduccion a kata containers
 
4.-VirtualBox.pdf
4.-VirtualBox.pdf4.-VirtualBox.pdf
4.-VirtualBox.pdf
 
Presentacion Nexenta Os
Presentacion Nexenta OsPresentacion Nexenta Os
Presentacion Nexenta Os
 
Lorenzo Martínez - Linux DFIR: My Way! [rooted2019]
Lorenzo Martínez - Linux DFIR: My Way! [rooted2019]Lorenzo Martínez - Linux DFIR: My Way! [rooted2019]
Lorenzo Martínez - Linux DFIR: My Way! [rooted2019]
 
Virtualizacion Con Xen En Open Solaris
Virtualizacion Con Xen En Open SolarisVirtualizacion Con Xen En Open Solaris
Virtualizacion Con Xen En Open Solaris
 
Guia de aprendizage 5 introduccion a ios de cisco
Guia de aprendizage 5 introduccion a ios de ciscoGuia de aprendizage 5 introduccion a ios de cisco
Guia de aprendizage 5 introduccion a ios de cisco
 
Red hat
Red hatRed hat
Red hat
 
Un caso Forense: Analizando un servidor Linux
Un caso Forense: Analizando un servidor LinuxUn caso Forense: Analizando un servidor Linux
Un caso Forense: Analizando un servidor Linux
 

Kürzlich hochgeladen

EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial Uninove
FagnerLisboa3
 
Proyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptxProyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptx
241521559
 
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
silviayucra2
 

Kürzlich hochgeladen (10)

guía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Josephguía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Joseph
 
EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial Uninove
 
International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)
 
Proyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptxProyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptx
 
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
 
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricGlobal Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
 
pruebas unitarias unitarias en java con JUNIT
pruebas unitarias unitarias en java con JUNITpruebas unitarias unitarias en java con JUNIT
pruebas unitarias unitarias en java con JUNIT
 
Desarrollo Web Moderno con Svelte 2024.pdf
Desarrollo Web Moderno con Svelte 2024.pdfDesarrollo Web Moderno con Svelte 2024.pdf
Desarrollo Web Moderno con Svelte 2024.pdf
 
Trabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíaTrabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnología
 
Presentación guía sencilla en Microsoft Excel.pptx
Presentación guía sencilla en Microsoft Excel.pptxPresentación guía sencilla en Microsoft Excel.pptx
Presentación guía sencilla en Microsoft Excel.pptx
 

presentacion-proxmox-comparativa.pdf

  • 1. Tecnologías de Virtualización Proxmox como alternativa a VMware e Hyper-V Eneko Lacunza Binovo IT Human Project SL elacunza@binovo.es www.binovo.es
  • 2. Índice 1.Introducción a la virtualización 2.Proxmox VE 3.Proxmox VE Ceph Server 4.Comparativa Proxmox VE / VMWare / Hyper-V
  • 3. 1. Introducción a la virtualización 1.Definición 2.Categorías 3.Virtualización del datacenter
  • 4. 1.1. Definición ● http://es.wikipedia.org/wiki/Virtualización – Virtualización es la creación -a través de software- de una versión virtual de algún recurso tecnológico, como puede ser ● una plataforma de hardware ● un sistema operativo ● un dispositivo de almacenamiento ● recursos de red ● Etc.
  • 5. 1.2. Categorías ● Virtualización personal – Emulación (consolas, otras arquitecturas...) – Otras instancias de sistemas operativos ● Virtualización de servidores / datacenter – Servidores virtualizados – Almacenamiento virtualizado – Red virtualizada ● Virtualización de escritorio – Separación del PC de escritorio, del sistema operativo lógico
  • 6. 1.3. Virtualización del datacenter ● Qué es – Múltiples sistemas en una máquina física ● Ventajas – Consolidación ● Ahorro energético, de espacio, costes hw – Facilita la alta disponibilidad de la infraestructura ● Inconvenientes – Criticidad servidores virtualización ● ¿Novedad? – Lo hacían los mainframes en los 60
  • 7. 1.3. Virtualización del datacenter (II) ● Tipos de virtualización – Emulación – Virtualización completa ● Hardware con soporte de virtualización – Intel (VT-x), AMD (AMD-V), ... – Paravirtualización – Contenedores ● Linux (openvz, lxc) Solaris (zonas) FreeBSD (jails) ...
  • 8. 2. Proxmox VE 1.Características 2.Requisitos 1.Servidor independiente 2.Cluster 3.HA 3.Migración de servidores 1.Físico a virtual 2.Virtual a virtual
  • 9. 2.1. Características (I) ● Distribución Linux especializada para virtualización ● Open Source – Versión completa gratuita y libre – Repositorio de código accesible (GIT) ● Tecnología: – Sistema: derivado de Debian 7 (Linux) – Núcleo: kernel RHEL 6.x (2.6.32.x) y RHEL 7 (3.10.x) – KVM – OpenVZ – KSM – kernel shared memory (Linux)
  • 10. 2.1. Características (II) ● Tipos virtualización soportados: – (Para)virtualización: KVM ● Windows: ISOs Fedora (Red Hat) – http://alt.fedoraproject.org/pub/alt/virtio-win/latest/images/ ● Linux: incluidos en kernel 2.6.25+ ● ... – Contenedores: OpenVZ ● Solo Linux
  • 11. 2.1.Características (III) ● Arquitecturas soportadas VM – i386 – x86_64 ● Sistemas operativos soportados VM – Linux – Windows – Solaris – ...
  • 12. 2.1. Características – consola (I) ● Interfaz gestión Web – Cualquier navegador web actualizado – Permite realizar toda la gestión habitual ● Línea de comandos (SSH/Consola) – Shell estándard Linux – Control total de la plataforma ● Con toda la potencia de Linux – Solo desde CLI: ● Instalación/puesta en marcha de algunas cosas
  • 13. 2.1. Características – consola (II) ● Consola VM/CT/Host – VNC (HTML5 o cliente Java) – SPICE ● Guest VMs – Windows 7+ (driver) – Fedora 18+, Debian 7.1, Ubuntu 12.04+ ● Visor externo: – Windows/Linux: virt-viewer 0.5.6+ – Mac: RemoteViewer 0.5.7+ (-usb -tarjetas inteligentes)
  • 14. 2.1. Características – clúster (I) ● Gestión centralizada del cluster, multi-maestro – Acceso a gestionar todos los nodos (16 nodos máx) – Definición centralizada de ● Almacenamiento local y compartido ● Backups ● Usuarios ● Proxmox Cluster filesystem (pmxcfs) – Sistema de almacenamiento de configuración replicado a todos los nodos con Corosync
  • 15. 2.1. Características - clúster (II) ● Alta disponibilidad de VMs ● Migración de VMs/CTts entre nodos – Apagados – En caliente con almacenamiento compartido, Ceph y GlusterFS ● API REST
  • 16. 2.1. Características - clúster (III) ● Soporte de múltiples fuentes de autentificación – PAM Linux – Proxmox VE Cluster – LDAP – Directorio Activo ● Sistema de permisos basado en roles
  • 17. 2.1. Características - red (I) ● Red (host) – Interfaces físicas – Bridges – Bonding (agregación de interfaces) – VLANs – Open vSwitch (Technology preview)
  • 18. 2.1. Características – red (II) ● Red en VMs – Bridge – NAT ● Red en contenedores – Bridge – Routing
  • 19. 2.1. Características – storage (I) ● Elementos de almacenamiento – Imágenes discos ● Raw: estable y rápido ● Qcow2: más características, thin provisioning ● Vmdk: más experimental – ISOs (para DVDs virtuales) – Backups – Contenedores – Plantillas (CT)
  • 20. 2.1. Características – storage (II) ● Migración de imágenes en vivo – Es posible migrar entre cualquier almacenamiento de imágenes (independiente del formato) ● Almacenamiento para cualquier elemento – Directorio – NFS – GlusterFS (T.P.)
  • 21. 2.1. Características – storage (III) ● Almacenamiento sólo imágenes RAW – LVM local – LVM clusterizado (iSCSI, DRBD) – iSCSI (base LVM o ZFS) – ISCSI* (uso directo LUN) – RBD (Rados Block Device – Ceph) – ZFS – Sheepdog (T.P.) ● Mecanismos adicionales – DRBD pri/pri (pri/sec)
  • 22. 2.1. Características - instalación ● Desde imagen ISO (CD/USB) – Particionamiento automático – Más rápido y cómodo que sobre Debian – Pocas opciones de personalización ● Sobre Debian 7 – Mayor flexibilidad en el particionamiento e instalación – Más complicado
  • 23. 2.1. Características – soporte (I) ● Comunidad: – Lista de correo pve-users ● http://pve.proxmox.com/cgi-bin/mailman/listinfo/pve-user ● http://pve.proxmox.com/pipermail/pve-user/ – Foro web ● 23.000 miembros ● http://forum.proxmox.com/forum.php
  • 24. 2.1. Características – soporte (II) ● Comercial *Tickets adicionales para Basic y Standard disponibles Tipo Repositorio Soporte SSH Precio/socket - no-subscription comunidad - - Community enterprise comunidad NO 50€/año Basic enterprise 3 tickets* NO 200€/año Standard enterprise 10 tickets* SÍ 400€/año Enterprise enterprise Sin límite SÍ 800€/año
  • 25. 2.1. Características - uso ● Usado en más de 57.000 servidores en 140 países. – Ayto. Trento (Italia), 100.000 habitantes ● 10 nodos, 3 clusters, 80 VMs ● Servicios online y 1000 worktations internas – 1000 VMs (web/BBDD) en cluster de 16 nodos – ISP con 3 clusters de 8 ● Casos de éxito – http://www.proxmox.com/proxmox-ve/testimonials
  • 27. 2.2.1. Requisitos generales ● Mínimos – Procesador y placa base x86_64 con soporte VT-x / AMD-V / ... ● Necesario para virtualización completa con KVM ● Revisar BIOS – 1 GB RAM – 1 t.red – 1 disco duro
  • 28. 2.2.1. Requisitos generales (II) ● Recomendados – Múltiples CPUs/cores – 8 GB RAM o más – Controladora RAID con caché NV o batería (*) – Discos (rápidos) separados para el sistema y VMs, RAID10 – Varias t.red 1 Gbit / 10Gbit ● Hardware certificado – Cualquiera que soporte RedHat Enterprise 6/7, 64 bits
  • 29. 2.2.2. Requisitos – clúster ● Red: multicast – Misma red – Switch debe tener activado el multicast ● Fecha y hora sincronizadas ● Tunel sobre SSH puerto 22 ● VNC sobre SSL, puertos 5900-5999
  • 30. 2.2.2. Requisitos – HA ● 3 nodos (recomendado) – (2 nodos “funciona” pero problema de quorum) ● 2 nodos + qdisk (quorum) ● Almacenamiento compartido / distribuido – NFS para containers – Cualquiera para KVM ● Dispositivo(s) de Fencing (aislamiento): fiables y comprobados – Esto es necesario, no hay “aislamiento por software”
  • 31. 2.2.3. Requisitos - HA (Fencing) ● Dispositivos soportados – APC Switch rack PDU (P.e. AP7921) SSH – APC Master Switch (SNMP) – Intel Modular Server HA – Dell DRAC – Dell Blade server ● M1000e Chassis Management Controller ● IDRAC no soportado – IPMI sobre LAN (instalar ipmitool) – Switch de red gestionado ● Acceso de escritura via SNMP al switch – Es posible configurar múltiples métodos para un nodo, si falla uno se intentará el siguiente. – En caso de cortar la corriente, cuidad con fuentes de alimentación dobles
  • 32. 2.3. Migración 1.Físico a virtual 2.Virtual a virtual
  • 33. 2.3.1. Migración de físico a virtual (I) ● Factores a tener en cuenta – Uso de hardware no disco/red? ● Tarjeta telefonía, modem, ... – PCI passthough ● Configuración manual
  • 34. 2.3.1. Migración de físico a virtual (II) ● Preparación previa – Windows: ● Activar drivers IDE – Win2003/WinXP ● Mergeide.reg ● Atapi.sys, intelide.sys, pciide.sys pciidex.sys (driver.cab) – Win2008+ ● “A veces” funciona directamente – no siempre ● HKLMACHINEsystemControlSet001Servicesintelide – Linux: ● Check /etc/fstab: nombres dispositivos podrían cambiar ● Usar UUID o etiqueta de FS mejor
  • 35. 2.3.1. Migración de físico a virtual (III) ● Copia del/los disco(s) – Software ● Dd ● Clonezilla ● VMWare Converter – Medio ● Red: directamente a almacenamiento Proxmox VE ● Disco externo (USB...)
  • 36. 2.3.2. Migración de virtual a virtual ● Debería ser posible desde cualquier sistema del que podamos obtener un disco RAW – Qemu-img ● vmdk3 -> ubuntu 14.04 – VMWare converter – Activar siempre driver IDE
  • 38. 3. Proxmox VE Ceph Server 1.Introducción a Ceph/Rados Block Device 2.Ceph en Proxmox 3.Requisitos 4.Puesta en marcha
  • 39. 3.1. Intro a Ceph/RDB ● Sistema de almacenamiento distribuido – Open Source – Muy escalable (hexabyte) – Altamente disponible – Descentralizado/sin punto único de fallo – Rendimiento excelente – Simple de gestionar (CRUSH) ● Ubicación de datos automática ● En caso de fallo HW, recuperación automática
  • 40. 3.1. Intro a Ceph/RDB (II) ● Datos replicados: tolerante a fallos ● Múltiples pools con diferentes parámetros de rendimiento y redundancia ● Basado en hardware simple/barato ● Sin cabinas compartidas de discos ● Sin RAID, Sin SAN ● Usable en diferentes niveles – Almacén de objetos (RadosGW: Amazon S3 / OpenStack Swift) – Rados Block Device (RBD) – CephFS (sistema de ficheros)
  • 41. 3.1. Intro a Ceph/RDB (III) ● Arquitectura – 3 servicios ● Monitor: mantiene el mapa del cluster (>=3) ● OSDs: gestión del almacenamiento, replicación (>=2) ● MDS: directorio de metadatos de CephFS – Redundancia de datos configurable a nivel de pool ● Puede haber múltiples pools en un cluster ceph ● Los pools se trocean y reparten entre los OSDs (CRUSH) ● www.ceph.com - desarrollador principal: Inktank (RedHat)
  • 42. 3.1. Intro a Ceph/RDB (IV)
  • 43. 3.2. Ceph en Proxmox VE ● Cliente de Ceph: storage RBD ● Technology Preview – Gestión de servidor Ceph ● Creación de monitor, OSDs, mds – Integrado en GUI ● Parte del setup CLI – Control a nivel de nodo Proxmox: ● Solo servidor Ceph ● Solo servidor virtualización ● Mixto ceph/virtualización
  • 44. 3.3. Requisitos ● Mismos requisitos que servidores Ceph ● Tener en cuenta carga virtualización en casos de nodos mixtos Servicio CPU RAM Red Monitor 1c 1GB 1gbit OSD 2c 0,5GB/disco 1gbit MDS 4c 1GB 1gbit
  • 45. 3.3. Requisitos (II) ● Recomendaciones – Almacenamiento ● 1 OSD por disco ● No compartir disco con Proxmox, Monitor, MDS – Disco SSD para journals OSD ● Hacer pruebas primero (IOPS escritura) – T. red 1 Gbit independiente virtualización/ceph, o bien 10 Gbit ● Replicar 1TB sobre red 1Gbps: 3 horas / 3TB: 9 horas ● Red 10Gbps: podrían ser 20 minutos y 1 hora respectivamente
  • 46. 3.3. Requisitos (III) ● Ejemplo: 3 servidores – Con redundancia 3, 16TB útiles CPU 2x Xeon E5-2620v2 RAM 32 GB Red 1x10 Gbit Disco OS 2x80 GB Journal Ceph 2xIntel DC S3500 80 GB Discos OSD 4x4 TB SATA
  • 47. 4. Comparativa 1.VMWare vSphere 5.5 2.Microsoft Hyper-V 2012R2 3.Comparativas
  • 48. 4.1. VMWare vSphere v5.5 ● Primer producto de éxito de virtualización en plataforma Intel ● Basado en Linux ● Diferentes versiones – ESXi Hypervisor – vSphere Standard / Enterprise / Enterprise plus ● Acceleration kits (6 CPUs + vCenter Server) – vSphere Essentials kit – vSphere Essentials kit plus ● Versiones con mejoras de gestión – w/Operations Management
  • 49. 4.2. Microsoft Hyper-V 2012R2 ● Diferentes versiones – Hyper-V server (solo CLI) – Windows Server Standard / Datacenter ● Sólo se diferencian en el nº de VMs Windows licenciados ● Para mejoras de gestión – System Center
  • 50. 4.3. Comparativa máximos Proxmox 3.3 Hypervisor 5.5 vSphere Std 5.5 Hyper-V 2012R2 CoresHW 160 [5120] 320 320 320 RAM 4TB [64TB] 4TB 4TB 4TB vCPU - 2.048 2.048 2.048 VM vCore 160 8 64 64 vRAM 4TB 1TB 1TB 1TB vDisk * 62TB 62TB 64TB VM activos N/A 512 512 1.024 Cluster Nodos cluster 16 X 32 64TB VMs N/A X 4.000 8.000 Servidor físico
  • 51. 4.3. Comparativa general Proxmox 3.3 Hypervisor 5.5 vSphere Std 5.5 Hyper-V 2012R2 Open Source Sí No No No Sí Sí Sí Sí Firewall VMs Sí No No No KSM Sí Sí Sí No Firewall hipervisor
  • 52. 4.3. Comparativa interfaz gestión Proxmox 3.3 Hypervisor 5.5 vSphere Std 5.5 Hyper-V 2012R2 CLI SSH SSH SSH WSH GUI Web Windows Web[/Windows] Windows Cluster Sí No Sí Sí Consola VM Cliente Windows ¿No? ¿No? ¿No? VNC – HTML5 VNC – Java SPICE Cliente Windows HTML5[/Cliente Windows] Autentificación 2-factores Sí (Yubico, OATH)
  • 53. 4.3. Comparativa gestión VMs Proxmox 3.3 Hypervisor 5.5 vSphere Std 5.5 Hyper-V 2012R2 Contenedores Sí - No No Migración online Sí - Sí Sí - HA Sí - Sí Sí Replica en caliente No - No Migración online sin alm.compart. Sí* (Ceph/Gluster) Sí (Enhanced vMotion) Sí (Shared nothing) Sí (VM Fault Tolerance)
  • 54. 4.3. Comparativa almacenamiento Proxmox 3.3 Hypervisor 5.5 vSphere Std 5.5 Hyper-V 2012R2 Migración online Sí - Sí Sí Backup Sí - Sí Sí Backup incr. No - Sí Sí Resize online Sí (aumentar) - Sí (aumentar) Sí Replicación Sí (DRBD) - Sí (30s,5m,15m) Sí (15m-24h) Replicación sínc. Sí (DRBD) - No No Distributed RAID Sí (Ceph) - Sí (vSAN-5.5u1) No Snapshots Sí* - Sí Sí
  • 55. 4.3. Comparativa costes Hypervisor 5.5 Licencia 0 0 580€ (6 CPU) 0 Licencia+1y - - 0 +Soporte 1y 0-50€ - - - - 309€/u 309€/u Proxmox 3.3 No subscripción vSphere 5.5 Essentials Kit Hyper-V Server 2012R2 Soporte por incidencia 179€/u 358€/u (24x7)
  • 56. 4.3. Comparativa costes (II) Licencia 0 - - 830€/2CPU Licencia+1y - 4.465€ (6 CPU) 1.247€*/2CPU +Soporte 1y 200-800€/CPU 778,00 € N/A - - Proxmox 3.3 Suscripción vSphere 5.5 Ess. Kit Plus vSphere 5.5 Standard WinSrv 2012R2 Standard 2.110€ +1.362€/CPU 580€ +290€/CPU Soporte por incidencia 200€/u (Basic*/Std*) 179€ 358€ (24x7)
  • 57. 4.3. Comparativa costes (III) Licencia Proxmox 1 serv 1CPU 0 € 4.465 € 3.472 € 830 € 1 serv 2CPU 0 € 4.465 € 4.834 € 830 € 3 serv 1CPU 0 € 4.465 € 6.196 € 2.490 € 3 serv 2CPU 0 € 4.465 € 10.282 € 2.490 € 5 serv 1CPU 0 € N/A 8.920 € 4.150 € 5 serv 2CPU 0 € N/A 15.730 € 4.150 € vSphere Ess. Plus vSphere Standard 2012R2 Standard
  • 58. 4.3. Comparativa costes (IV) 1 serv 1CPU 200 € 400 € 778 € 870 € (por incidencia) 1 serv 2CPU 400 € 800 € 778 € 1.160 € (por incidencia) 3 serv 1CPU 600 € 1.200 € 778 € 1.450 € (por incidencia) 3 serv 2CPU 1.200 € 2.400 € 778 € 2.320 € (por incidencia) 5 serv 1CPU 1.000 € 2.000 € N/A 2.573 € (por incidencia) 5 serv 2CPU 2.000 € 4.000 € N/A 4.023 € (por incidencia) 3 tickets/año 10 tickets/año Soporte anual Proxmox Basic Proxmox Std vSphere Ess.Plus vSphere Std 2012R2 Std
  • 59. 4.4. ¿Por qué Proxmox VE? ● Rendimiento ● Estabilidad ● Coste ● Escalabilidad ● Simplicidad ● Tecnología abierta / integradora ● Open Source
  • 60. Preguntas y comentarios Web: http://www.proxmox.com/proxmox-ve Wiki: https://pve.proxmox.com/wiki Eneko Lacunza Binovo IT Human Project SL elacunza@binovo.es www.binovo.es