Red Dorsal Nacional de Fibra Óptica y Redes Regionales del Perú
Clusterhomogeneorocks
1. .
.
IMPLEMENTACIÓN DE UN CLÚSTER HOMOGÉNEO BASADO EN
ROCKS CLUSTER DISTRIBUTION 6.1 (ESMERALD BOA)
Liliana Janeth Pacheco
Jara
Roddy Andrés Correa
Tenesaca
Personal en formación
Escuela de Ciencias de la
computación y Electrónica,
Universidad Técnica Particular
de Loja
Loja, Ecuador
ljpacheco@utpl.edu.ec
Personal en formación
Escuela de Ciencias de la
computación y Electrónica,
Universidad Técnica Particular
de Loja
Loja, Ecuador
racorrea@utpl.edu.ec
Blanca Cecilia Riofrío Pérez
Personal en formación
Escuela de Ciencias de la
computación y Electrónica,
Universidad Técnica Particular
de Loja
Loja, Ecuador
bcriofrio@utpl.edu.ec
las investigaciones científicas; por tal razón los
administradores de clústeres han decidió tomar la rienda
del caso y se han aportado con grandes milddleware;
uno de ellos es Rocks Cluster Distribution que consiste
en una distribución de Linux que facilita la instalación y
administración de un cluster en nuestro caso
homogéneo.
RESUMEN/ABSTRACT:
El
presente
artículo
informará acerca del uso de la plataforma Rocks Cluster
Distribution 6.1 dentro del diseño de un cluster; se
iniciará con una breve introducción de lo que son los
clústeres, , luego se detallará la instalación de las
herramientas necesarias junto con su configuración y
finalmente se mostrará las pruebas de instalación. Vale
recalcar que este paper tiene fines de lucro educativo
dentro del ámbito de la arquitectura y computación
paralela de tal forma que el estudiante adquiera los
conocimientos necesarios para el uso de tecnologías
adecuadas en la implementación de un clúster
homogéneo.
En el presente artículo mostraremos las configuraciones
principales el cluster con dos nodos, un nodo maestro y
un esclavo, todo esto fue realizado de forma física para
una mayor demostración de los beneficios que trae
consigo un cluster.
2. ESTADO DEL ARTE
PALABRAS CLAVE: Rocks cluster distribution, clúster
homogéneo, arquitectura y computación paralela.
A partir de los años 40 se denotó la presencia de las
súper computadoras, hasta la actualidad se conoce
cinco generaciones las cuales sin duda alguna han
influido de forma sustancial para los avances de ciencia
y tecnología a los cuales hoy se tiene acceso.
In this paper we are going to talk about the Rocks 6.1
middleware in the design of a homogeneous cluster.
Starting with a brief introduction of what are the cluster,
then the tools and the configuration will be detail and
finally the installation test will be show.
Remember that this paper is for educational profit within
the field of architecture and parallel computing so that
student acquires the knowledge to the use the
appropriate technologies in the implementation of a
homogeneous cluster.
En la década de los 60 aparecen las primeras máquinas
paralelas, aunque con muy poco éxito comercial. La
universidad de Illinois desarrolla el ILLIAC IV, el cual
poseía 64 elementos de cálculo, que disponían cada uno
de su propia memoria y estaban todos físicamente unios
por medio de una red de interconexión propia del sistem
a. En la década de los 60 se crea además una auténtica
industria informática alrededor de los computadores
de
la
época
evolucionados
respecto a los primitivos y ello propiciado por el progreso
de la electrónica en cuanto al tamaño de los circuitos, s
u costo de fabricación y su rapidez. La mayor parte
de las máquinas paralelas de esta época, máquinas
Cyber, se conocían como calculadores vectoriales y pos
eían un solo procesador. [1]
KEY WORDS: Rocks cluster distribution, homogeneous
cluster, architecture and parallel computing.
1. INTRODUCCIÓN
Un cluster se define como un grupo de múltiples
computadoras unidos por una red de alta velocidad, de
tal forma que el conjunto puede ser visto como una
única máquina, dado que por su poder de computo
puede resuelve problemas que un solo equipo de
escritorio no podrá hacer [1].
La computación paralela o procesamiento en paralelo
consiste en acelerar la ejecución de un programa medint
e su descomposición en fragmentos que pueden ejecuta
rse de forma simultánea, cada uno en su propia unidad d
e proceso. Surge así, de forma natural, la idea de la com
putación paralela, que genéricamente consiste en
De tal forma que los cluster computacionales se han
convertido en una plataforma muy importante dentro de
1
2. .
.
utilizar n computadores para multiplicar, idealmente
por
la
velocidad
computacional
obtenida de un único computador. Por supuesto, esta es
una situación ideal que muy rara vez se consigue en la
práctica. Normalmente, los problemas no pueden
dividirse
perfectamente
en
partes
totalmente
independientes y senecesita, por tanto, una interacción e
ntre ellas que ocasiona una disminución de la velocidad
computacional. En este sentido se habla de mayor o me
nor grado de paralelismo en la medida en que un
algoritmo sea más
o menos divisible en
partes independientes con igual costo computacional. [2]
En la actualidad como ya se conoce son varias las
empresas que usan este tipo de arquitectura paralela
con la finalidad de operar como un único recurso
computacional, sin embargo es importante mencionar
que cada computador puede utilizarse de forma
independiente o separada, es por ello que se intenta
que
los
nuevos supercomputadores
alcancen
velocidades cada vez mayores con el fin de que se
puedan solucionar fácilmente diversas aplicaciones del
mundo real en cualquier ámbito en el que se las ocupe.
Figura 1. Topología de red
4. REQUERIMIENTOS DE ROCKS 6.1
Al ingresar en la página web de rocks cluster nos
recomienda las siguientes características para cada
nodo:
Nodo Maestro:
3. INSTALACIÓN Y CONFIGURACIÓN
DE ROCKS CLUSTER DISTRIBUTION
6.1
Es el que administrara los nodos esclavos, por lo tanto
es solo uno, las características para ello son las
siguientes:
-
Rocks Cluster está basado en el sistema operativo
CentOS junto a un instalador anaconda que ayuda a
simplificar la instalación en masa de los nodos. Esta
instalación puede ser personalizada por los Cds Rolls,
algunos de ellos son: SGE, Cóndor Roll, Lustre Roll,
Java Roll y Ganglia Roll.
En nuestro caso hemos elegido de acuerdo a nuestras
necesidades los siguientes rolls:
-
-
Capacidad de Disco: 30GB.
Capacidad de Memoria: 1GB.
Tarjetas Ethernet: 2 puertos físicos, por ejemplo,
eth0" and "eth1.
Bios Boot: CD y red
Nodo Esclavo/s:
Pueden ser uno o varios nodos, los cuales son
administrados por el nodo maestro, las características
para estos son:
Os: es el sistema operativo de CentOS
Ganglia: sistema de monitoreo
Kernel: es el llamado núcleo de Rocks
Sge: es un sistema de cola de trabajos para
grid
Web-server: Ayuda con la instalación del
servidor web de Rocks cluster distribution
-
Capacidad de Disco: 25GB.
Capacidad de Memoria: 1GB.
Tarjetas Ethernet: 1 puerto físico, por ejemplo, eth0.
Bios Boot: Red y CD.
3.1TOPOLOGÍA
4.1 CARACTERÍSTICAS DE EQUIPOS
IMPLEMENTADOS
Previo a la instalación se debe considerar la topología a
utilizar. En la imagen siguiente se muestra como el
cluster homogéneo debe considerar la red privada y red
pública.
Nodo Maestro
Componente
Sistema Operativo
Procesador
Disco Duro
Memoria RAM
Tarjeta Ethernet
Características
Win 7 Home Basic 64 bits
Intel 3
500 GB
4 GB
RJ45
Tabla 1. Características de nodo maestro
2
3. .
.
Figura 1). Una vez culminada la instalación se procede a
instalar el nodo esclavo mediante la consola de CentOS,
ingresando el comando: insert-ethers donde se debe
ingresar el tipo de aplicación, en este caso es Compute.
Nodo Esclavo:
Componente
Sistema Operativo
Procesador
Disco Duro
Memoria RAM
Características
Win 7 32 bits
Interl 2 DUO 3.0GHZ
500 GB
4 GB
Tabla 2. Características de nodo esclavo
Router
Componente
Modelo
Puertos Ethernet
Antenas
Memoria RAM
Características
TP-LINK: TL-WR941ND
4 Velocidad de LAN
inalámbrica de hasta 270
Mbps, basada en la
especificación IEEE
802.11n (draft).
3 tipo Interno(DATOS
TECNICOS)
4 GB
Figura 2. Tipo de aplicación
5.1 INSTALACIÓN NODO ESCLAVO
Tabla 3. Características de router
Para que el nodo Maestro detecte el nodo esclavo se
debe bootear desde la red del equipo esclavo. Una vez
que el nodo maestro detecto la dirección mac del nodo)
del nodo esclavo (Observe la Figura),
Ethernet USB
Componente
Marca
Puerto
Tipo Ethernet
Características
Terrax
RJ45
Adaptador externo
Tabla 4. Características de Ethernet USB
Figura 3. MAC del nodo esclavo
5. INSTALACIÓN DE NODO MAESTRO
Para comenzar con su instalación se debe insertar la
imagen en cd de Rocks cluster 6.1 previamente
descargado
de
su
página
oficial:
http://www.rocksclusters.org/wordpress/?page_id=449.
se coloca un asterisco que indica que el nodo esclavo
está siendo instalado. Observar las imágenes
consiguientes donde demuestra lo explicado.
Una vez booteado el cd desde el CPU se procedió a
levantar la imagen iso donde aparece la ventana inicial
de Rocks; dado que se instaló un nuevo fronted se
ingresó el comando build. A continuación luego de
cargar todas las interfaces de red necesarias para el
nodo maestro se procedió a seleccionar los rolls
mencionados en el punto 2.1.
Una vez realizado esto, se continua a personalizar la
configuración del nodo; Rocks da la posibilidad de
colocarle un nombre propio al nodo; el nuestro se llama”
Nodo Maestro”.
Ahora conlleva la parte más importante de la
configuración que es la topología de red.
Como ip privada en la eth0 se colocó una ip de: 10.1.1.2
con mascara de 255.255.255.0 mientras que para la ip
publica la eth1 con una ip de 172.16.39.101 con
mascara de 255.255.255.0. Su Gateway por defecto es
172.16.50.58 con un DNS server de 8.8.8.8. (Observar
Figura 4. Asterisco de instalación
6. RESULTADOS
Una vez que culminó la instalación del nodo hijo se
procede a insertar en el terminal del nodo maestro el
siguiente comando: “rocks list host” para comprobar que
el nodo esclavo a sido detectado.
3
4. .
.
-
Figura 5. Nodos instalados en fronted
8. CONCLUSIONES
Gracias a las utilidades del cluster implementado, se
puede manipular totalmente el nodo esclavo, a
continuación se muestran los comandos que
comprueban lo dicho
a)
Luego de la implementación del cluster virtual se
puede llegar a las siguientes conclusiones.
-
Acceso al equipo esclavo desde maestro
Figura 6. Acceso al nodo esclavo
b)
El proyecto ha sido de vital ayuda para contribuir
con el aprendizaje de los contenidos revisados en el
componente
educativo
de
Arquitectura
y
Computación Paralela a cerca de lo que son y
cómo funciona un clúster, el mismo que está listo
para trabajar cuando sea necesario. Es importante
mencionar que una vez instalado y configurado el
cluster se pueden realizar varias operaciones, como
insertar, eliminar, listar e ingresar nodos, ya que
estas operaciones son posibles de acuerdo a los
roles instalados.
9. RECOMENDACIONES
Apagado del equipo esclavo
-
-
Figura 7. Nodo esclavo apagado
c)
Topología de red errónea.
Incompatibilidad con el hardware, debido a que se
necesita computadoras homogéneas.
El sistema de monitoreo Ganglia no reconoce, los
nodos instalados en el nodo maestro.
-
Ping de nodo esclavo a nodo maestro realizado
desde el master
Antes de empezar con la instalación del cluster es
importante armar bien la topología de red.
Identificar tecnologías homogéneas ya que con ellas
se evita varios inconvenientes de compatibilidad.
Descargar la imagen completa con todos los rolls
que vienen por defecto en rocks 6.1, ya que con ello
no se tendrá inconvenientes al momento de la
instalación.
Tener cuidado al momento de escoger la partición
del disco ya que si se elige automática el disco se
formatea completamente del tal manera se
recomienda seleccionar manual.
Para que la instalación de los nodos sea efectiva en
el nodo maestro, al momento de seleccionar
COMPUTE usted secuencialmente debe bootear
por red en el nodo esclavo para de tal forma pueda
copiar los archivos del maestro.
10. REFERENCIAS
[1] A. Múnera, J. William, “Implementa
tion
of
a
homogeneous cluster to troubleshoot high computational
complexity ”, IEEE Trans., Aceptado para su publicación.
Figura 8. Ping entre nodos
7. INCONVENIENTES
INSTALACIÓN
DURANTE
[2]´Orts Escolano , S., & Morell Giménez, V. (s.f.).
Computacion paralela. Recuperado el 06 de 11 de
2013,
de
http://www.dtic.ua.es/jgpu11/material/sesion1_jgpu1
1.pdf
LA
Durante la instalación de nuestro cluster se ha tenido
dificultades como:
4