Manual de Instalacion de Rocks Viz SAGE

October 7, 2017 | Autor: Claudia Segura | Categoría: Technology, SAGE, Viz Roll
Share Embed


Descripción

38
38





Manuel Medina CarrilloKarla Karen Ramírez RomeroClaudia Ivette Segura RodríguezRicardo Martínez Castro 2014Manual de instalación: Rocks, Viz Roll y SAGE Instituto Tecnológico de Veracruz





Manuel Medina Carrillo
Karla Karen Ramírez Romero
Claudia Ivette Segura Rodríguez
Ricardo Martínez Castro


2014
Manual de instalación: Rocks, Viz Roll y SAGE


Instituto Tecnológico de Veracruz
Índice
Introducción a un clúster de alto rendimiento2
¿Qué es un clúster?2
Elementos de un clúster2
Procesadores2
Comunicaciones2
Sistemas Operativos3
Software3
Recursos Humanos3
instalación de rocks4
Requerimientos y Prerrequisitos4
Instalación y Configuración del Frontend5
Instalación y Configuración de los Nodos21
instalación y Configuración de Viz Roll24
Actualización de NVIDIA32
Configuración del Archivo XML35
Configuración de SAGE36















Introducción a un clúster de alto rendimiento
¿Qué es un clúster?
Clúster es un sistema de procesamiento de tipo paralelo o distribuido, que está formado de computadoras independientes, interconectadas entre sí, trabajando juntas como un solo recurso de cómputo intensivo.

Elementos de un clúster
Procesadores
Se pueden utilizar prácticamente cualquier tipo de procesadores. La tecnología actual los procesadores de una maquina accesible nos da un rendimiento similar a los procesadores de una supercomputadora.
En donde cada procesador posee una gran cantidad de cache, así como de altas velocidades y bajo costo.
Comunicaciones
Existen soluciones que necesitan pocos recursos económicos para interconectar los equipos que formaran parte del clúster. Se puede utilizar cualquier tipo de tecnología para la interconexión entre los equipos ya sea la utilización de redes Ethernet, Myrinet, Gigabit. Con el que se obtiene un gran ancho de banda disponible para la comunicación con bajas latencias.
Sistemas Operativos
Se puede utilizar cualquier sistema operativo para la creación de un clúster sin embargo se recomienda el uso de linux ya que este posee una gran estabilidad aunado a un buen rendimiento en cuanto a manejo de memoria, así como de I/O eficiente, así como la posibilidad de hacer un ajuste muy refinado a los parámetros de los dispositivos para un mejor rendimiento.
Software
Existe una gran cantidad de software que ya está listo para funcionar en un clúster, desde la aparición de los procesadores con HiperThreading (HT), la programación y la proliferación de software se ha desarrollado exponencialmente, con lo que se tiene una mayor cantidad de posibilidades para las diferentes disciplinas científicas.
Recursos Humanos
El elemento más importante para el funcionamiento de cualquier sistema es el elemento humano que capacitado en la administración y manejo necesario de recursos provee de un ambiente más amigable para aquellos usuarios que pretendan utilizar el clúster.
El clúster es fácilmente escalable a comparación de las supercomputadoras en donde la escalabilidad depende de una gran cantidad de recursos económicos. Con la facilidad de extender el clúster con equipo de bajo costo la escalabilidad no representa una gran limitante en el momento de agregar recursos necesarios para incrementar el poder de cómputo.
Existen además muchas herramientas en la actualidad para la administración y manejo del clúster, tanto en herramientas de monitoreo, así como de herramientas para la administración de trabajos y recursos.
El soporte en librerías para programación en paralelo está altamente desarrolladas, lo cual permite que la programación de nuevas aplicaciones que puedan funcionar en multiprocesamiento sea más sencillo.








Instalación de Rocks
Rocks es una distribución de Linux para clusters de computadores de alto rendimiento. Rocks se basó inicialmente en la distribución Red Hat Linux, sin embargo las versiones más modernas de Rocks están basadas en CentOS, con un instalador anaconda modificado, que simplifica la instalación 'en masa' en muchas computadoras.
Requerimientos y Prerrequisitos
Los requerimientos necesarios para instalar rocks son:
Un conjunto de máquinas de arquitectura similar (compute nodes), cada una con una interfaz de red, disco duro con capacidad para más de 7 GB y memoria RAM superior a 256 MB.

Un data switch (o varios) con un número de puertos mayor al doble del número de máquinas disponibles (para darle escalabilidad).

Una máquina con 2 interfaces de red, capacidad en disco duro igual o superior a 20 GB, y memoria RAM superior o igual a 512 MB (frontend).

Cables de red en número y longitud suficiente.

Mueble o Rack con espacio apropiado para los chasis de las máquinas y eventualmente para el frontend, con acceso apropiado a la parte de atrás de los equipos.

Una habitación con ventilación o refrigeración adecuada para los niveles de disipación de calor de todos los equipos combinados.

Una UPS para alimentar al menos una máquina (el frontend por ejemplo) por más de 10 minutos.

Para la instalación del sistema operativo se debe disponer de los siguientes medios (rolls) que puede ser descargados desde el sitio de rocks clústers (http://www.rocksclusters.org/):

Kernel Roll
Core Roll
OS Roll, disk 1
OS Roll disk 2
Cualquier otro Roll que considere necesario (Condor, Bio, Viz, etc.)



Instalación y configuración del Frontend
Antes de proceder con la instalación del frontend es necesario asegurarse que las conexiones de la red externa y la red interna del clúster se hagan en la interfaz de red correcta. Rocks asume que la interfaz identificada como 'eth1' por el kernel será aquella que está conectada a la red externa y la 'eth0' a la red privada del clúster.























El proceso de instalación resulta muy sencillo:
Una vez que conectamos los equipos y los ponemos en red, hay que encender la máquina que será el nodo maestro (Frontend), colocamos el disco de arranque (Boot) en la unidad de CD y reiniciamos la máquina para comenzar la instalación.

Una vez que aparece la pantalla de arriba, escribimos:
build
Después de escribir "build" el programa de instalación comenzara a funcionar.



Si aparece la siguiente pantalla:











1. Se habilitara el soporte de IPV4
2. Se seleccionara la configuración manual para el soporte IPV4
3. Desactivar el soporte IPV6
La pantalla debe quedar de esta forma:











Después de que la pantalla se vea como la de arriba, pulsamos "OK". Entonces veremos la pantalla "Manual TCP/IP Configuration":










En esta pantalla escribiremos la configuración de nuestra IP pública. Quedaría de la siguiente forma:










Después de llenar la información de nuestra IP pública, pulsamos "OK".




Inmediatamente nos aparecerá la siguiente pantalla.



En este procedimiento, sólo se va a utilizar el soporte de CD, por lo cual solo haremos clic en el botón "CD/DVD-based Roll".






El CD se expulsará y verá la siguiente pantalla:



Una vez ahí, volvemos a insertar el disco y damos clic en Continuar.








Nos saldrá la siguiente pantalla. Desde esta, seleccionaremos los roles "base, ganglia, hpc, Kernel, viz y web-server" y daremos clic en "Submit".











Nos aparecerá la siguiente pantalla donde se muestra que los roles fueron seleccionado de manera correcta.








Entonces veremos una pantalla que nos muestra la información de Clúster. Lo más importante aquí es el nombre del Host, los demás campos son opcionales. Cuando se tengan llenos los datos, damos clic en "Next".









La pantalla de configuración de la red privada del clúster permite configurar los parámetros de red para la red ethernet que conecta la interfaz para los nodos de computación.



Se pueden dejar los valores por defecto y damos clic en "Next".





La pantalla de configuración de red de clúster pública le permite configurar los parámetros de red para la red ethernet que conecta la interfaz con la red exterior (por ejemplo, Internet).Cuando este configurado damos clic en "Next".










Configure las de puerta de enlace yentradasDNS:











Introduzca la contraseña de root:











Configuramos el tiempo, una vez terminado damos clic en "Next".











La pantalla de particionado de disco le permite seleccionar automática o manualmente el particionamiento del disco.




Seleccionamos la "Auto Partitioning" y damos clic en "Next".





Se instalaran los paquetes.


Por último, se instalará el gestor de arranque y los scripts de configuración. Cuando se complete la instalación, el frontend se reiniciará.







Instalación y configuración de los nodos
Lo primero que hacemos es ingresar como root.
Abrimos una terminal y escribimos lo siguiente:
# insert-ethers
Nos aparecerá la siguiente pantalla:










Seleccionamos la palabra "Compute" y damos clic en "OK".
Entonces veremos lo siguiente:










Esto nos indica que elinsert-ethersestá esperando por un nuevo nodo de computadora.
Encendemos la computadora que será nuestro primer nodo.

Cuando elfrontend recibe el requerimiento DHCP de la computadora nodo, veremos lo siguiente:











La pantalla de arriba se visualizara durante unos segundos, después veremos lo siguiente:












En esta pantalla deinsert-ethersha descubierto un nuevo nodo.











El "()" junto a "compute-0-0" indica que ese nodo aún no ha solicitado un archivo kikstar. Este tipo de salida se muestra para cada nodo que es satisfactoriamente identificado por insert-ethers.














Instalación y configuración de Viz Roll
El Viz Roll puede ser seleccionado durante la instalación inicial del clúster. Tal como se muestra en la página 11 de este documento.
Se debe seleccionar el Viz al saber la lista de roles disponibles, ya que este tiene precargado SAGE por defecto.










Después de que el frontend está instalado y arrancado, aparecerá una pantalla de inicio de sesión basado en X11, como se muestra a continuación.


Entonces se inicia la sesión como "root" utilizando la contraseña que se proporcionó durante la instalación del frontend.







Una vez que iniciamos sesión como "root", abrimos una terminal.











La primera vez que iniciamos sesión como root en modo gráfico, tenemos que configurar la clave ssh. Para esto abrimos una terminal e ingresamos a la ruta /root/.ssh, en esta ruta encontraremos los siguientes ficheros:



De los archivos anteriores únicamente vamos a crear el archivo authorized_keys, copiando la clave pública que se encuentra contenida en el archivo id_rsa.pub, el cual se encuentra en la ruta siguiente:

/root/.ssh/id_rsa.pub





Después de lo anterior, procedemos a configurar los nodos para que comiencen a trabajar como un muro, de modo que ingresamos en consola y tecleamos
# insert-ethers
Nos parecerá una pantalla como esta:

Y tal como lo indica la flecha roja, seleccionaremos "Tile" y daremos clic en "OK".
Cuando insert-ethers descubre el nuevo nodo, nos aparecerá la siguiente pantalla.











Una vez que el nodo ha completado la instalación, se debe reiniciar el sistema.

Después de que todas las filas de la primera columna se instalan, salimos insert-ethers pulsando la tecla "F8" y reiniciamos con el siguiente comando:

# insert-ethers --cabinet=1 pendiente

Ahora repetimos el proceso anterior para cada nodo que quiera ser instalado.
Debemos tomar en cuenta que para poder usar el muro de visualización, es requisito tener tarjetas GPU NVIDIA con el driver actualizado.
En el primer inicio de sesión de los nodos que conforman el muro, nos aparecerá un fallo en la interfaz gráfica. El cual nos preguntará si deseamos ver la salida del servidor X para diagnosticar el problema. Damos clic en "No".






Después nos aparecerá una pantalla que nos preguntará si nos gustaría tratar de configurar el servidor X. Damos clic en"Yes".

Y de inmediato nos piden ingresar la contraseña de root.





Después de lo anterior, nos aparecerá la pantalla de configuraciones del display y es allí donde seleccionaremos la resolución de nuestra preferencia.

Una vez hecho esto, guardamos los cambios y de inmediato nos aparecerá un aviso que nos indica que la configuración del display ha sido modificada. Damos clic en "OK" para confirmarlo.






Actualización de NVIDIA
Si está activo el servidor grafico X11 habrá que matar el proceso mediante el comando init3, después de esto iremos a la ruta de nuestro controlador y lo ejecutaremos.

Una vez cargado al 100% nos preguntara si deseamos instalar las bibliotecas de compatibilidad NVIDIA de 32 bits, entonces daremos clic en "Yes".



Luego nos notificarán que las librerías han sido instaladas correctamente y daremos clic en "OK".

Después nos aparecerá una pantalla que nos preguntará si queremos ejecutar la utilidad NVIDIA-xconfig, con el fin de actualizar automáticamente el archivo de configuración que utilizará NVIDIA cuando se reinicie el servidor X, tomando en cuenta que cualquier archivo de configuración del servidor X será respaldado. En este caso seleccionamos "Yes" para continuar.



Lo anterior nos generará una notificación, en la que se nos indica que el archivo de configuración del servidor X se ha actualizado correctamente y que la instalación del Acelerador Grafico de NVIDIA ha sido completada. Damos clic en "Ok".

Una vez terminada la actualización tendremos que reiniciar el servidor X11 con el comando init 5, los nodos se verán de la siguiente manera.


Configuración del archivo XML

Ya que tenemos actualizado el driver de NVIDIA, procedemos a configurar el archivo XML, que es el que se va a encargar de sincronizar los nodos. La sintaxis es muy simple y el propio XML asigna las dimensiones del muro. Cada etiqueta col describe una columna vertical del muro, con los nodos enumerados de arriba a abajo.

Después de actualizar el archivo layout.xml, desde consola tecleamos el siguiente comando para guardar los cambios:
# rocksadd tile layout layout.xml

Finalmente, reconfiguramos las pantallas del muro con el comando siguiente:
# rockssync tile mode=meta







Configuración de SAGE
Como se vio anteriormente, el Viz Roll ya trae precargado SAGE; por lo tanto solo nos resta configurarlo.
Para iniciar debemos abrir una terminal y teclear el siguiente comando cd /.sage, para comenzar a editar nuestro archivo fsManager.conf utilizando el editor de texto de nuestra preferencia.
Este archivo contiene el nombre y la dirección IP de la máquina en la que se ejecutará el freeSpaceManager. Se pueden especificar dos direcciones IP, la primera dirección se utiliza para los componentes del sistema y la segunda se utilizará para las conexiones de la interfaz de usuario.














Después procedemos a configurar el archivo stdtile.conf el cual contendrá:

Las dimensiones del muro
La resolución de cada nodo
El número de máquinas en el clúster
La lista de todas las direcciones IP de los nodos









Por ultimo modificamos el archivo tileNodes.list que contiene las direcciones IP de los nodos

Una vez que nuestros archivos han sido modificados exitosamente, estaremos listos para arrancar con SAGE.










Aquí no es puede ser.. sino que debe de estar seleccionado. Lo que hay que decir que si se quiere usar se debe estar seguro de haberlo instalado al inicio ya que después no se puede agregar. Eso lei de este roll en particular.. otros si permiten una instalación posterior


YA
Esto es contradictorio.. las filas de la 1ª columna?

YA
Para que es este comando?. NO es clara la explicacion
Como le instala el driver actualizado si aun no instala?

YA
Donde da este comando? Hay que decir que se abre una consola y además que yo sepa con init3 no mata el proceso. Revisar esto.

YA
Donde esta este archivo? O lo crea el usuario?

YA
Definir previamente que es el freespacemanager

YA
Donde esta este archivo? Que ruta?


YA
Igual.. cual es la ruta de este archivo?

YA
Falta hablar de lo ultimo de la demo que usaron.

Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.