Download Diapositiva 1 - Proyecto e-CA - Instituto de Astrofísica de Andalucía

Document related concepts

Clúster (informática) wikipedia , lookup

MPICH wikipedia , lookup

Rocks Clusters wikipedia , lookup

Global File System (Red Hat) wikipedia , lookup

General Parallel File System wikipedia , lookup

Transcript
Supercomputación en el IAA
Jaime Perea Duarte
Dpto. Astronomía Extragaláctica
IAA-CSIC
Descripción de dos recursos de computación
Sistema para HPC.
Cluster, interconexión myrinet.
Sistema para pipeline de análisis de observaciones
Cluster, requerimientos de almacenamiento
Motivación inicial:
Simulación de Interacción y evolución de galaxias en grupos:
Dynamical Evolution of Compact Groups.
Supercomputer Simulations
J. Perea1,
E. Athanassoula2,
A. Bosma2,
C. García-Gómez3,
J.C. Lambert2,
A. del Olmo1,
J.M. Solanes4,
M.C. Toribio4 (the IDILICO collaboration)
1Instituto
de Astrofísica de Andalucía-CSIC, Spain
2Observatoire de Marseille-CNRS, France
3Universitat Rovira i Virgili, Spain,
4Institut de Ciències del Cosmos-Universitat de Barcelona, Spain.
Tratamiento de imágenes astronómicas
Proyecto Alhambra:
Cartografiado de cielo
en 20 filtros ópticos + 3
filtros infrarrojos.
Telescopio 3.5m CAHA
¿Cuáles son los problemas típicos?
Sistemas en autogravitación. Descritos por Ecuación de Vlasov,
ecuaciones en derivadas parciales. Se divide el espacio en celdas.
Las edp se pueden transformar en
enormes sistemas de ecuaciones,
directamente o mediante
tranformada de fourier.
Ecuaciones diferenciales o integro-diferenciales:
En los sistemas
autogravitantes se pueden
agregar componentes de gas
y disipativas.
Aunque el problema pasa a
ser de hidrodinámica, se
puede resolver mediante
EDOs usando técnicas como
SPH
Modelos que tratan de simular la
distribución de luz observada.
Hcg 79
Seyfert's
Sextet
Simulación de 106 partículas, 5 galaxias espirales en un tiempo de Hubble.
Sistema Hypercat, un día de integración en 32 nodos.
Hcg 16
Color images showing the luminous (left) and dark (right) matter density
in a simulation of a group of galaxies evolved for more than 10 Gyr until
the present epoch in the MareNostrum machine (the lighter the color the
higher the density).
The group contains a total of 107 particles initially distributed among 60
galaxies of various sizes and a uniform dark matter background.
Los nodos son ppc bajo Suse
Linux y van conectados por
myrinet (mpi), gigabit
(filesystems y acceso) y fast
ethernet para gestión remota.
¡También tenemos un cluster!
hypercat.iaa.es
Cluster de 16 nodos doble
Xeon 2Gb

Myrinet

Gigabit

Ethernet

MPI

OpenMP
Sistema para
implementación y análisis
Herramientas software necesarias para uso de un
cluster de Cálculo.

Gestión de sistema operativo, para clusters pequeñitos
puede merecer la pena una copia en disco local.

Sistema de ficheros común a todos los nodos.

Software de paso de mensajes (MPI)

Gestor de recursos, colas.

Herramientas de monitorización
Sistema Operativo:
Algún linux
Las herramientas interesantes las instalamos nosotros,
casi siempre desde fuente.
Sistemas de ficheros
Uno de los principales problemas en sistemas de cálculo
distribuido es el almacenamiento.
La alternativa más sencilla es tener un nodo como servidor
de disco mediante NFS (a ser posible NFS4)
Se exporta parte del sistema de ficheros a los demás
nodos.
NFS está mayor y no escala bien, aunque es válido como
$HOME donde se sitúan las configuraciones y en sistemas
pequeños (~64 nodos)
Una alternativa más veloz (y compleja) es exportar los
dispositivos (p.e. /dev/sda1)
Normalmente utilizaremos la red:

AoE: No tcp/ip, no pasa del router, muy veloz y barato

ISCSI: Complejo, más versátil, más lento.

Fibra: Muy veloz, no escala para nada (~4).
En éste caso es necesario instalar un sistema compartido.
En software libre existen GFS y OCFS2
La forma óptima en un cluster es también distribuir el
almacenamiento.
Opciones:

LUSTRE:
Usado, requiere kernel específico.

PVFS2:
Apropiado para MPI, paralelo.

GLUSTER:
Muy veloz y versátil, depende de fuse, lo
que lo limita a linux
Hay muchos más, GPFS se usa en MN
Gestor de recursos.
En casa he optado por Sun Grid Engine. Era el primero a
suertes
Como usuario una vez conocido uno, cambiar es fácil.
Desde el punto de vista del manager es como un dolor.
A nivel de usuario, se acceder a través de un gestor de recursos:
PBS – Torque:
es el más famoso
Sun Grid Engine: es el que usamos aquí
LoadLeveler:
qsub –
el de IBM
para submitir una tarea al cluster
qsub script.sh
qrsh - para submitir en interactivo.
#!/bin/sh
# script.sh
qstat - como va lo mio
#$ -pe mpi 24
#$ -q para
#
cd /scratch/jaime/simg/5379pm
sge_mpirun Gadget2.pm init.par
Paso de mensajes.
MPI, existen 3 alternativas en código abierto
MPICH – myricom proporciona una versión optimizada
para myrinet, es el más clásico y pelín antipático.
LAM – Desarrollo parado, muy buena interfaz de uso para
el usuario.
OPENMPI – Contiene un módulo gm, pero la latencia es
mayor que para mpich, no encaja bien (aún) con SGE. Es
el sistema del futuro
Global Arrays
Como monitorización, uso ganglia
Proyecto Alhambra
Utilización del
telescopio de 3.5m
CAHA
Omega CCD infrarroja de
2048x2048 píxeles
LAICA 4 CCDs de 4096x4096
píxeles
Se trata de desarrollar una pipeline de reducción de datos
"ciega" sin
interacción con el usuario.
Archivo Operativo (Datos Brutos y Resultados)
Pipeline Infrarroja: Dithering, Astrometría, Calibración
fotométrica.
Pipeline Óptica: Lo mismo más tratamiento de franjas en
el infrarrojocercano.
Pipeline de análisis.
Software: Base es iraf, python (pyraf), más nuestros
módulos específicos.
Una configuración de cluster también puede venir definida por un
sistema compartido de archivos (en linux es gfs u ocfs2). Una SAN,
queda conectada (fibra) a dos o más servidores, esto agiliza mucho el
acceso, pero escala mal.
Alta disponibilidad, aunque también se puede usar detrás de un
gestor de recursos. Este es el tipo de sistema que tenemos en
alhambra.iaa.es
Futuro:
Nuevos sistemas para alhambra. ALMACENAMIENTO
Hardware específico vs. Clusters. Análisis de grape
Unificación de los dos trabajos para nuevos
observatorios y misiones. Uso de sistemas distribuidos
(ficheros y procesos) en pipelines.
Uso del sistema gráfico para cálculo: