Diferenzas
Isto amosa as diferenzas entre a revisión seleccionada e a versión actual da páxina.
Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
centro:servizos:hpc [2022/09/08 16:53] – [Descripción] fernando.guillen | centro:servizos:hpc [2024/10/07 13:28] (actual) – [CONDA] jorge.suarez | ||
---|---|---|---|
Liña 24: | Liña 24: | ||
Para acceder al clúster, hay que solicitarlo previamente a través de [[https:// | Para acceder al clúster, hay que solicitarlo previamente a través de [[https:// | ||
- | El acceso se realiza mediante una conexión SSH al nodo de login: | + | El acceso se realiza mediante una conexión SSH al nodo de login (172.16.242.211): |
<code bash> | <code bash> | ||
ssh < | ssh < | ||
Liña 59: | Liña 59: | ||
</ | </ | ||
* Para desmontar la imagen usar el script // | * Para desmontar la imagen usar el script // | ||
+ | <code bash> | ||
+ | sudo umount_image.py | ||
+ | </ | ||
+ | <note warning> | ||
+ | El fichero solo puede montarse desde un único nodo si se hace en modo readwrite, pero puede montarse desde cualquier número de nodos en modo readonly. | ||
+ | </ | ||
El script de montaje tiene estas opciones: | El script de montaje tiene estas opciones: | ||
< | < | ||
Liña 110: | Liña 115: | ||
* Python 3.6.8 | * Python 3.6.8 | ||
* Perl 5.26.3 | * Perl 5.26.3 | ||
+ | En los nodos con GPU, además: | ||
+ | * nVidia Driver 510.47.03 | ||
+ | * CUDA 11.6 | ||
+ | * libcudnn 8.7 | ||
Para usar cualquier otro software no instalado en el sistema u otra versión del mismo hay tres opciones: | Para usar cualquier otro software no instalado en el sistema u otra versión del mismo hay tres opciones: | ||
- Usar Modules con los módulos que ya están instalados (o solicitar la instalación de un nuevo módulo si no está disponible) | - Usar Modules con los módulos que ya están instalados (o solicitar la instalación de un nuevo módulo si no está disponible) | ||
Liña 144: | Liña 152: | ||
uDocker está instalado como un módulo, así que es necesario cargarlo en el entorno: | uDocker está instalado como un módulo, así que es necesario cargarlo en el entorno: | ||
<code bash> | <code bash> | ||
- | ml uDocker | + | ml udocker |
</ | </ | ||
Liña 157: | Liña 165: | ||
<code bash> | <code bash> | ||
# Obtener miniconda | # Obtener miniconda | ||
- | wget https:// | + | wget https:// |
# Instalarlo | # Instalarlo | ||
- | sh Miniconda3-py39_4.11.0-Linux-x86_64.sh | + | bash Miniconda3-latest-Linux-x86_64.sh |
+ | # Inicializar miniconda para el shell bash | ||
+ | ~/ | ||
</ | </ | ||
- | |||
===== Uso de SLURM ===== | ===== Uso de SLURM ===== | ||
El gestor de colas en el cluster es [[ https:// | El gestor de colas en el cluster es [[ https:// | ||
Liña 167: | Liña 176: | ||
== Recursos disponibles == | == Recursos disponibles == | ||
<code bash> | <code bash> | ||
+ | hpc-login2 ~]# ver_estado.sh | ||
+ | ============================================================================================================= | ||
+ | NODO | ||
+ | ============================================================================================================= | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | ============================================================================================================= | ||
+ | TOTALES: [Cores : 3/688] [Mem(MB): 270000/ | ||
+ | |||
hpc-login2 ~]$ sinfo -e -o " | hpc-login2 ~]$ sinfo -e -o " | ||
# Hay un alias para este comando: | # Hay un alias para este comando: | ||
Liña 238: | Liña 268: | ||
# Hay un alias que muestra solo la información más relevante: | # Hay un alias que muestra solo la información más relevante: | ||
hpc-login2 ~]$ ver_colas | hpc-login2 ~]$ ver_colas | ||
- | Name | + | Name |
- | ---------- ---------- --------------- ----------- --------------------------- ----------- ------------- --------- ----------- | + | ---------- ---------- ------------------------------ ----------- -------------------- --------- ----------- |
- | | + | |
- | interactive | + | interacti+ |
- | urgent | + | urgent |
- | long 100 DenyOnLimit | + | long 100 gres/ |
- | | + | |
- | | + | |
+ | | ||
+ | | ||
</ | </ | ||
# Priority: es la prioridad relativa de cada cola. \\ | # Priority: es la prioridad relativa de cada cola. \\ | ||
Liña 258: | Liña 290: | ||
==== Envío de un trabajo al sistema de colas ==== | ==== Envío de un trabajo al sistema de colas ==== | ||
== Especificación de recursos == | == Especificación de recursos == | ||
- | Por defecto, si se envía un trabajo sin especificar nada el sistema lo envia a la QOS por defecto (regular) y le asigna un nodo, una CPU y toda la memoria disponible. El límite de tiempo para la ejecución del trabajo es el de la cola (4 días y 4 horas). | + | Por defecto, si se envía un trabajo sin especificar nada el sistema lo envia a la QOS por defecto (regular) y le asigna un nodo, una CPU y 4 GB de RAM. El límite de tiempo para la ejecución del trabajo es el de la cola (4 días y 4 horas). |
Esto es muy ineficiente, | Esto es muy ineficiente, | ||
- %%El número de nodos (-N o --nodes), tareas (-n o --ntasks) y/o CPU por tarea (-c o --cpus-per-task).%% | - %%El número de nodos (-N o --nodes), tareas (-n o --ntasks) y/o CPU por tarea (-c o --cpus-per-task).%% | ||
Liña 326: | Liña 358: | ||
# Obtener acceso interactivo a un nodo (Pulsar Ctrl+D para terminar el acceso): | # Obtener acceso interactivo a un nodo (Pulsar Ctrl+D para terminar el acceso): | ||
hpc-login2 ~]$ salloc -N1 | hpc-login2 ~]$ salloc -N1 | ||
+ | # Obtener acceso interactivo a un nodo DE FORMA EXCLUSIVA | ||
+ | hpc-login2 ~]$ salloc -N1 --exclusive | ||
</ | </ | ||
3. SRUN \\ | 3. SRUN \\ | ||
Liña 369: | Liña 403: | ||
## Ver el uso de recursos de un trabajo en ejecución: | ## Ver el uso de recursos de un trabajo en ejecución: | ||
hpc-login2 ~]$ sstat < | hpc-login2 ~]$ sstat < | ||
+ | |||
</ | </ | ||
==== Controlar la salida de los trabajos ==== | ==== Controlar la salida de los trabajos ==== | ||
Liña 410: | Liña 445: | ||
JOBID PARTITION | JOBID PARTITION | ||
6547 defaultPa | 6547 defaultPa | ||
+ | |||
+ | ## Ver estado de uso de las colas del cluster: | ||
+ | hpc-login2 ~]$ estado_colas.sh | ||
+ | JOBS PER USER: | ||
+ | -------------- | ||
+ | | ||
+ | | ||
+ | |||
+ | JOBS PER QOS: | ||
+ | -------------- | ||
+ | | ||
+ | long: 1 | ||
+ | |||
+ | JOBS PER STATE: | ||
+ | -------------- | ||
+ | | ||
+ | | ||
+ | ========================================== | ||
+ | Total JOBS in cluster: | ||
</ | </ | ||
Estados (STATE) más comunes de un trabajo: | Estados (STATE) más comunes de un trabajo: |