Diferencias
Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa | ||
es:centro:servizos:servidores_de_computacion_gpgpu [2019/09/16 10:18] – [Conexión con los servidores] fernando.guillen | es:centro:servizos:servidores_de_computacion_gpgpu [2023/01/11 13:58] (actual) – [Descripción del servicio] fernando.guillen | ||
---|---|---|---|
Línea 5: | Línea 5: | ||
Servidores con gráficas: | Servidores con gráficas: | ||
- | * '' | ||
- | * Servidor Supermicro X8DTG-D | ||
- | * 2 procesadores [[http:// | ||
- | * 10 GB de memoria RAM (5 DIMM a 1333 MHz) | ||
- | * 2 tarjetas Nvidia GF100 [Tesla S2050] | ||
- | * Algunas de las tarjetas se encuentra temporalmente en otro servidor para unas pruebas. Por lo tanto, de momento sólo hay una tarjeta disponible. | ||
- | * Sistema operativo Ubuntu 10.04 | ||
- | * CUDA versión 5.0 | ||
- | * '' | ||
- | * Servidor Dell Precision R5400 | ||
- | * 2 procesadores [[http:// | ||
- | * 8 GB de memoria RAM (4 DDR2 FB-DIMM a 667 MHz) | ||
- | * 1 tarjeta Nvidia GK104 [Geforce GTX 680] | ||
- | * Sistema operativo Ubuntu 18.04 | ||
- | * Slurm (//de uso obligatorio para la gestión de trabajos//) | ||
- | * CUDA 9.2 (// | ||
- | * Docker-ce 18.06 (// | ||
- | * Nvidia-docker 2.0.3 (// | ||
- | * Nvidia cuDNN v7.2.1 for CUDA 9.2 | ||
- | * Intel Parallel Studio Professional for C++ 2015 (// | ||
* '' | * '' | ||
* Servidor PowerEdge R720 | * Servidor PowerEdge R720 | ||
Línea 32: | Línea 12: | ||
* Gigabyte GeForce GTX Titan 6GB (2014) | * Gigabyte GeForce GTX Titan 6GB (2014) | ||
* Nvidia Titan X Pascal 12GB (2016) | * Nvidia Titan X Pascal 12GB (2016) | ||
- | * Nvidia Titan Xp 12GB (2017) | ||
- | * Nvidia Quadro P6000 24GB (2018) | ||
* Sistema operativo Ubuntu 18.04 | * Sistema operativo Ubuntu 18.04 | ||
* Slurm (//de uso obligatorio para la gestión de trabajos//) | * Slurm (//de uso obligatorio para la gestión de trabajos//) | ||
- | * CUDA 9.2 (// | + | * CUDA 10.2 (// |
* Docker-ce 18.06 (// | * Docker-ce 18.06 (// | ||
* Nvidia-docker 2.0.3 (// | * Nvidia-docker 2.0.3 (// | ||
Línea 58: | Línea 36: | ||
* 128 GB de memoria RAM (4 DDR4 DIMM a 2400MHz) | * 128 GB de memoria RAM (4 DDR4 DIMM a 2400MHz) | ||
* 2 tarxeta Nvidia GP102GL [Tesla P40] | * 2 tarxeta Nvidia GP102GL [Tesla P40] | ||
- | * Sistema operativo Ubuntu | + | * Sistema operativo Ubuntu |
- | * **Slurm para a xestión | + | * **Slurm para la gestión |
* ** Modules para la gestión de versiones de bibliotecas**. | * ** Modules para la gestión de versiones de bibliotecas**. | ||
- | * CUDA versión | + | * CUDA versión |
* OpenCV 2.4 y 3.4 | * OpenCV 2.4 y 3.4 | ||
* Atlas 3.10.3 | * Atlas 3.10.3 | ||
Línea 67: | Línea 45: | ||
* TensorFlow | * TensorFlow | ||
* Caffee | * Caffee | ||
- | * '' | + | * '' |
- | | + | * Servidor SIE LADON 4214 |
+ | * 2 procesadores | ||
+ | * 192 GB de memoria RAM (12 DDR4 DIMM a 2933MHz) | ||
+ | * Nvidia Quadro P6000 24GB (2018) | ||
+ | * Nvidia Quadro RTX8000 48GB (2019) | ||
+ | * Sistema operativo Centos 7.7 | ||
+ | * Driver Nvidia 418.87.00 para CUDA 10.1 | ||
+ | * Docker 19.03 | ||
+ | * [[https:// | ||
+ | * '' | ||
+ | * Integrado en el clúster de computación como hpc-gpu2. | ||
+ | * '' | ||
+ | * Integrado en el clúster de computación como hpc-gpu1. | ||
===== Alta en el servicio ===== | ===== Alta en el servicio ===== | ||
- | Todos los usuarios del CiTIUS pueden acceder a este servicio, | + | Aunque todos los usuarios del CiTIUS pueden acceder a este servicio, |
===== Manual de usuario ===== | ===== Manual de usuario ===== | ||
==== Conexión con los servidores ==== | ==== Conexión con los servidores ==== | ||
Para conectarse a los servidores, debes hacerlo a través de SSH. El nombre y las direcciones IP de los servidores son las siguientes: | Para conectarse a los servidores, debes hacerlo a través de SSH. El nombre y las direcciones IP de los servidores son las siguientes: | ||
- | * ctgpgpu1.inv.usc.es - 172.16.242.91: | + | |
- | * ctgpgpu2.inv.usc.es - 172.16.242.92: | + | |
* ctgpgpu3.inv.usc.es - 172.16.242.93: | * ctgpgpu3.inv.usc.es - 172.16.242.93: | ||
* ctgpgpu4.inv.usc.es - 172.16.242.201: | * ctgpgpu4.inv.usc.es - 172.16.242.201: | ||
* ctgpgpu5.inv.usc.es - 172.16.242.202: | * ctgpgpu5.inv.usc.es - 172.16.242.202: | ||
+ | * ctgpgpu6.inv.usc.es - 172.16.242.205: | ||
+ | * ctgpgpu7.inv.usc.es - 172.16.242.207: | ||
+ | * ctgpgpu8.inv.usc.es - 172.16.242.208: | ||
- | La conexión solo está disponible desde la red del centro. Para conectarse desde otras localizaciones o desde la red de la RAI es necesario hacer uso de la [[: | + | La conexión solo está disponible desde la red del centro. Para conectarse desde otras localizaciones o desde la red de la RAI es necesario hacer uso de la [[es: |
==== Apagado/ | ==== Apagado/ | ||
Línea 92: | Línea 84: | ||
==== Gestión de los trabajos con SLURM ==== | ==== Gestión de los trabajos con SLURM ==== | ||
- | En '' | + | En los servidores |
Para enviar un trabajo a la cola se utiliza el comando '' | Para enviar un trabajo a la cola se utiliza el comando '' | ||
Línea 98: | Línea 90: | ||
srun programa_cuda argumentos_programa_cuda | srun programa_cuda argumentos_programa_cuda | ||
- | El proceso '' | + | El proceso '' |
Alternativamente, | Alternativamente, |