Diferencia entre revisiones de «Descripción General del Sistema»
(No se muestran 6 ediciones intermedias del mismo usuario) | |||
Línea 20: | Línea 20: | ||
* 280 TFlops total de rendimiento (sin coprocesadores) | * 280 TFlops total de rendimiento (sin coprocesadores) | ||
* 7.360 cores total de cómputo | * 7.360 cores total de cómputo | ||
* 24.320 GB total de memoria RAM | * 24.320 GB total de memoria RAM | ||
* 27 nodos main | * 27 nodos main | ||
** 2 x AMD EPYC 9754 @ 2.25GHz, 128 cores c/u 768 GB de RAM | ** 2 x AMD EPYC 9754 @ 2.25GHz, 128 cores c/u | ||
* 2 nodos master | ** 768 GB de RAM c/u | ||
* 2 nodos gpu MI210 | * 2 nodos master | ||
*1 nodo gpu MI100 | ** 2 x AMD EPYC 9224 @ 2.5GHz Processor, 24 cores c/u | ||
* Infiniband | ** 384 GB de RAM c/u | ||
* 2 nodos gpu MI210 | |||
** 2 x AMD EPYC 9224 @ 2.5GHz Processor, 24 cores c/u | |||
** 1536 GB de RAM c/u | |||
** 6 tarjetas AMD Instinct MI210 c/u | |||
* 1 nodo gpu MI100 | |||
** 2 x AMD EPYC 7713 @ 2.0GHz, 64 cores c/u | |||
** 502 GB de RAM c/u | |||
** 2 tarjetas AMD Instinct MI100 c/u. | |||
* Infiniband NDR 400 Gbps | |||
* Red servicio 1 Gpbs | * Red servicio 1 Gpbs | ||
* Red XClarity Controller para administración de hardware | * Red XClarity Controller para administración de hardware | ||
Línea 35: | Línea 44: | ||
=== Infraestructura Guacolda === | === Infraestructura Guacolda === | ||
* | * 196 TFlops total de rendimiento (sin coprocesadores) | ||
* 2.596 cores total de cómputo | * 2.596 cores total de cómputo | ||
* 16.235 GB total de memoria RAM | * 16.235 GB total de memoria RAM | ||
* 48 nodos | * 48 nodos General | ||
* 9 nodos | ** 2 x Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz. 22 cores c/u | ||
* 2 nodos | ** 187 GB de RAM c/u | ||
* 9 nodos largemem | |||
** 2 x Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz. 22 cores c/u | |||
** 765 GB de RAM c/u | |||
* 2 nodos v100 | |||
** 2 x Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz. 22 cores c/u | |||
** 187 GB de RAM c/u | |||
** 2 x NVIDIA Tesla V100 c/u | |||
* Infiniband FDR 56 Gbps | * Infiniband FDR 56 Gbps | ||
* Racks enfriados por agua | * Racks enfriados por agua |
Revisión actual - 18:21 22 abr 2024
National Laboratory for High Performance Computing
El NLHPC en Chile está dirigido a la instalación en Chile de una capacidad computacional que pueda satisfacer la demanda científica nacional de computación de alto rendimiento (HPC), ofreciendo servicios de alta calidad y promoviendo su uso en las problemáticas de Investigación tanto básica como también aplicada, con énfasis en aplicaciones industriales. En años recientes, el desarrollo de las ciencias aplicadas y la industria ha sido dirigido por el uso sofisticado de las tecnologías de la información y las comunicaciones (ICT), proceso en el cual HPC ha jugado un rol fundamental.
Nuestros servicios están diseñados para ofrecer soporte al ciclo de vida completo de la investigación e innovación basada en HPC.
Misión del NLHPC
La consolidación de una facilidad a nivel nacional de HPC al ofrecer servicios de alta calidad y training avanzado para así responder a la alta demanda de computación científica, desarrollando lazos entre grupos de investigación, la industria y el sector público.
Visión del NLHPC
Visionamos al NLHPC como un centro altamente competitivo con una gama de servicios para la investigación en computación de alto rendimiento de calidad de clase mundial.
Objetivo General
El NLHPC servirá como socio IT clave para los proyectos de investigación basados en HPC a gran escala.
Objetivos específicos
Desarrollar y dar soporte a recursos computacionales y de redes eficaces y confiables permitiendo a investigadores nacionales tener acceso a capacidad HPC para así resolver intensos problemas científicos de computación y data. Estimular y participar en la creación de una red nacional de alta velocidad para la transmisión de data de investigación Usar y explorar arquitecturas y técnicas innovadoras para acelerar la computación científica. Gatillar nuevas iniciativas industriales en HPC. Ayudar a educar a las próximas generaciones de científicos e ingenieros en HPC. Incrementar la conciencia social sobre el rol de HPC en la sociedad contemporánea y el desarrollo tecnológico.
Infraestructura Guacolda-Leftraru Epu
Infraestructura Leftraru Epu
- 280 TFlops total de rendimiento (sin coprocesadores)
- 7.360 cores total de cómputo
- 24.320 GB total de memoria RAM
- 27 nodos main
- 2 x AMD EPYC 9754 @ 2.25GHz, 128 cores c/u
- 768 GB de RAM c/u
- 2 nodos master
- 2 x AMD EPYC 9224 @ 2.5GHz Processor, 24 cores c/u
- 384 GB de RAM c/u
- 2 nodos gpu MI210
- 2 x AMD EPYC 9224 @ 2.5GHz Processor, 24 cores c/u
- 1536 GB de RAM c/u
- 6 tarjetas AMD Instinct MI210 c/u
- 1 nodo gpu MI100
- 2 x AMD EPYC 7713 @ 2.0GHz, 64 cores c/u
- 502 GB de RAM c/u
- 2 tarjetas AMD Instinct MI100 c/u.
- Infiniband NDR 400 Gbps
- Red servicio 1 Gpbs
- Red XClarity Controller para administración de hardware
- Racks enfriados por agua
- Enfriamiento in-row respaldo
- UPS 120 KVA autonomia: 30 mins
Infraestructura Guacolda
- 196 TFlops total de rendimiento (sin coprocesadores)
- 2.596 cores total de cómputo
- 16.235 GB total de memoria RAM
- 48 nodos General
- 2 x Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz. 22 cores c/u
- 187 GB de RAM c/u
- 9 nodos largemem
- 2 x Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz. 22 cores c/u
- 765 GB de RAM c/u
- 2 nodos v100
- 2 x Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz. 22 cores c/u
- 187 GB de RAM c/u
- 2 x NVIDIA Tesla V100 c/u
- Infiniband FDR 56 Gbps
- Racks enfriados por agua
- Enfriamiento in-row respaldo
- UPS 120 KVA autonomia: 30 mins
Almacenamiento Cluster
- Almacenamiento paralelo de clase mundial
- Alto rendimiento en operaciones IO
- Tolerante a fallas (alta disponibilidad)
- Interconexión infiniband
- Capacidades Big Data
Características en Guacolda-Leftraru Epu
- 4 PB de almacenamiento IBM Elastic Storage System (IBM ESS 3200)
- Almacenamiento metadata separado
- 2 controladoras SFA en H.A