Diferencia entre revisiones de «Descripción General del Sistema»
Sin resumen de edición |
|||
(No se muestran 14 ediciones intermedias de 2 usuarios) | |||
Línea 16: | Línea 16: | ||
Desarrollar y dar soporte a recursos computacionales y de redes eficaces y confiables permitiendo a investigadores nacionales tener acceso a capacidad HPC para así resolver intensos problemas científicos de computación y data. Estimular y participar en la creación de una red nacional de alta velocidad para la transmisión de data de investigación Usar y explorar arquitecturas y técnicas innovadoras para acelerar la computación científica. Gatillar nuevas iniciativas industriales en HPC. Ayudar a educar a las próximas generaciones de científicos e ingenieros en HPC. Incrementar la conciencia social sobre el rol de HPC en la sociedad contemporánea y el desarrollo tecnológico. | Desarrollar y dar soporte a recursos computacionales y de redes eficaces y confiables permitiendo a investigadores nacionales tener acceso a capacidad HPC para así resolver intensos problemas científicos de computación y data. Estimular y participar en la creación de una red nacional de alta velocidad para la transmisión de data de investigación Usar y explorar arquitecturas y técnicas innovadoras para acelerar la computación científica. Gatillar nuevas iniciativas industriales en HPC. Ayudar a educar a las próximas generaciones de científicos e ingenieros en HPC. Incrementar la conciencia social sobre el rol de HPC en la sociedad contemporánea y el desarrollo tecnológico. | ||
== Infraestructura Guacolda-Leftraru == | == Infraestructura Guacolda-Leftraru Epu == | ||
=== Infraestructura Leftraru === | === Infraestructura Leftraru Epu=== | ||
* 280 TFlops total de rendimiento (sin coprocesadores) | |||
* 7.360 cores total de cómputo | |||
* 24.320 GB total de memoria RAM | |||
* 27 nodos main | |||
Infiniband | ** 2 x AMD EPYC 9754 @ 2.25GHz, 128 cores c/u | ||
Red servicio 1 Gpbs | ** 768 GB de RAM c/u | ||
Red | * 2 nodos master | ||
Racks enfriados por agua | ** 2 x AMD EPYC 9224 @ 2.5GHz Processor, 24 cores c/u | ||
Enfriamiento in-row respaldo | ** 384 GB de RAM c/u | ||
UPS 120 KVA autonomia: 30 mins | * 2 nodos gpu MI210 | ||
** 2 x AMD EPYC 9224 @ 2.5GHz Processor, 24 cores c/u | |||
** 1536 GB de RAM c/u | |||
** 6 tarjetas AMD Instinct MI210 c/u | |||
* 1 nodo gpu MI100 | |||
** 2 x AMD EPYC 7713 @ 2.0GHz, 64 cores c/u | |||
** 502 GB de RAM c/u | |||
** 2 tarjetas AMD Instinct MI100 c/u. | |||
* Infiniband NDR 400 Gbps | |||
* Red servicio 1 Gpbs | |||
* Red XClarity Controller para administración de hardware | |||
* Racks enfriados por agua | |||
* Enfriamiento in-row respaldo | |||
* UPS 120 KVA autonomia: 30 mins | |||
=== Infraestructura Guacolda === | === Infraestructura Guacolda === | ||
48 nodos | * 196 TFlops total de rendimiento (sin coprocesadores) | ||
9 nodos | * 2.596 cores total de cómputo | ||
2 nodos | * 16.235 GB total de memoria RAM | ||
* 48 nodos General | |||
** 2 x Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz. 22 cores c/u | |||
** 187 GB de RAM c/u | |||
* 9 nodos largemem | |||
** 2 x Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz. 22 cores c/u | |||
** 765 GB de RAM c/u | |||
* 2 nodos v100 | |||
** 2 x Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz. 22 cores c/u | |||
** 187 GB de RAM c/u | |||
** 2 x NVIDIA Tesla V100 c/u | |||
* Infiniband FDR 56 Gbps | |||
* Racks enfriados por agua | |||
* Enfriamiento in-row respaldo | |||
* UPS 120 KVA autonomia: 30 mins | |||
=== Almacenamiento Cluster === | === Almacenamiento Cluster === | ||
Almacenamiento paralelo de clase mundial | * Almacenamiento paralelo de clase mundial | ||
Alto rendimiento en operaciones IO | * Alto rendimiento en operaciones IO | ||
Tolerante a fallas (alta disponibilidad) | * Tolerante a fallas (alta disponibilidad) | ||
Interconexión infiniband | * Interconexión infiniband | ||
Capacidades Big Data | * Capacidades Big Data | ||
Características en Guacolda-Leftraru | |||
Características en Guacolda-Leftraru Epu | |||
4 PB de almacenamiento IBM Elastic Storage System (IBM ESS 3200) | * 4 PB de almacenamiento IBM Elastic Storage System (IBM ESS 3200) | ||
Almacenamiento metadata separado | * Almacenamiento metadata separado | ||
2 controladoras SFA en H.A | * 2 controladoras SFA en H.A |
Revisión actual - 18:21 22 abr 2024
National Laboratory for High Performance Computing
El NLHPC en Chile está dirigido a la instalación en Chile de una capacidad computacional que pueda satisfacer la demanda científica nacional de computación de alto rendimiento (HPC), ofreciendo servicios de alta calidad y promoviendo su uso en las problemáticas de Investigación tanto básica como también aplicada, con énfasis en aplicaciones industriales. En años recientes, el desarrollo de las ciencias aplicadas y la industria ha sido dirigido por el uso sofisticado de las tecnologías de la información y las comunicaciones (ICT), proceso en el cual HPC ha jugado un rol fundamental.
Nuestros servicios están diseñados para ofrecer soporte al ciclo de vida completo de la investigación e innovación basada en HPC.
Misión del NLHPC
La consolidación de una facilidad a nivel nacional de HPC al ofrecer servicios de alta calidad y training avanzado para así responder a la alta demanda de computación científica, desarrollando lazos entre grupos de investigación, la industria y el sector público.
Visión del NLHPC
Visionamos al NLHPC como un centro altamente competitivo con una gama de servicios para la investigación en computación de alto rendimiento de calidad de clase mundial.
Objetivo General
El NLHPC servirá como socio IT clave para los proyectos de investigación basados en HPC a gran escala.
Objetivos específicos
Desarrollar y dar soporte a recursos computacionales y de redes eficaces y confiables permitiendo a investigadores nacionales tener acceso a capacidad HPC para así resolver intensos problemas científicos de computación y data. Estimular y participar en la creación de una red nacional de alta velocidad para la transmisión de data de investigación Usar y explorar arquitecturas y técnicas innovadoras para acelerar la computación científica. Gatillar nuevas iniciativas industriales en HPC. Ayudar a educar a las próximas generaciones de científicos e ingenieros en HPC. Incrementar la conciencia social sobre el rol de HPC en la sociedad contemporánea y el desarrollo tecnológico.
Infraestructura Guacolda-Leftraru Epu
Infraestructura Leftraru Epu
- 280 TFlops total de rendimiento (sin coprocesadores)
- 7.360 cores total de cómputo
- 24.320 GB total de memoria RAM
- 27 nodos main
- 2 x AMD EPYC 9754 @ 2.25GHz, 128 cores c/u
- 768 GB de RAM c/u
- 2 nodos master
- 2 x AMD EPYC 9224 @ 2.5GHz Processor, 24 cores c/u
- 384 GB de RAM c/u
- 2 nodos gpu MI210
- 2 x AMD EPYC 9224 @ 2.5GHz Processor, 24 cores c/u
- 1536 GB de RAM c/u
- 6 tarjetas AMD Instinct MI210 c/u
- 1 nodo gpu MI100
- 2 x AMD EPYC 7713 @ 2.0GHz, 64 cores c/u
- 502 GB de RAM c/u
- 2 tarjetas AMD Instinct MI100 c/u.
- Infiniband NDR 400 Gbps
- Red servicio 1 Gpbs
- Red XClarity Controller para administración de hardware
- Racks enfriados por agua
- Enfriamiento in-row respaldo
- UPS 120 KVA autonomia: 30 mins
Infraestructura Guacolda
- 196 TFlops total de rendimiento (sin coprocesadores)
- 2.596 cores total de cómputo
- 16.235 GB total de memoria RAM
- 48 nodos General
- 2 x Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz. 22 cores c/u
- 187 GB de RAM c/u
- 9 nodos largemem
- 2 x Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz. 22 cores c/u
- 765 GB de RAM c/u
- 2 nodos v100
- 2 x Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz. 22 cores c/u
- 187 GB de RAM c/u
- 2 x NVIDIA Tesla V100 c/u
- Infiniband FDR 56 Gbps
- Racks enfriados por agua
- Enfriamiento in-row respaldo
- UPS 120 KVA autonomia: 30 mins
Almacenamiento Cluster
- Almacenamiento paralelo de clase mundial
- Alto rendimiento en operaciones IO
- Tolerante a fallas (alta disponibilidad)
- Interconexión infiniband
- Capacidades Big Data
Características en Guacolda-Leftraru Epu
- 4 PB de almacenamiento IBM Elastic Storage System (IBM ESS 3200)
- Almacenamiento metadata separado
- 2 controladoras SFA en H.A