Descripción General del Sistema

De NLHPC
Revisión del 18:21 22 abr 2024 de Jmorales (discusión | contribs.) (→‎Infraestructura Leftraru Epu)
(difs.) ← Revisión anterior | Revisión actual (difs.) | Revisión siguiente → (difs.)

National Laboratory for High Performance Computing

El NLHPC en Chile está dirigido a la instalación en Chile de una capacidad computacional que pueda satisfacer la demanda científica nacional de computación de alto rendimiento (HPC), ofreciendo servicios de alta calidad y promoviendo su uso en las problemáticas de Investigación tanto básica como también aplicada, con énfasis en aplicaciones industriales. En años recientes, el desarrollo de las ciencias aplicadas y la industria ha sido dirigido por el uso sofisticado de las tecnologías de la información y las comunicaciones (ICT), proceso en el cual HPC ha jugado un rol fundamental.

Nuestros servicios están diseñados para ofrecer soporte al ciclo de vida completo de la investigación e innovación basada en HPC.

Misión del NLHPC

La consolidación de una facilidad a nivel nacional de HPC al ofrecer servicios de alta calidad y training avanzado para así responder a la alta demanda de computación científica, desarrollando lazos entre grupos de investigación, la industria y el sector público.

Visión del NLHPC

Visionamos al NLHPC como un centro altamente competitivo con una gama de servicios para la investigación en computación de alto rendimiento de calidad de clase mundial.

Objetivo General

El NLHPC servirá como socio IT clave para los proyectos de investigación basados en HPC a gran escala.

Objetivos específicos

Desarrollar y dar soporte a recursos computacionales y de redes eficaces y confiables permitiendo a investigadores nacionales tener acceso a capacidad HPC para así resolver intensos problemas científicos de computación y data. Estimular y participar en la creación de una red nacional de alta velocidad para la transmisión de data de investigación Usar y explorar arquitecturas y técnicas innovadoras para acelerar la computación científica. Gatillar nuevas iniciativas industriales en HPC. Ayudar a educar a las próximas generaciones de científicos e ingenieros en HPC. Incrementar la conciencia social sobre el rol de HPC en la sociedad contemporánea y el desarrollo tecnológico.

Infraestructura Guacolda-Leftraru Epu

Infraestructura Leftraru Epu

  • 280 TFlops total de rendimiento (sin coprocesadores)
  • 7.360 cores total de cómputo
  • 24.320 GB total de memoria RAM
  • 27 nodos main
    • 2 x AMD EPYC 9754 @ 2.25GHz, 128 cores c/u
    • 768 GB de RAM c/u
  • 2 nodos master
    • 2 x AMD EPYC 9224 @ 2.5GHz Processor, 24 cores c/u
    • 384 GB de RAM c/u
  • 2 nodos gpu MI210
    • 2 x AMD EPYC 9224 @ 2.5GHz Processor, 24 cores c/u
    • 1536 GB de RAM c/u
    • 6 tarjetas AMD Instinct MI210 c/u
  • 1 nodo gpu MI100
    • 2 x AMD EPYC 7713 @ 2.0GHz, 64 cores c/u
    • 502 GB de RAM c/u
    • 2 tarjetas AMD Instinct MI100 c/u.
  • Infiniband NDR 400 Gbps
  • Red servicio 1 Gpbs
  • Red XClarity Controller para administración de hardware
  • Racks enfriados por agua
  • Enfriamiento in-row respaldo
  • UPS 120 KVA autonomia: 30 mins

Infraestructura Guacolda

  • 196 TFlops total de rendimiento (sin coprocesadores)
  • 2.596 cores total de cómputo
  • 16.235 GB total de memoria RAM
  • 48 nodos General
    • 2 x Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz. 22 cores c/u
    • 187 GB de RAM c/u
  • 9 nodos largemem
    • 2 x Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz. 22 cores c/u
    • 765 GB de RAM c/u
  • 2 nodos v100
    • 2 x Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz. 22 cores c/u
    • 187 GB de RAM c/u
    • 2 x NVIDIA Tesla V100 c/u
  • Infiniband FDR 56 Gbps
  • Racks enfriados por agua
  • Enfriamiento in-row respaldo
  • UPS 120 KVA autonomia: 30 mins

Almacenamiento Cluster

  • Almacenamiento paralelo de clase mundial
  • Alto rendimiento en operaciones IO
  • Tolerante a fallas (alta disponibilidad)
  • Interconexión infiniband
  • Capacidades Big Data

Características en Guacolda-Leftraru Epu

  • 4 PB de almacenamiento IBM Elastic Storage System (IBM ESS 3200)
  • Almacenamiento metadata separado
  • 2 controladoras SFA en H.A