Diferencia entre revisiones de «Hardware Disponible»
De NLHPC
Sin resumen de edición Etiqueta: Reversión manual |
Sin resumen de edición |
||
(No se muestran 8 ediciones intermedias del mismo usuario) | |||
Línea 108: | Línea 108: | ||
</th></tr> | </th></tr> | ||
<tr> | <tr> | ||
<td> | <td>gn003</td> | ||
<td>Dell PowerEdge R7525</td> | <td>Dell PowerEdge R7525</td> | ||
<td>1</td> | <td>1</td> | ||
Línea 117: | Línea 117: | ||
</td></tr> | </td></tr> | ||
</table> | </table> | ||
<table border="0" style="background:#ffffff" align="top" class="sortable wikitable"> | <table border="0" style="background:#ffffff" align="top" class="sortable wikitable"> | ||
Línea 167: | Línea 140: | ||
<td>2</td> | <td>2</td> | ||
<td>2 x AMD EPYC 9224 @ 2.5GHz, 24 cores c/u.</td> | <td>2 x AMD EPYC 9224 @ 2.5GHz, 24 cores c/u.</td> | ||
<td> | <td>1.457 GB</td> | ||
<td>Infiniband | <td>Infiniband NDR | ||
</td></tr> | </td></tr> | ||
</table> | </table> | ||
Línea 189: | Línea 162: | ||
</th></tr> | </th></tr> | ||
<tr> | <tr> | ||
<td>mn00[1- | <td>mn00[1-27]</td> | ||
<td>Lenovo ThinkSystem SR645 V3</td> | <td>Lenovo ThinkSystem SR645 V3</td> | ||
<td> | <td>27</td> | ||
<td>2 x AMD EPYC 9754 @ 2,25GHz, 128 cores c/u.</td> | <td>2 x AMD EPYC 9754 @ 2,25GHz, 128 cores c/u.</td> | ||
<td>768 GB</td> | <td>768 GB</td> | ||
<td>Infiniband | <td>Infiniband NDR | ||
</td></tr> | </td></tr> | ||
</table> | </table> | ||
Línea 223: | Línea 196: | ||
<td>2 x AMD EPYC 9224 @ 2,5GHz, 24 cores c/u.</td> | <td>2 x AMD EPYC 9224 @ 2,5GHz, 24 cores c/u.</td> | ||
<td>768 GB</td> | <td>768 GB</td> | ||
<td>Infiniband | <td>Infiniband NDR | ||
</td></tr> | </td></tr> | ||
</table> | </table> | ||
La capacidad total de Guacolda- | La capacidad total de Guacolda-Leftraru Epu al día de hoy es de 9.956 CPU cores, 95.232 GPU cores y 479 TFlops. | ||
Para más información respecto a la utilización del sistema gestor de colas y uso de recursos vea el siguiente enlace: [https://wiki.nlhpc.cl/SISTEMA_GESTOR_DE_RECURSOS SLURM] | Para más información respecto a la utilización del sistema gestor de colas y uso de recursos vea el siguiente enlace: [https://wiki.nlhpc.cl/SISTEMA_GESTOR_DE_RECURSOS SLURM] |
Revisión actual - 20:28 26 abr 2024
El NLHPC cuenta actualmente con los siguientes recursos computacionales, distribuidos en varias particiones SLURM:
Nodo | Modelo | Cantidad | Procesador | RAM | Infiniband |
---|---|---|---|---|---|
sn[001-048] | Dell PowerEdge C6420 | 48 | 2 x Intel Xeon Gold 6152 CPU @ 2.10GHz, 22 cores C./U. | 187 GB | Infiniband FDR |
Nodo | Modelo | Cantidad | Procesador | RAM | Infiniband |
---|---|---|---|---|---|
fn[001-009] | Dell PowerEdge R640 | 9 | 2 x Intel Xeon Gold 6152 CPU @ 2.10GHz, 22 cores C./U. | 765 GB | Infiniband FDR |
Nodo | Modelo | Cantidad | Procesador | GPU | RAM | Infiniband |
---|---|---|---|---|---|---|
gn[001-002] | Dell PowerEdge R740 | 2 | 2 x Intel Xeon Gold 6152 CPU @ 2.10GHz, 22 cores C./U. | 2x NVIDIA Tesla V100 C/U. | 187 GB | Infiniband FDR |
Nodo | Modelo | Cantidad | Procesador | GPU | RAM | Infiniband |
---|---|---|---|---|---|---|
gn003 | Dell PowerEdge R7525 | 1 | 2 x AMD EPYC 7713 64-Core Processor CPU @ 2.0GHz, 64 cores C./U. | 2x Instinct MI100 C/U. | 502 GB | Infiniband FDR |
Nodo | Modelo | Cantidad | Procesador | RAM | Infiniband |
---|---|---|---|---|---|
gn00[4-5] | Lenovo ThinkSystem SR675 V3 | 2 | 2 x AMD EPYC 9224 @ 2.5GHz, 24 cores c/u. | 1.457 GB | Infiniband NDR |
Nodo | Modelo | Cantidad | Procesador | RAM | Infiniband |
---|---|---|---|---|---|
mn00[1-27] | Lenovo ThinkSystem SR645 V3 | 27 | 2 x AMD EPYC 9754 @ 2,25GHz, 128 cores c/u. | 768 GB | Infiniband NDR |
La partición debug es para uso exclusivo de pruebas que duren hasta 30 minutos. Cualquier trabajo que supere ese tiempo es cancelado automáticamente.
Nodo | Modelo | Cantidad | Procesador | RAM | Infiniband |
---|---|---|---|---|---|
leftraru[1-2] | Lenovo ThinkSystem SR645 V3 | 2 | 2 x AMD EPYC 9224 @ 2,5GHz, 24 cores c/u. | 768 GB | Infiniband NDR |
La capacidad total de Guacolda-Leftraru Epu al día de hoy es de 9.956 CPU cores, 95.232 GPU cores y 479 TFlops.
Para más información respecto a la utilización del sistema gestor de colas y uso de recursos vea el siguiente enlace: SLURM