Diferencia entre revisiones de «Hardware Disponible»
De NLHPC
Sin resumen de edición Etiqueta: Revertido |
Sin resumen de edición Etiqueta: Reversión manual |
||
Línea 108: | Línea 108: | ||
</th></tr> | </th></tr> | ||
<tr> | <tr> | ||
<td> | <td>gna001</td> | ||
<td>Dell PowerEdge R7525</td> | <td>Dell PowerEdge R7525</td> | ||
<td>1</td> | <td>1</td> | ||
Línea 117: | Línea 117: | ||
</td></tr> | </td></tr> | ||
</table> | </table> | ||
<table border="0" style="background:#ffffff" align="top" class="sortable wikitable"> | |||
<caption align="center" style="background:DarkSlateBlue; color:white"><big><b>Partición MI100</b></big> | |||
</caption> | |||
<tr> | <tr> | ||
<th width="60 px" style="background:Lavender; color:Black">Nodo | <th width="60 px" style="background:Lavender; color:Black">Nodo | ||
Línea 131: | Línea 137: | ||
</th></tr> | </th></tr> | ||
<tr> | <tr> | ||
<td>gn003</td> | |||
<td>Dell PowerEdge R7525</td> | |||
<td>1</td> | |||
<td>2 x AMD EPYC 7713 @ 3.9GHz, 128 cores c/u.</td> | |||
<td>512 GB</td> | |||
<td>Infiniband HDR | |||
</td></tr> | |||
</table> | |||
<table border="0" style="background:#ffffff" align="top" class="sortable wikitable"> | |||
<caption align="center" style="background:DarkSlateBlue; color:white"><big><b>Partición MI210</b></big> | |||
</caption> | |||
<tr> | |||
<th width="60 px" style="background:Lavender; color:Black">Nodo | |||
</th> | |||
<th width="80 px" style="background:Lavender; color:Black">Modelo | |||
</th> | |||
<th width="80 px" style="background:Lavender; color:Black">Cantidad | |||
</th> | |||
<th width="100 px" style="background:Lavender; color:Black">Procesador | |||
</th> | |||
<th width="120 px" style="background:Lavender; color:Black">RAM | |||
</th> | |||
<th width="140 px" style="background:Lavender; color:Black">Infiniband | |||
</th></tr> | |||
<tr> | |||
<td>gn00[4-5]</td> | <td>gn00[4-5]</td> | ||
<td>Lenovo ThinkSystem SR675 V3</td> | <td>Lenovo ThinkSystem SR675 V3</td> |
Revisión del 18:47 18 abr 2024
El NLHPC cuenta actualmente con los siguientes recursos computacionales, distribuidos en varias particiones SLURM:
Nodo | Modelo | Cantidad | Procesador | RAM | Infiniband |
---|---|---|---|---|---|
sn[001-048] | Dell PowerEdge C6420 | 48 | 2 x Intel Xeon Gold 6152 CPU @ 2.10GHz, 22 cores C./U. | 187 GB | Infiniband FDR |
Nodo | Modelo | Cantidad | Procesador | RAM | Infiniband |
---|---|---|---|---|---|
fn[001-009] | Dell PowerEdge R640 | 9 | 2 x Intel Xeon Gold 6152 CPU @ 2.10GHz, 22 cores C./U. | 765 GB | Infiniband FDR |
Nodo | Modelo | Cantidad | Procesador | GPU | RAM | Infiniband |
---|---|---|---|---|---|---|
gn[001-002] | Dell PowerEdge R740 | 2 | 2 x Intel Xeon Gold 6152 CPU @ 2.10GHz, 22 cores C./U. | 2x NVIDIA Tesla V100 C/U. | 187 GB | Infiniband FDR |
Nodo | Modelo | Cantidad | Procesador | GPU | RAM | Infiniband |
---|---|---|---|---|---|---|
gna001 | Dell PowerEdge R7525 | 1 | 2 x AMD EPYC 7713 64-Core Processor CPU @ 2.0GHz, 64 cores C./U. | 2x Instinct MI100 C/U. | 502 GB | Infiniband FDR |
Nodo | Modelo | Cantidad | Procesador | RAM | Infiniband |
---|---|---|---|---|---|
gn003 | Dell PowerEdge R7525 | 1 | 2 x AMD EPYC 7713 @ 3.9GHz, 128 cores c/u. | 512 GB | Infiniband HDR |
Nodo | Modelo | Cantidad | Procesador | RAM | Infiniband |
---|---|---|---|---|---|
gn00[4-5] | Lenovo ThinkSystem SR675 V3 | 2 | 2 x AMD EPYC 9224 @ 2.5GHz, 24 cores c/u. | 768 GB | Infiniband HDR |
Nodo | Modelo | Cantidad | Procesador | RAM | Infiniband |
---|---|---|---|---|---|
mn00[1-29] | Lenovo ThinkSystem SR645 V3 | 29 | 2 x AMD EPYC 9754 @ 2,25GHz, 128 cores c/u. | 768 GB | Infiniband HDR |
La partición debug es para uso exclusivo de pruebas que duren hasta 30 minutos. Cualquier trabajo que supere ese tiempo es cancelado automáticamente.
Nodo | Modelo | Cantidad | Procesador | RAM | Infiniband |
---|---|---|---|---|---|
leftraru[1-2] | Lenovo ThinkSystem SR645 V3 | 2 | 2 x AMD EPYC 9224 @ 2,5GHz, 24 cores c/u. | 768 GB | Infiniband HDR |
La capacidad total de Guacolda-Fresia al día de hoy es de 9956 cores y 476 TFlops.
Para más información respecto a la utilización del sistema gestor de colas y uso de recursos vea el siguiente enlace: SLURM