Contribuciones del usuario Eosorio
De NLHPC
16 abr 2025
- 16:2216:22 16 abr 2025 difs. hist. +161 OLLAMA API →Cargar ollama última
- 16:2216:22 16 abr 2025 difs. hist. +161 Diffusers →Cargar módulos necesarios: última
- 16:2116:21 16 abr 2025 difs. hist. 0 VLLM API con módulos de software →Cargar módulo vLLM última
7 abr 2025
- 22:0522:05 7 abr 2025 difs. hist. −26 VLLM API con apptainer →Otros Enlaces Etiqueta: Reversión manual
- 22:0222:02 7 abr 2025 difs. hist. +95 Diffusers →Troubleshooting
- 22:0122:01 7 abr 2025 difs. hist. −4 Diffusers →Descarga y Carga del Modelo
- 21:5921:59 7 abr 2025 difs. hist. +138 Diffusers →⚠️ Consideraciones importantes
- 21:5321:53 7 abr 2025 difs. hist. 0 N Archivo:DIFFUSERS-Rendimiento.png Sin resumen de edición última
- 21:5021:50 7 abr 2025 difs. hist. +4324 N Diffusers Página creada con «== Introducción == Los modelos de difusión son arquitecturas generativas que permiten crear imágenes de alta calidad a partir de texto u otras modalidades. En esta guía, se enseñara el uso de diffusers de hugging face. Con lo que podrá realizar inferencia utilizando el cluster. == Cargar módulos necesarios: == Para utilizar diffusers con compatibilidad AMD, se deben cargar los módulos: ml ai-inference El cual contiene todos paquetes de software necesari…»
- 21:3921:39 7 abr 2025 difs. hist. +26 VLLM API con apptainer →Otros Enlaces Etiqueta: Revertido
- 21:3821:38 7 abr 2025 difs. hist. +527 VLLM API con módulos de software Sin resumen de edición
- 21:2221:22 7 abr 2025 difs. hist. +23 VLLM API con apptainer →Otros Enlaces
- 21:2221:22 7 abr 2025 difs. hist. +16 OLLAMA API →Otros Enlaces
- 21:2121:21 7 abr 2025 difs. hist. +21 OLLAMA API →Otros Enlaces
- 21:2121:21 7 abr 2025 difs. hist. +7277 N VLLM API con módulos de software Página creada con «Introducción En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: Ollama: Recomendado para utilizar modelos cuantizados. Recomendado para usuarios que no estén familiarizados con el despliegue de LLM’s dado la facilidad de uso que presenta la herramienta. vLLM: Ideal…»
- 21:2021:20 7 abr 2025 difs. hist. +6 OLLAMA API →Otros Enlaces
- 21:1921:19 7 abr 2025 difs. hist. +2 VLLM API con apptainer →Otros Enlaces
- 21:1821:18 7 abr 2025 difs. hist. +432 VLLM API con apptainer Sin resumen de edición
- 20:5920:59 7 abr 2025 difs. hist. +7402 N VLLM API con apptainer Página creada con «Introducción En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: Ollama: Recomendado para utilizar modelos cuantizados. Recomendado para usuarios que no estén familiarizados con el despliegue de LLM’s dado la facilidad de uso que presenta la herramienta. vLLM: Idea…»
- 20:5920:59 7 abr 2025 difs. hist. +78 OLLAMA API Sin resumen de edición
- 20:4220:42 7 abr 2025 difs. hist. −69 OLLAMA API →Rendimiento:
- 20:4220:42 7 abr 2025 difs. hist. 0 N Archivo:OLLAMA-Rendimiento.png Sin resumen de edición última
- 20:3820:38 7 abr 2025 difs. hist. 0 OLLAMA API →Rendimiento:
- 20:3420:34 7 abr 2025 difs. hist. +1 OLLAMA API →Reserva de GPU’s:
- 20:3420:34 7 abr 2025 difs. hist. +6 OLLAMA API →Terminar el servicio de Ollama:
- 20:3320:33 7 abr 2025 difs. hist. −1 OLLAMA API →Cargar ollama
- 20:3120:31 7 abr 2025 difs. hist. +8201 N OLLAMA API Página creada con «== Introducción == En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: * Ollama: Recomendado para utilizar modelos cuantizados, lo que permite una inferencia más rápida y eficiente. * vLLM: Ideal para ejecutar modelos descargados desde Hugging Face en formato .safetensors, o…»
- 20:0720:07 7 abr 2025 difs. hist. 0 Escalamiento →Cuentas de Pruebas última
- 20:0120:01 7 abr 2025 difs. hist. −9 Sumario →Tutoriales última
- 19:5919:59 7 abr 2025 difs. hist. −796 Sumario →MFA o autenticación multifactor
- 19:5019:50 7 abr 2025 difs. hist. +46 Sumario →Tutoriales
- 19:4819:48 7 abr 2025 difs. hist. −700 Sumario →Lustre, sistema de archivos distribuido
- 19:2819:28 7 abr 2025 difs. hist. +52 Sumario →Accediendo al Clúster
- 19:2519:25 7 abr 2025 difs. hist. −1 Estudio de Eficiencia →¿Cuáles son las capacidades de las cuentas de prueba? última
13 feb 2025
- 13:4513:45 13 feb 2025 difs. hist. +1 Tutorial de acceso a Leftraru via SSH →Para usuarios de Windows
- 13:4413:44 13 feb 2025 difs. hist. +56 Tutorial de acceso a Leftraru via SSH Sin resumen de edición
- 13:4213:42 13 feb 2025 difs. hist. 0 N Archivo:X11-forwarding.png Sin resumen de edición última
- 13:3013:30 13 feb 2025 difs. hist. +1214 Tutorial de acceso a Leftraru via SSH →Problemas conocidos
6 feb 2025
- 15:3915:39 6 feb 2025 difs. hist. +344 Ejemplo ABINIT Sin resumen de edición última
- 15:3215:32 6 feb 2025 difs. hist. +134 Ejemplo ABINIT →Introducción
- 15:3115:31 6 feb 2025 difs. hist. +2098 Ejemplo ABINIT →Tarea SBATCH
- 15:0515:05 6 feb 2025 difs. hist. +1231 Ejemplo ABINIT →Carga de módulos
- 14:5614:56 6 feb 2025 difs. hist. +469 N Ejemplo ABINIT Página creada con «== Introducción == En esta wiki se realiza el tutorial básico para el uso de '''ABINIT''', bajo la partición '''main'''. == Carga de módulos == Nuestro primer paso será la carga de módulos y ver sus detalles para poder conocer las rutas disponibles y copiar archivos necesarios: ml purge ml openmpi/5.0.6-zen4-e ml abinit/10.0.9-mpi-openmp-zen4-b Una vez cargado los módulos, veremos el detalle de '''abinit''' con ml show abinit/10.0.9-mpi-openmp-zen4-b»
5 feb 2025
- 18:0018:00 5 feb 2025 difs. hist. +15 Tutorial de acceso a Leftraru via SSH →Acceso utilizando llaves
30 ene 2025
- 13:1713:17 30 ene 2025 difs. hist. −14 Tutorial de acceso a Leftraru via SSH →Acceso utilizando llaves (Recomendado)
12 dic 2024
- 20:3520:35 12 dic 2024 difs. hist. −114 Jupyter bajo Conda →Lanzando tareas de Jupyter en los nodos de cómputo última
29 nov 2024
- 13:5413:54 29 nov 2024 difs. hist. +5654 N AtChem2 con Singularity Página creada con «== Introducción == El siguiente procedimiento muestra los pasos necesarios para utilizar '''AtChem2''' utilizando un contenedor mediante '''SingularityCE'''. Considere que los pasos que se muestran a continuación son una guía básica para que pueda ejecutar sus aplicaciones, por lo que modificaciones y configuraciones personalizadas deben ser realizadas por el lector. == Descarga de AtChem2 == === Descarga de código fuente === Descargaremos bajo nuestro usuario…» última
20 nov 2024
- 14:0714:07 20 nov 2024 difs. hist. +135 Tutorial de acceso a archivos →Problemas de conectividad última
28 oct 2024
- 19:5819:58 28 oct 2024 difs. hist. +678 Tutorial gdrive y rclone Sin resumen de edición última
- 19:5419:54 28 oct 2024 difs. hist. +435 Tutorial gdrive y rclone Sin resumen de edición