Páginas nuevas
De NLHPC
- 21:50 7 abr 2025 Diffusers (hist. | editar) [4714 bytes] Eosorio (discusión | contribs.) (Página creada con «== Introducción == Los modelos de difusión son arquitecturas generativas que permiten crear imágenes de alta calidad a partir de texto u otras modalidades. En esta guía, se enseñara el uso de diffusers de hugging face. Con lo que podrá realizar inferencia utilizando el cluster. == Cargar módulos necesarios: == Para utilizar diffusers con compatibilidad AMD, se deben cargar los módulos: ml ai-inference El cual contiene todos paquetes de software necesari…»)
- 21:21 7 abr 2025 VLLM API con módulos de software (hist. | editar) [8168 bytes] Eosorio (discusión | contribs.) (Página creada con «Introducción En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: Ollama: Recomendado para utilizar modelos cuantizados. Recomendado para usuarios que no estén familiarizados con el despliegue de LLM’s dado la facilidad de uso que presenta la herramienta. vLLM: Ideal…»)
- 20:59 7 abr 2025 VLLM API con apptainer (hist. | editar) [7885 bytes] Eosorio (discusión | contribs.) (Página creada con «Introducción En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: Ollama: Recomendado para utilizar modelos cuantizados. Recomendado para usuarios que no estén familiarizados con el despliegue de LLM’s dado la facilidad de uso que presenta la herramienta. vLLM: Idea…»)
- 20:31 7 abr 2025 OLLAMA API (hist. | editar) [8420 bytes] Eosorio (discusión | contribs.) (Página creada con «== Introducción == En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: * Ollama: Recomendado para utilizar modelos cuantizados, lo que permite una inferencia más rápida y eficiente. * vLLM: Ideal para ejecutar modelos descargados desde Hugging Face en formato .safetensors, o…»)
- 14:56 6 feb 2025 Ejemplo ABINIT (hist. | editar) [4276 bytes] Eosorio (discusión | contribs.) (Página creada con «== Introducción == En esta wiki se realiza el tutorial básico para el uso de '''ABINIT''', bajo la partición '''main'''. == Carga de módulos == Nuestro primer paso será la carga de módulos y ver sus detalles para poder conocer las rutas disponibles y copiar archivos necesarios: ml purge ml openmpi/5.0.6-zen4-e ml abinit/10.0.9-mpi-openmp-zen4-b Una vez cargado los módulos, veremos el detalle de '''abinit''' con ml show abinit/10.0.9-mpi-openmp-zen4-b»)