Páginas nuevas

De NLHPC
Páginas nuevas
Ocultar usuarios registrados | Ocultar bots | Mostrar redirecciones
  • 21:50 7 abr 2025Diffusers (hist. | editar) ‎[4714 bytes]Eosorio (discusión | contribs.) (Página creada con «== Introducción == Los modelos de difusión son arquitecturas generativas que permiten crear imágenes de alta calidad a partir de texto u otras modalidades. En esta guía, se enseñara el uso de diffusers de hugging face. Con lo que podrá realizar inferencia utilizando el cluster. == Cargar módulos necesarios: == Para utilizar diffusers con compatibilidad AMD, se deben cargar los módulos: ml ai-inference El cual contiene todos paquetes de software necesari…»)
  • 21:21 7 abr 2025VLLM API con módulos de software (hist. | editar) ‎[8168 bytes]Eosorio (discusión | contribs.) (Página creada con «Introducción En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: Ollama: Recomendado para utilizar modelos cuantizados. Recomendado para usuarios que no estén familiarizados con el despliegue de LLM’s dado la facilidad de uso que presenta la herramienta. vLLM: Ideal…»)
  • 20:59 7 abr 2025VLLM API con apptainer (hist. | editar) ‎[7885 bytes]Eosorio (discusión | contribs.) (Página creada con «Introducción En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: Ollama: Recomendado para utilizar modelos cuantizados. Recomendado para usuarios que no estén familiarizados con el despliegue de LLM’s dado la facilidad de uso que presenta la herramienta. vLLM: Idea…»)
  • 20:31 7 abr 2025OLLAMA API (hist. | editar) ‎[8420 bytes]Eosorio (discusión | contribs.) (Página creada con «== Introducción == En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: * Ollama: Recomendado para utilizar modelos cuantizados, lo que permite una inferencia más rápida y eficiente. * vLLM: Ideal para ejecutar modelos descargados desde Hugging Face en formato .safetensors, o…»)
  • 14:56 6 feb 2025Ejemplo ABINIT (hist. | editar) ‎[4276 bytes]Eosorio (discusión | contribs.) (Página creada con «== Introducción == En esta wiki se realiza el tutorial básico para el uso de '''ABINIT''', bajo la partición '''main'''. == Carga de módulos == Nuestro primer paso será la carga de módulos y ver sus detalles para poder conocer las rutas disponibles y copiar archivos necesarios: ml purge ml openmpi/5.0.6-zen4-e ml abinit/10.0.9-mpi-openmp-zen4-b Una vez cargado los módulos, veremos el detalle de '''abinit''' con ml show abinit/10.0.9-mpi-openmp-zen4-b»)