Páginas nuevas
De NLHPC
- 21:11 2 jul 2025 Dashboard vista de usuario (hist. | editar) [4505 bytes] Eosorio (discusión | contribs.) (Página creada con «== Otros enlaces asociados al Dashboard == Puede complementar esta lectura con: Dashboard Procedimiento cambio o recuperación de contraseña»)
- 20:59 2 jul 2025 Dashboard (hist. | editar) [2102 bytes] Eosorio (discusión | contribs.) (Página creada con «== Introducción == El [https://dashboard.nlhpc.cl dashboard] del NLHPC ha tenido como meta mostrar el estado general del clúster. Durante el mes de junio del 2025 se realizó uno de los mayores cambios a esta herramienta pública para permitir que nuestros usuarios logren obtener información de utilidad asociada a sus cuentas. A continuación se presenta una descripción de esta herramienta. == Vista general del Dashboard == Accediendo al [https://dashboard.nl…»)
- 15:09 1 jul 2025 Procedimiento cambio o recuperación de contraseña (hist. | editar) [1595 bytes] Eosorio (discusión | contribs.) (Página creada con «== Introducción == El siguiente procedimiento permite realizar en sencillos pasos la configuración de una nueva contraseña para los usuarios del clúster del NLHPC. Para lograr esto es necesario tener una cuenta activa y acceso a su correo electrónico registrado. == Cambio de contraseña == === Acceder al dashboard === Visite el Dashboard del NLHPC en la URL https://dashboard.nlhpc.cl En la esquina superior derecha haga click sobre el ícono de usuario. Ar…») originalmente creado como «Procedimiento cambio contraseña»
- 21:50 7 abr 2025 Diffusers (hist. | editar) [4714 bytes] Eosorio (discusión | contribs.) (Página creada con «== Introducción == Los modelos de difusión son arquitecturas generativas que permiten crear imágenes de alta calidad a partir de texto u otras modalidades. En esta guía, se enseñara el uso de diffusers de hugging face. Con lo que podrá realizar inferencia utilizando el cluster. == Cargar módulos necesarios: == Para utilizar diffusers con compatibilidad AMD, se deben cargar los módulos: ml ai-inference El cual contiene todos paquetes de software necesari…»)
- 21:21 7 abr 2025 VLLM API con módulos de software (hist. | editar) [8168 bytes] Eosorio (discusión | contribs.) (Página creada con «Introducción En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: Ollama: Recomendado para utilizar modelos cuantizados. Recomendado para usuarios que no estén familiarizados con el despliegue de LLM’s dado la facilidad de uso que presenta la herramienta. vLLM: Ideal…»)
- 20:59 7 abr 2025 VLLM API con apptainer (hist. | editar) [7885 bytes] Eosorio (discusión | contribs.) (Página creada con «Introducción En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: Ollama: Recomendado para utilizar modelos cuantizados. Recomendado para usuarios que no estén familiarizados con el despliegue de LLM’s dado la facilidad de uso que presenta la herramienta. vLLM: Idea…»)
- 20:31 7 abr 2025 OLLAMA API (hist. | editar) [8581 bytes] Eosorio (discusión | contribs.) (Página creada con «== Introducción == En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: * Ollama: Recomendado para utilizar modelos cuantizados, lo que permite una inferencia más rápida y eficiente. * vLLM: Ideal para ejecutar modelos descargados desde Hugging Face en formato .safetensors, o…»)