Cambios relacionados
De NLHPC
Introduce el nombre de una página para ver los cambios en las páginas enlazadas. (Para ver miembros de una categoría, introduce Categoría:Nombre de la categoría). Los cambios realizados en las páginas que tengas en tu lista de seguimiento se resaltarán en negritas.
Lista de abreviaturas:
- N
- Esta edición creó una página (ver también la lista de páginas nuevas)
- m
- Esta es una edición menor
- b
- Esta edición fue realizada por un robot
- (±123)
- El tamaño de la página cambió esta cantidad de bytes
16 abr 2025
16:22 | OLLAMA API difs.hist. +161 Eosorio discusión contribs. (→Cargar ollama) |
16:22 | Diffusers difs.hist. +161 Eosorio discusión contribs. (→Cargar módulos necesarios:) |
11 abr 2025
|
16:55 | VLLM API con apptainer 2 cambios historial +26 [Administrador (2×)] | |||
|
16:55 (act | ant) +13 Administrador discusión contribs. (→Lanzar el servicio vLLM) | ||||
|
16:55 (act | ant) +13 Administrador discusión contribs. (→Cargar módulo apptainer) |
7 abr 2025
|
N 22:05 | VLLM API con apptainer 6 cambios historial +7859 [Eosorio (6×)] | |||
|
22:05 (act | ant) −26 Eosorio discusión contribs. (→Otros Enlaces) Etiqueta: Reversión manual | ||||
|
21:39 (act | ant) +26 Eosorio discusión contribs. (→Otros Enlaces) Etiqueta: Revertido | ||||
|
21:22 (act | ant) +23 Eosorio discusión contribs. (→Otros Enlaces) | ||||
|
21:19 (act | ant) +2 Eosorio discusión contribs. (→Otros Enlaces) | ||||
|
21:18 (act | ant) +432 Eosorio discusión contribs. | ||||
N |
|
20:59 (act | ant) +7402 Eosorio discusión contribs. (Página creada con «Introducción En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: Ollama: Recomendado para utilizar modelos cuantizados. Recomendado para usuarios que no estén familiarizados con el despliegue de LLM’s dado la facilidad de uso que presenta la herramienta. vLLM: Idea…») |
|
N 22:02 | Diffusers 4 cambios historial +4553 [Eosorio (4×)] | |||
|
22:02 (act | ant) +95 Eosorio discusión contribs. (→Troubleshooting) | ||||
|
22:01 (act | ant) −4 Eosorio discusión contribs. (→Descarga y Carga del Modelo) | ||||
|
21:59 (act | ant) +138 Eosorio discusión contribs. (→⚠️ Consideraciones importantes) | ||||
N |
|
21:50 (act | ant) +4324 Eosorio discusión contribs. (Página creada con «== Introducción == Los modelos de difusión son arquitecturas generativas que permiten crear imágenes de alta calidad a partir de texto u otras modalidades. En esta guía, se enseñara el uso de diffusers de hugging face. Con lo que podrá realizar inferencia utilizando el cluster. == Cargar módulos necesarios: == Para utilizar diffusers con compatibilidad AMD, se deben cargar los módulos: ml ai-inference El cual contiene todos paquetes de software necesari…») |
|
N 21:22 | OLLAMA API 10 cambios historial +8259 [Eosorio (10×)] | |||
|
21:22 (act | ant) +16 Eosorio discusión contribs. (→Otros Enlaces) | ||||
|
21:21 (act | ant) +21 Eosorio discusión contribs. (→Otros Enlaces) | ||||
|
21:20 (act | ant) +6 Eosorio discusión contribs. (→Otros Enlaces) | ||||
|
20:59 (act | ant) +78 Eosorio discusión contribs. | ||||
|
20:42 (act | ant) −69 Eosorio discusión contribs. (→Rendimiento:) | ||||
|
20:38 (act | ant) 0 Eosorio discusión contribs. (→Rendimiento:) | ||||
|
20:34 (act | ant) +1 Eosorio discusión contribs. (→Reserva de GPU’s:) | ||||
|
20:34 (act | ant) +6 Eosorio discusión contribs. (→Terminar el servicio de Ollama:) | ||||
|
20:33 (act | ant) −1 Eosorio discusión contribs. (→Cargar ollama) | ||||
N |
|
20:31 (act | ant) +8201 Eosorio discusión contribs. (Página creada con «== Introducción == En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: * Ollama: Recomendado para utilizar modelos cuantizados, lo que permite una inferencia más rápida y eficiente. * vLLM: Ideal para ejecutar modelos descargados desde Hugging Face en formato .safetensors, o…») |