Cambios relacionados

De NLHPC

Introduce el nombre de una página para ver los cambios en las páginas enlazadas. (Para ver miembros de una categoría, introduce Categoría:Nombre de la categoría). Los cambios realizados en las páginas que tengas en tu lista de seguimiento se resaltarán en negritas.

Opciones sobre cambios recientes Ver los últimos 50 | 100 | 250 | 500 cambios en los últimos 1 | 3 | 7 | 14 | 30 días.
Ocultar usuarios registrados | Ocultar usuarios anónimos | Ocultar mis ediciones | Mostrar bots | Ocultar ediciones menores
Mostrar cambios nuevos desde las 02:04 del 19 abr 2025
   
Nombre de la página:
Lista de abreviaturas:
N
Esta edición creó una página (ver también la lista de páginas nuevas)
m
Esta es una edición menor
b
Esta edición fue realizada por un robot
(±123)
El tamaño de la página cambió esta cantidad de bytes

16 abr 2025

11 abr 2025

7 abr 2025

N    22:05  VLLM API con apptainer‎‎ 6 cambios historial +7859 [Eosorio‎ (6×)]
     
22:05 (act | ant) −26 Eosorio discusión contribs. (→‎Otros Enlaces) Etiqueta: Reversión manual
     
21:39 (act | ant) +26 Eosorio discusión contribs. (→‎Otros Enlaces) Etiqueta: Revertido
     
21:22 (act | ant) +23 Eosorio discusión contribs. (→‎Otros Enlaces)
     
21:19 (act | ant) +2 Eosorio discusión contribs. (→‎Otros Enlaces)
     
21:18 (act | ant) +432 Eosorio discusión contribs.
N    
20:59 (act | ant) +7402 Eosorio discusión contribs. (Página creada con «Introducción En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: Ollama: Recomendado para utilizar modelos cuantizados. Recomendado para usuarios que no estén familiarizados con el despliegue de LLM’s dado la facilidad de uso que presenta la herramienta. vLLM: Idea…»)
N    22:02  Diffusers‎‎ 4 cambios historial +4553 [Eosorio‎ (4×)]
     
22:02 (act | ant) +95 Eosorio discusión contribs. (→‎Troubleshooting)
     
22:01 (act | ant) −4 Eosorio discusión contribs. (→‎Descarga y Carga del Modelo)
     
21:59 (act | ant) +138 Eosorio discusión contribs. (→‎⚠️ Consideraciones importantes)
N    
21:50 (act | ant) +4324 Eosorio discusión contribs. (Página creada con «== Introducción == Los modelos de difusión son arquitecturas generativas que permiten crear imágenes de alta calidad a partir de texto u otras modalidades. En esta guía, se enseñara el uso de diffusers de hugging face. Con lo que podrá realizar inferencia utilizando el cluster. == Cargar módulos necesarios: == Para utilizar diffusers con compatibilidad AMD, se deben cargar los módulos: ml ai-inference El cual contiene todos paquetes de software necesari…»)
N    21:22  OLLAMA API‎‎ 10 cambios historial +8259 [Eosorio‎ (10×)]
     
21:22 (act | ant) +16 Eosorio discusión contribs. (→‎Otros Enlaces)
     
21:21 (act | ant) +21 Eosorio discusión contribs. (→‎Otros Enlaces)
     
21:20 (act | ant) +6 Eosorio discusión contribs. (→‎Otros Enlaces)
     
20:59 (act | ant) +78 Eosorio discusión contribs.
     
20:42 (act | ant) −69 Eosorio discusión contribs. (→‎Rendimiento:)
     
20:38 (act | ant) 0 Eosorio discusión contribs. (→‎Rendimiento:)
     
20:34 (act | ant) +1 Eosorio discusión contribs. (→‎Reserva de GPU’s:)
     
20:34 (act | ant) +6 Eosorio discusión contribs. (→‎Terminar el servicio de Ollama:)
     
20:33 (act | ant) −1 Eosorio discusión contribs. (→‎Cargar ollama)
N    
20:31 (act | ant) +8201 Eosorio discusión contribs. (Página creada con «== Introducción == En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: * Ollama: Recomendado para utilizar modelos cuantizados, lo que permite una inferencia más rápida y eficiente. * vLLM: Ideal para ejecutar modelos descargados desde Hugging Face en formato .safetensors, o…»)