Cambios relacionados

De NLHPC

Introduce el nombre de una página para ver los cambios en las páginas enlazadas. (Para ver miembros de una categoría, introduce Categoría:Nombre de la categoría). Los cambios realizados en las páginas que tengas en tu lista de seguimiento se resaltarán en negritas.

Opciones sobre cambios recientes Ver los últimos 50 | 100 | 250 | 500 cambios en los últimos 1 | 3 | 7 | 14 | 30 días.
Ocultar usuarios registrados | Ocultar usuarios anónimos | Ocultar mis ediciones | Mostrar bots | Ocultar ediciones menores
Mostrar cambios nuevos desde las 01:36 del 19 abr 2025
   
Nombre de la página:
Lista de abreviaturas:
N
Esta edición creó una página (ver también la lista de páginas nuevas)
m
Esta es una edición menor
b
Esta edición fue realizada por un robot
(±123)
El tamaño de la página cambió esta cantidad de bytes

16 abr 2025

9 abr 2025

7 abr 2025

     21:53 Registro de subidas Eosorio discusión contribs. subió Archivo:DIFFUSERS-Rendimiento.png
N    21:38  VLLM API con módulos de software‎‎ 2 cambios historial +7804 [Eosorio‎ (2×)]
     
21:38 (act | ant) +527 Eosorio discusión contribs.
N    
21:21 (act | ant) +7277 Eosorio discusión contribs. (Página creada con «Introducción En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: Ollama: Recomendado para utilizar modelos cuantizados. Recomendado para usuarios que no estén familiarizados con el despliegue de LLM’s dado la facilidad de uso que presenta la herramienta. vLLM: Ideal…»)
N    21:22  OLLAMA API‎‎ 10 cambios historial +8259 [Eosorio‎ (10×)]
     
21:22 (act | ant) +16 Eosorio discusión contribs. (→‎Otros Enlaces)
     
21:21 (act | ant) +21 Eosorio discusión contribs. (→‎Otros Enlaces)
     
21:20 (act | ant) +6 Eosorio discusión contribs. (→‎Otros Enlaces)
     
20:59 (act | ant) +78 Eosorio discusión contribs.
     
20:42 (act | ant) −69 Eosorio discusión contribs. (→‎Rendimiento:)
     
20:38 (act | ant) 0 Eosorio discusión contribs. (→‎Rendimiento:)
     
20:34 (act | ant) +1 Eosorio discusión contribs. (→‎Reserva de GPU’s:)
     
20:34 (act | ant) +6 Eosorio discusión contribs. (→‎Terminar el servicio de Ollama:)
     
20:33 (act | ant) −1 Eosorio discusión contribs. (→‎Cargar ollama)
N    
20:31 (act | ant) +8201 Eosorio discusión contribs. (Página creada con «== Introducción == En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: * Ollama: Recomendado para utilizar modelos cuantizados, lo que permite una inferencia más rápida y eficiente. * vLLM: Ideal para ejecutar modelos descargados desde Hugging Face en formato .safetensors, o…»)