Cambios relacionados
De NLHPC
Introduce el nombre de una página para ver los cambios en las páginas enlazadas. (Para ver miembros de una categoría, introduce Categoría:Nombre de la categoría). Los cambios realizados en las páginas que tengas en tu lista de seguimiento se resaltarán en negritas.
Lista de abreviaturas:
- N
- Esta edición creó una página (ver también la lista de páginas nuevas)
- m
- Esta es una edición menor
- b
- Esta edición fue realizada por un robot
- (±123)
- El tamaño de la página cambió esta cantidad de bytes
16 abr 2025
16:22 | OLLAMA API difs.hist. +161 Eosorio discusión contribs. (→Cargar ollama) |
16:21 | VLLM API con módulos de software difs.hist. 0 Eosorio discusión contribs. (→Cargar módulo vLLM) |
9 abr 2025
|
13:22 | VLLM API con módulos de software 3 cambios historial +364 [Administrador (3×)] | |||
|
13:22 (act | ant) −1 Administrador discusión contribs. (→Lanzar el servicio vLLM) | ||||
|
13:22 (act | ant) +163 Administrador discusión contribs. (→Lanzar el servicio vLLM) | ||||
|
13:20 (act | ant) +202 Administrador discusión contribs. (→Cargar módulo vLLM) |
7 abr 2025
21:53 | Registro de subidas Eosorio discusión contribs. subió Archivo:DIFFUSERS-Rendimiento.png |
|
N 21:38 | VLLM API con módulos de software 2 cambios historial +7804 [Eosorio (2×)] | |||
|
21:38 (act | ant) +527 Eosorio discusión contribs. | ||||
N |
|
21:21 (act | ant) +7277 Eosorio discusión contribs. (Página creada con «Introducción En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: Ollama: Recomendado para utilizar modelos cuantizados. Recomendado para usuarios que no estén familiarizados con el despliegue de LLM’s dado la facilidad de uso que presenta la herramienta. vLLM: Ideal…») |
|
N 21:22 | OLLAMA API 10 cambios historial +8259 [Eosorio (10×)] | |||
|
21:22 (act | ant) +16 Eosorio discusión contribs. (→Otros Enlaces) | ||||
|
21:21 (act | ant) +21 Eosorio discusión contribs. (→Otros Enlaces) | ||||
|
21:20 (act | ant) +6 Eosorio discusión contribs. (→Otros Enlaces) | ||||
|
20:59 (act | ant) +78 Eosorio discusión contribs. | ||||
|
20:42 (act | ant) −69 Eosorio discusión contribs. (→Rendimiento:) | ||||
|
20:38 (act | ant) 0 Eosorio discusión contribs. (→Rendimiento:) | ||||
|
20:34 (act | ant) +1 Eosorio discusión contribs. (→Reserva de GPU’s:) | ||||
|
20:34 (act | ant) +6 Eosorio discusión contribs. (→Terminar el servicio de Ollama:) | ||||
|
20:33 (act | ant) −1 Eosorio discusión contribs. (→Cargar ollama) | ||||
N |
|
20:31 (act | ant) +8201 Eosorio discusión contribs. (Página creada con «== Introducción == En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: * Ollama: Recomendado para utilizar modelos cuantizados, lo que permite una inferencia más rápida y eficiente. * vLLM: Ideal para ejecutar modelos descargados desde Hugging Face en formato .safetensors, o…») |