Historial de revisiones de «VLLM API con módulos de software»

De NLHPC

Selección de diferencias: marca los botones correspondientes a las versiones a comparar y pulsa Intro o el botón de abajo.
Leyenda: (act) = diferencias con la versión actual, (ant) = diferencias con la versión anterior, m = edición menor.

16 abr 2025

9 abr 2025

7 abr 2025

  • actant 21:3821:38 7 abr 2025Eosorio discusión contribs. 7804 bytes +527 Sin resumen de edición
  • actant 21:2121:21 7 abr 2025Eosorio discusión contribs. 7277 bytes +7277 Página creada con «Introducción En el contexto del NLHPC, se ofrecen dos herramientas principales para desplegar y realizar inferencia con LLMs: Ollama y vLLM. La elección entre ambas dependerá del formato del modelo y de los requisitos específicos de la implementación: Ollama: Recomendado para utilizar modelos cuantizados. Recomendado para usuarios que no estén familiarizados con el despliegue de LLM’s dado la facilidad de uso que presenta la herramienta. vLLM: Ideal…»