Contacta con nosotros

Temario del curso

Introducción a Ollama para el despliegue de LLMs

  • Descripción general de las capacidades de Ollama
  • Ventajas del despliegue de modelos de IA local
  • Comparación con soluciones de alojamiento de IA basadas en la nube

Configuración del entorno de despliegue

  • Instalación de Ollama y dependencias necesarias
  • Configuración de hardware y aceleración por GPU
  • Contenerización de Ollama para despliegues escalables

Despliegue de LLMs con Ollama

  • Carga y gestión de modelos de IA
  • Despliegue de Llama 3, DeepSeek, Mistral y otros modelos
  • Creación de APIs y puntos de acceso para los modelos de IA

Optimización del rendimiento de los LLMs

  • Ajuste fino de modelos para mayor eficiencia
  • Reducción de latencia y mejora de los tiempos de respuesta
  • Gestión de memoria y asignación de recursos

Integración de Ollama en flujos de trabajo de IA

  • Conexión de Ollama con aplicaciones y servicios
  • Automatización de procesos impulsados por IA
  • Uso de Ollama en entornos de computación de borde

Monitoreo y mantenimiento

  • Rastreo del rendimiento y resolución de problemas
  • Actualización y gestión de modelos de IA
  • Garantía de seguridad y cumplimiento en despliegues de IA

Escalado de despliegues de modelos de IA

  • Mejores prácticas para manejar cargas de trabajo elevadas
  • Escalado de Ollama para casos de uso empresarial
  • Avances futuros en el despliegue local de modelos de IA

Resumen y siguientes pasos

Requerimientos

  • Experiencia básica con aprendizaje automático y modelos de IA
  • Conocimiento de interfaces de línea de comandos y scripting
  • Comprensión de entornos de despliegue (local, borde, nube)

Audiencia

  • Ingenieros de IA que optimizan despliegues de IA locales y basados en la nube
  • Profesionales de ML que despliegan y ajustan LLMs
  • Especialistas en DevOps que gestionan la integración de modelos de IA
 14 Horas

Número de participantes


Precio por participante

Próximos cursos

Categorías Relacionadas