Curso de Advanced Techniques in Transfer Learning
El aprendizaje por transferencia es una técnica poderosa en el aprendizaje profundo donde los modelos preentrenados se adaptan para resolver nuevas tareas de manera efectiva. Este curso explora métodos avanzados de aprendizaje por transferencia, incluida la adaptación específica del dominio, el aprendizaje continuo y el ajuste fino de múltiples tareas, para aprovechar todo el potencial de los modelos previamente entrenados.
Esta capacitación en vivo dirigida por un instructor (en línea o presencial) está dirigida a profesionales del aprendizaje automático de nivel avanzado que desean dominar técnicas de transferencia de aprendizaje de vanguardia y aplicarlas a problemas complejos del mundo real.
Al final de esta formación, los participantes serán capaces de:
- Comprender conceptos y metodologías avanzadas en el aprendizaje por transferencia.
- Implemente técnicas de adaptación específicas del dominio para modelos previamente entrenados.
- Aplique el aprendizaje continuo para gestionar tareas y conjuntos de datos en evolución.
- Domine el ajuste multitarea para mejorar el rendimiento del modelo en todas las tareas.
Formato del curso
- Charla y discusión interactiva.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
- Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertarlo.
Programa del Curso
Introducción al Aprendizaje Avanzado de Transferencia
- Resumen de los fundamentos del aprendizaje por transferencia
- Desafíos en el aprendizaje de transferencia avanzado
- Resumen de las investigaciones y avances recientes
Adaptación específica del dominio
- Comprender la adaptación y los cambios de dominio
- Técnicas para el ajuste fino específico del dominio
- Casos prácticos: Adaptación de modelos previamente entrenados a nuevos dominios
Aprendizaje continuo
- Introducción al aprendizaje a lo largo de toda la vida y sus retos
- Técnicas para evitar el olvido catastrófico
- Implementación del aprendizaje continuo en redes neuronales
Aprendizaje y ajuste multitarea
- Comprender los marcos de aprendizaje multitarea
- Estrategias para el ajuste fino de múltiples tareas
- Aplicaciones del mundo real del aprendizaje multitarea
Técnicas Avanzadas para el Aprendizaje por Transferencia
- Capas de adaptadores y ajuste fino ligero
- Meta-learning para la optimización del aprendizaje por transferencia
- Explorando el aprendizaje de transferencia interlingüe
Implementación práctica
- Creación de un modelo adaptado al dominio
- Implementación de flujos de trabajo de aprendizaje continuo
- Ajuste fino multitarea con Hugging Face Transformers
Aplicaciones en el mundo real
- Transferencia de aprendizaje en PNL y visión artificial
- Adaptación de modelos para la salud y las finanzas
- Estudios de caso sobre la resolución de problemas del mundo real
Tendencias futuras en el aprendizaje por transferencia
- Técnicas emergentes y áreas de investigación
- Oportunidades y desafíos para ampliar el aprendizaje por transferencia
- Impacto del aprendizaje transferido en la innovación en IA
Resumen y próximos pasos
Requerimientos
- Sólida comprensión de los conceptos de aprendizaje automático y aprendizaje profundo
- Experiencia con Python programación
- Familiaridad con las redes neuronales y los modelos preentrenados
Audiencia
- Ingenieros de aprendizaje automático
- Investigadores de IA
- Científicos de datos interesados en técnicas avanzadas de adaptación de modelos
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de Advanced Techniques in Transfer Learning - Booking
Curso de Advanced Techniques in Transfer Learning - Enquiry
Advanced Techniques in Transfer Learning - Consultas
Consultas
Próximos cursos
Cursos Relacionados
Deploying Fine-Tuned Models in Production
21 HorasEsta capacitación en vivo dirigida por un instructor en Colombia (en línea o presencial) está dirigida a profesionales de nivel avanzado que desean implementar modelos ajustados de manera confiable y eficiente.
Al final de esta formación, los participantes serán capaces de:
- Comprenda los desafíos de implementar modelos ajustados en producción.
- Incluya e implemente modelos en contenedores con herramientas como Docker y Kubernetes.
- Implemente la supervisión y el registro para los modelos implementados.
- Optimice los modelos para la latencia y la escalabilidad en escenarios del mundo real.
Domain-Specific Fine-Tuning for Finance
21 HorasEsta capacitación en vivo dirigida por un instructor en Colombia (en línea o presencial) está dirigida a profesionales de nivel intermedio que desean adquirir habilidades prácticas en la personalización de modelos de IA para tareas financieras críticas.
Al final de esta formación, los participantes serán capaces de:
- Comprender los fundamentos del ajuste fino para aplicaciones financieras.
- Aproveche los modelos entrenados previamente para tareas específicas de dominio en finanzas.
- Aplicar técnicas de detección de fraude, evaluación de riesgos y generación de asesoramiento financiero.
- Garantice el cumplimiento de las regulaciones financieras como GDPR y SOX.
- Implemente prácticas éticas de seguridad de datos e IA en aplicaciones financieras.
Fine-Tuning Models and Large Language Models (LLMs)
14 HorasEsta capacitación en vivo dirigida por un instructor en Colombia (en línea o presencial) está dirigida a profesionales de nivel intermedio a avanzado que desean personalizar modelos previamente entrenados para tareas y conjuntos de datos específicos.
Al final de esta formación, los participantes serán capaces de:
- Comprender los principios del ajuste fino y sus aplicaciones.
- Prepare conjuntos de datos para ajustar los modelos previamente entrenados.
- Ajuste los modelos de lenguaje grandes (LLM) para las tareas de NLP.
- Optimice el rendimiento del modelo y aborde los desafíos comunes.
Efficient Fine-Tuning with Low-Rank Adaptation (LoRA)
14 HorasEsta capacitación en vivo dirigida por un instructor en Colombia (en línea o presencial) está dirigida a desarrolladores de nivel intermedio y profesionales de la IA que desean implementar estrategias de ajuste para modelos grandes sin la necesidad de grandes recursos computacionales.
Al final de esta formación, los participantes serán capaces de:
- Comprender los principios de la Adaptación de Bajo Rango (LoRA).
- Implemente LoRA para un ajuste eficiente de modelos grandes.
- Optimice el ajuste fino para entornos con recursos limitados.
- Evalúe e implemente modelos ajustados a LoRA para aplicaciones prácticas.
Fine-Tuning Multimodal Models
28 HorasEsta capacitación en vivo dirigida por un instructor en Colombia (en línea o presencial) está dirigida a profesionales de nivel avanzado que deseen dominar el ajuste fino de modelos multimodales para soluciones innovadoras de IA.
Al final de esta formación, los participantes serán capaces de:
- Comprender la arquitectura de modelos multimodales como CLIP y Flamingo.
- Prepare y preprocese conjuntos de datos multimodales de forma eficaz.
- Ajuste los modelos multimodales para tareas específicas.
- Optimice los modelos para las aplicaciones y el rendimiento del mundo real.
Fine-Tuning for Natural Language Processing (NLP)
21 HorasEsta capacitación en vivo dirigida por un instructor en Colombia (en línea o presencial) está dirigida a profesionales de nivel intermedio que desean mejorar sus proyectos de PNL a través del ajuste efectivo de modelos de lenguaje preentrenados.
Al final de esta formación, los participantes serán capaces de:
- Comprender los fundamentos del ajuste fino de las tareas de PNL.
- Ajuste los modelos previamente entrenados, como GPT, BERT y T5, para aplicaciones específicas de NLP.
- Optimice los hiperparámetros para mejorar el rendimiento del modelo.
- Evalúe e implemente modelos ajustados en escenarios del mundo real.
Fine-Tuning DeepSeek LLM for Custom AI Models
21 HorasEste entrenamiento en vivo dirigido por un instructor en Colombia (en línea o en el sitio) está dirigido a investigadores de IA, ingenieros de aprendizaje automático y desarrolladores de nivel avanzado que desean ajustar (536) modelos LLM para crear aplicaciones de IA especializadas adaptadas a industrias, dominios o necesidades comerciales específicas.
Al final de esta capacitación, los participantes podrán:
- Entender la arquitectura y las capacidades de los modelos DeepSeek, incluidos DeepSeek-R1 y DeepSeek-V3.
- Preparar conjuntos de datos y preprocessar datos para fine-tuning.
- Ajustar DeepSeek LLM para aplicaciones específicas de dominio.
- Optimizar y desplegar modelos afinados de manera eficiente.
Fine-Tuning Large Language Models Using QLoRA
14 HorasEsta formación en vivo dirigida por un instructor en Colombia (en línea o presencial) está destinada a ingenieros de aprendizaje automático de nivel intermedio y avanzado, desarrolladores de IA y científicos de datos que desean aprender a utilizar QLoRA para ajustar eficientemente grandes modelos a tareas específicas y personalizaciones.
Al finalizar esta formación, los participantes podrán:
- Comprender la teoría detrás de QLoRA y las técnicas de cuantización para modelos de lenguaje grandes (LLM).
- Implementar QLoRA en el ajuste fino de grandes modelos de lenguaje para aplicaciones específicas de dominio.
- Optimizar el rendimiento del ajuste fino en recursos computacionales limitados utilizando cuantización.
- Deploy and evaluate fine-tuned models in real-world applications efficiently.
Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.)
14 HorasThis instructor-led, live training in Colombia (online or onsite) is aimed at intermediate-level ML practitioners and AI developers who wish to fine-tune and deploy open-weight models like LLaMA, Mistral, and Qwen for specific business or internal applications.
By the end of this training, participants will be able to:
- Understand the ecosystem and differences between open-source LLMs.
- Prepare datasets and fine-tuning configurations for models like LLaMA, Mistral, and Qwen.
- Execute fine-tuning pipelines using Hugging Face Transformers and PEFT.
- Evaluate, save, and deploy fine-tuned models in secure environments.
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems
14 HorasThis instructor-led, live training in Colombia (online or onsite) is aimed at intermediate-level NLP engineers and knowledge management teams who wish to fine-tune RAG pipelines to enhance performance in question answering, enterprise search, and summarization use cases.
By the end of this training, participants will be able to:
- Understand the architecture and workflow of RAG systems.
- Fine-tune retriever and generator components for domain-specific data.
- Evaluate RAG performance and apply improvements through PEFT techniques.
- Deploy optimized RAG systems for internal or production use.
Fine-Tuning with Reinforcement Learning from Human Feedback (RLHF)
14 HorasEsta formación en vivo dirigida por un instructor en Colombia (en línea o presencial) está destinada a ingenieros avanzados de aprendizaje automático y investigadores de IA que desean aplicar RLHF para afinar modelos grandes de IA con un rendimiento superior, seguridad y alineación.
Al finalizar esta formación, los participantes podrán:
- Comprender las bases teóricas del RLHF y por qué es esencial en el desarrollo moderno de IA.
- Implementar modelos de recompensa basados en la retroalimentación humana para guiar los procesos de aprendizaje por refuerzo.
- Afinar modelos grandes de lenguaje utilizando técnicas de RLHF para alinear las salidas con las preferencias humanas.
- Aplicar las mejores prácticas para escalar flujos de trabajo de RLHF en sistemas de IA de producción.
Fine-Tuning Vision-Language Models (VLMs)
14 HorasThis instructor-led, live training in Colombia (online or onsite) is aimed at advanced-level computer vision engineers and AI developers who wish to fine-tune VLMs such as CLIP and Flamingo to improve performance on industry-specific visual-text tasks.
By the end of this training, participants will be able to:
- Understand the architecture and pretraining methods of vision-language models.
- Fine-tune VLMs for classification, retrieval, captioning, or multimodal QA.
- Prepare datasets and apply PEFT strategies to reduce resource usage.
- Evaluate and deploy customized VLMs in production environments.
Optimizing Large Models for Cost-Effective Fine-Tuning
21 HorasEsta capacitación en vivo dirigida por un instructor en Colombia (en línea o presencial) está dirigida a profesionales de nivel avanzado que desean dominar técnicas para optimizar modelos grandes para un ajuste rentable en escenarios del mundo real.
Al final de esta formación, los participantes serán capaces de:
- Comprenda los desafíos de ajustar modelos grandes.
- Aplique técnicas de entrenamiento distribuidas a modelos grandes.
- Aproveche la cuantificación y la poda de modelos para lograr la eficiencia.
- Optimice la utilización del hardware para las tareas de ajuste.
- Implemente modelos ajustados de forma eficaz en entornos de producción.
Prompt Engineering and Few-Shot Fine-Tuning
14 HorasEsta capacitación en vivo dirigida por un instructor en Colombia (en línea o en el sitio) está dirigida a profesionales de nivel intermedio que desean aprovechar el poder de la ingeniería rápida y el aprendizaje de pocos disparos para optimizar el rendimiento de LLM para aplicaciones del mundo real.
Al final de esta formación, los participantes serán capaces de:
- Comprender los principios de la ingeniería rápida y el aprendizaje de pocos disparos.
- Diseñe indicaciones efectivas para varias tareas de NLP.
- Aproveche las técnicas de pocos disparos para adaptar los LLM con datos mínimos.
- Optimice el rendimiento de LLM para aplicaciones prácticas.
Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs
14 HorasThis instructor-led, live training in Colombia (online or onsite) is aimed at intermediate-level data scientists and AI engineers who wish to fine-tune large language models more affordably and efficiently using methods like LoRA, Adapter Tuning, and Prefix Tuning.
By the end of this training, participants will be able to:
- Understand the theory behind parameter-efficient fine-tuning approaches.
- Implement LoRA, Adapter Tuning, and Prefix Tuning using Hugging Face PEFT.
- Compare performance and cost trade-offs of PEFT methods vs. full fine-tuning.
- Deploy and scale fine-tuned LLMs with reduced compute and storage requirements.