Curso de Securing AI Models: Threats, Attacks, and Defenses
La seguridad de los modelos de IA es la disciplina que defiende los sistemas de aprendizaje automático contra amenazas específicas del modelo como entradas adversarias, envenenamiento de datos, ataques de inversión y filtración de privacidad.
Este entrenamiento guiado por un instructor (en línea o presencial) está dirigido a profesionales intermedios de aprendizaje automático y ciberseguridad que desean comprender y mitigar las amenazas emergentes contra los modelos de IA, utilizando tanto marcos conceptuales como defensas prácticas como el entrenamiento robusto y la privacidad diferencial.
Al finalizar este entrenamiento, los participantes podrán:
- Identificar y clasificar amenazas específicas de IA como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como la Caja de Herramientas de Robustez Adversaria (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas, incluyendo el entrenamiento adversario, la inyección de ruido y técnicas de preservación de privacidad.
- Diseñar estrategias de evaluación de modelos conscientes de amenazas en entornos de producción.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones para la Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Programa del Curso
Introducción a la Modelización de Amenazas en IA
- ¿Qué hace que los sistemas de IA sean vulnerables?
- Superficie de ataque de IA vs. sistemas tradicionales
- Vectores de ataque clave: capas de datos, modelo, salida e interfaz
Ataques Adversarios en Modelos de IA
- Comprendiendo ejemplos adversarios y técnicas de perturbación
- Ataques con conocimiento total vs. ataques con conocimiento parcial
- Métodos FGSM, PGD y DeepFool
- Visualización y creación de muestras adversarias
Inversión del Modelo y Fugas de Privacidad
- Inferencia de datos de entrenamiento desde la salida del modelo
- Ataques de inferencia de membresía
- Riesgos de privacidad en modelos de clasificación y generativos
Envenenamiento de Datos e Inyección de Puertas Traseras
- Cómo los datos envenenados influyen en el comportamiento del modelo
- Puertas traseras basadas en desencadenantes y ataques Troyanos
- Estrategias de detección y saneamiento
Robustez y Técnicas Defensivas
- Entrenamiento adversario y aumento de datos
- Máscara de gradientes y preprocesamiento de entrada
- Suavizado del modelo y técnicas de regularización
Defensas de IA con Preservación de Privacidad
- Introducción a la privacidad diferencial
- Inyección de ruido y presupuestos de privacidad
- Aprendizaje federado y agregación segura
AI Security en Práctica
- Evaluación y despliegue del modelo con conciencia de amenazas
- Uso del ART (Adversarial Robustness Toolbox) en entornos aplicados
- Estudios de caso de la industria: brechas reales y mitigaciones
Resumen y Próximos Pasos
Requerimientos
- Comprender los flujos de trabajo del aprendizaje automático y el entrenamiento de modelos
- Experiencia con Python y marcos comunes de ML como PyTorch o TensorFlow
- Conocimiento básico de conceptos de seguridad o modelado de amenazas es útil
Objetivo del curso
- Ingenieros de aprendizaje automático
- Analistas de ciberseguridad
- Investigadores de IA y equipos de validación de modelos
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de Securing AI Models: Threats, Attacks, and Defenses - Reserva
Curso de Securing AI Models: Threats, Attacks, and Defenses - Consulta
Securing AI Models: Threats, Attacks, and Defenses - Consulta de consultoría
Consulta de consultoría
Próximos cursos
Cursos Relacionados
Gobernanza de IA, Cumplimiento y Seguridad para Líderes Empresariales
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) está destinado a líderes empresariales de nivel intermedio que desean comprender cómo gobernar y asegurar sistemas de IA de manera responsable y conforme a los marcos globales emergentes como la EU AI Act, GDPR, ISO/IEC 42001 y el Decreto Ejecutivo de EE.UU. sobre IA.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Comprender los riesgos legales, éticos y regulatorios de usar la IA en diferentes departamentos.
- Interpretar y aplicar marcos importantes de gobernanza de IA (EU AI Act, NIST AI RMF, ISO/IEC 42001).
- Establecer políticas de seguridad, auditoría y supervisión para la implementación de IA en la empresa.
- Desarrollar directrices de adquisición y uso para sistemas de IA de terceros y internos.
Inteligencia Artificial Risk Management y Seguridad en el Sector Público
7 HorasArtificial Intelligence (AI) introduce nuevas dimensiones de riesgo operativo, desafíos de gobernanza y exposición a ciberseguridad para las agencias y departamentos gubernamentales.
Este entrenamiento dirigido por un instructor (en línea o en el sitio) está orientado a profesionales IT y de riesgos del sector público con experiencia limitada en IA que desean comprender cómo evaluar, monitorear y proteger sistemas de IA dentro de un contexto gubernamental o regulatorio.
Al finalizar este entrenamiento, los participantes podrán:
- Interpretar conceptos clave de riesgo relacionados con los sistemas de IA, incluyendo sesgo, impredecibilidad y deriva del modelo.
- Aplicar marcos de gobernanza y auditoría específicos de la IA como NIST AI RMF e ISO/IEC 42001.
- Reconocer amenazas de ciberseguridad que atacan modelos de IA y canales de datos.
- Establecer planes de gestión de riesgos interdepartamentales y alineación de políticas para la implementación de IA.
Formato del Curso
- Conferencia interactiva y discusión sobre casos de uso del sector público.
- Ejercicios con marcos de gobernanza de IA y mapeo de políticas.
- Modelado de amenazas basado en escenarios y evaluación de riesgos.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso, contáctenos para coordinar.
Introducción a la Confianza, Riesgo y Security Management en IA (AI TRiSM)
21 HorasEsta formación en vivo dirigida por un instructor (online o presencial) está destinada a profesionales de TI principiantes y de nivel intermedio que desean entender e implementar AI TRiSM en sus organizaciones.
Al finalizar esta capacitación, los participantes podrán:
- Comprender los conceptos clave y la importancia de la confianza, el manejo del riesgo y la seguridad en AI.
- Identificar y mitigar los riesgos asociados con los sistemas AI.
- Implementar las mejores prácticas de seguridad para AI.
- Entender la conformidad regulatoria y las consideraciones éticas para AI.
- Desarrollar estrategias efectivas para la gobernanza y gestión de AI.
Building Secure and Responsible LLM Applications
14 HorasEsta formación en vivo dirigida por un instructor en Colombia (en línea o presencial) está destinada a desarrolladores, arquitectos e instructores de productos intermedios y avanzados que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo inyección de prompts, filtración de datos y salida no filtrada, mientras incorporan controles de seguridad como validación de entrada, supervisión humana en el ciclo (human-in-the-loop) y barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Usar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión humana en el ciclo (human-in-the-loop) en pipelines de producción.
Descripción general de la arquitectura LLM y superficie de ataque
- Cómo se construyen, implementan y acceden a los LLM mediante APIs
- Componentes clave en pilas de aplicaciones LLM (por ejemplo, prompts, agentes, memoria, APIs)
- Dónde y cómo surgen problemas de seguridad en el uso real
Inyección de Prompts y Ataques de Escape
- Qué es la inyección de prompts y por qué es peligrosa
- Casos directos e indirectos de inyección de prompts
- Técnicas de escape para eludir filtros de seguridad
- Estrategias de detección y mitigación
Filtración de Datos y Riesgos a la Privacidad
- Exposición accidental de datos a través de respuestas
- Vulnerabilidades de PII y uso indebido de memoria del modelo
- Diseño de prompts conscientes de la privacidad y generación aumentada por recuperación (RAG)
Filtrado y Protección de Salida LLM
- Uso de Guardrails AI para filtrado y validación de contenido
- Definición de esquemas y restricciones de salida
- Monitoreo y registro de salidas inseguras
Supervisión Humana en el Ciclo (Human-in-the-Loop) y Enfoques de Flujo de Trabajo
- Dónde y cuándo introducir supervisión humana
- Colas de aprobación, umbrales de puntuación, manejo de respaldos
- Calibración de confianza y papel de la explicabilidad
Aplicaciones LLM Seguras Design Patterns
- Mínimos privilegios y sandboxing para llamadas a API y agentes
- Límites de velocidad, trottling y detección de abuso
- Cadenas robustas con LangChain y aislamiento de prompts
Compliance, Registro e Governance
- Asegurar la auditoría de las salidas LLM
- Mantener trazabilidad y control de versiones del prompt
- Alinear con políticas internas de seguridad y necesidades regulatorias
Resumen y Próximos Pasos
La seguridad de aplicaciones LLM es la disciplina de diseñar, construir y mantener sistemas seguros, confiables y acordes a las políticas utilizando modelos de lenguaje grandes.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a desarrolladores, arquitectos e instructores de productos intermedios y avanzados que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo inyección de prompts, filtración de datos y salida no filtrada, mientras incorporan controles de seguridad como validación de entrada, supervisión humana en el ciclo (human-in-the-loop) y barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Usar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión humana en el ciclo (human-in-the-loop) en pipelines de producción.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
Requisitos Previos
- Entendimiento de modelos de lenguaje grandes y interfaces basadas en prompts
- Experiencia construyendo aplicaciones LLM usando Python
- Familiaridad con integraciones API y despliegues basados en la nube
Audiencia
- Desarrolladores de IA
- Arquitectos de aplicaciones y soluciones
- Gestores técnicos de productos que trabajan con herramientas LLM
Ciberseguridad en sistemas de IA
14 HorasEsta formación en vivo, guiada por un instructor (en línea o presencial) está dirigida a profesionales de nivel intermedio de IA y ciberseguridad que desean comprender y abordar las vulnerabilidades de seguridad específicas de los modelos y sistemas de IA, especialmente en industrias altamente reguladas como finanzas, gobernanza de datos y consultoría.
Al finalizar esta formación, los participantes serán capaces de:
- Comprender los tipos de ataques adversarios dirigidos a sistemas de IA y métodos para defenderse contra ellos.
- Implementar técnicas de endurecimiento del modelo para proteger las tuberías de aprendizaje automático.
- Asegurar la seguridad y integridad de los datos en modelos de aprendizaje automático.
- Navegar entre los requisitos de cumplimiento normativo relacionados con la seguridad de la IA.
Introducción a AI Security y Risk Management
14 HorasEste curso en vivo, impartido por un instructor (en línea o presencial) en Colombia, está dirigido a profesionales de nivel principiante en seguridad informática, gestión de riesgos y cumplimiento que desean comprender los conceptos fundamentales de la seguridad de IA, vectores de amenaza y marcos globales como el NIST AI RMF e ISO/IEC 42001.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender los riesgos de seguridad únicos introducidos por los sistemas de IA.
- Identificar vectores de amenaza como ataques adversarios, envenenamiento de datos y reversión del modelo.
- Aplicar modelos de gobernanza fundamentales como el Marco NIST AI Risk Management.
- Alinear el uso de IA con estándares emergentes, directrices de cumplimiento y principios éticos.
OWASP GenAI Security
14 HorasBased on the latest OWASP GenAI Security Project guidance, participants will learn to identify, assess, and mitigate AI-specific threats through hands-on exercises and real-world scenarios.
Preservación de la Privacidad Machine Learning
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) está destinado a profesionales avanzados que desean implementar y evaluar técnicas como el aprendizaje federado, el cálculo multiparte seguro, la criptografía homomórfica y la privacidad diferencial en las tuberías de aprendizaje automático del mundo real.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender y comparar técnicas clave para preservar la privacidad en ML.
- Implementar sistemas de aprendizaje federado utilizando marcos de código abierto.
- Aplicar la privacidad diferencial para compartir datos seguros y entrenamiento de modelos.
- Utilizar técnicas de encriptación y cálculo seguro para proteger las entradas y salidas del modelo.
Red Teaming AI Systems: Offensive Security for ML Models
14 HorasEste entrenamiento en vivo dirigido por un instructor en Colombia (en línea o presencial) está diseñado para profesionales avanzados de seguridad y especialistas en IA que desean simular ataques a sistemas de inteligencia artificial, descubrir vulnerabilidades e incrementar la robustez de los modelos AI implementados.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Simular amenazas del mundo real a los modelos de aprendizaje automático.
- Generar ejemplos adversarios para probar la robustez del modelo.
- Evaluar el área de ataque de las API y los flujos de trabajo de AI.
- Diseñar estrategias de equipo rojo para entornos de implementación de AI.
Securing Edge AI y la Inteligencia Embebida
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea u onsite) está diseñado para ingenieros de nivel intermedio y profesionales de seguridad que desean proteger modelos de IA implementados en la edge contra amenazas como el manipulación, fuga de datos, entradas adversarias y ataques físicos.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Identificar y evaluar riesgos de seguridad en implementaciones edge AI.
- Aplicar técnicas de resistencia a la manipulación e inferencias cifradas.
- Fortalecer modelos desplegados en edge y proteger pipelines de datos.
- Implementar estrategias de mitigación de amenazas específicas para sistemas embebidos y con restricciones.