Temario del curso
Día 1: Fundamentos y Amenazas Principales
Módulo 1: Introducción al Proyecto OWASP GenAI Security (1 hora)
Objetivos de Aprendizaje:
- Comprender la evolución desde el OWASP Top 10 hasta los desafíos específicos de seguridad de GenAI.
- Explorar el ecosistema y recursos del proyecto OWASP GenAI Security.
- Identificar las principales diferencias entre la seguridad tradicional de aplicaciones y la seguridad de IA.
Temas Cubiertos:
- Visión general de la misión y alcance del proyecto OWASP GenAI Security.
- Introducción al marco Threat Defense COMPASS.
- Comprensión del panorama de seguridad de IA y los requisitos regulatorios.
- Superficies de ataque de IA frente a vulnerabilidades tradicionales de aplicaciones web.
Ejercicio Práctico: Configurar la herramienta OWASP Threat Defense COMPASS y realizar una evaluación inicial de amenazas.
Módulo 2: OWASP Top 10 para LLMs - Parte 1 (2.5 horas)
Objetivos de Aprendizaje:
- Dominar las primeras cinco vulnerabilidades críticas de LLM.
- Comprender vectores de ataque y técnicas de explotación.
- Aplicar estrategias prácticas de mitigación.
Temas Cubiertos:
LLM01: Inyección de Prompt
- Técnicas directas e indirectas de inyección de prompt.
- Ataques con instrucciones ocultas y contaminación cruzada de prompts.
- Ejemplos prácticos: Liberar chatbots y eludir medidas de seguridad.
- Estrategias de defensa: Sanitización de entrada, filtrado de prompts, privacidad diferencial.
LLM02: Divulgación de Información Sensible
- Extracción de datos de entrenamiento y filtración de prompts del sistema.
- Análisis del comportamiento del modelo para la exposición de información sensible.
- Implicaciones de privacidad y consideraciones de cumplimiento regulatorio.
- Mitigación: Filtrado de salida, controles de acceso, anonimización de datos.
LLM03: Vulnerabilidades de la Cadena de Suministro
- Dependencias de modelos de terceros y seguridad de plugins.
- Conjuntos de datos de entrenamiento comprometidos y envenenamiento del modelo.
- Evaluación de riesgos de proveedores para componentes de IA.
- Prácticas seguras de despliegue y verificación de modelos.
Ejercicio Práctico: Laboratorio práctico que demuestra ataques de inyección de prompt contra aplicaciones vulnerables de LLM e implementación de medidas defensivas.
Módulo 3: OWASP Top 10 para LLMs - Parte 2 (2 horas)
Temas Cubiertos:
LLM04: Envenenamiento de Datos y Modelos
- Técnicas de manipulación de datos de entrenamiento.
- Modificación del comportamiento del modelo a través de entradas envenenadas.
- Ataques con puertas traseras y verificación de integridad de datos.
- Prevención: Pipelines de validación de datos, seguimiento de procedencia.
LLM05: Manejo Incorrecto de la Salida
- Procesamiento inseguro del contenido generado por LLM.
- Inyección de código a través de salidas generadas por IA.
- Cross-site scripting mediante respuestas de IA.
- Marcos de validación y sanitización de salida.
Ejercicio Práctico: Simulación de ataques de envenenamiento de datos e implementación de mecanismos robustos de validación de salida.
Módulo 4: Amenazas Avanzadas para LLMs (1.5 horas)
Temas Cubiertos:
LLM06: Agencia Excesiva
- Riesgos de toma de decisiones autónomas y violaciones de límites.
- Gestión de autoridad y permisos de agentes.
- Interacciones no intencionadas del sistema y escalada de privilegios.
- Implementación de barreras y controles de supervisión humana.
LLM07: Filtración del Prompt del Sistema
- Vulnerabilidades de exposición de instrucciones del sistema.
- Divulgación de credenciales y lógica a través de prompts.
- Técnicas de ataque para extraer prompts del sistema.
- Seguridad de instrucciones del sistema y configuración externa.
Ejercicio Práctico: Diseño de arquitecturas seguras de agentes con controles de acceso adecuados y monitoreo.
Día 2: Amenazas Avanzadas e Implementación
Módulo 5: Amenazas Emergentes de IA (2 horas)
Objetivos de Aprendizaje:
- Comprender amenazas de seguridad emergentes en IA.
- Implementar técnicas avanzadas de detección y prevención.
- Diseñar sistemas de IA resistentes a ataques sofisticados.
Temas Cubiertos:
LLM08: Debilidades de Vectores y Embebidos
- Vulnerabilidades del sistema RAG y seguridad de la base de datos vectorial.
- Envenenamiento de embebidos y ataques de manipulación de similitud.
- Ejemplos adversarios en búsqueda semántica.
- Seguridad de almacenes vectoriales e implementación de detección de anomalías.
LLM09: Desinformación y Fiabilidad del Modelo
- Detección y mitigación de alucinaciones.
- Amplificación de sesgos y consideraciones de equidad.
- Mecanismos de verificación de hechos y fuentes.
- Validación de contenido e integración de supervisión humana.
LLM10: Consumo Ilimitado
- Agotamiento de recursos y ataques de denegación de servicio.
- Estrategias de limitación de velocidad y gestión de recursos.
- Optimización de costos y controles presupuestarios.
- Monitoreo de rendimiento y sistemas de alerta.
Ejercicio Práctico: Construcción de un pipeline seguro RAG con protección de base de datos vectorial y detección de alucinaciones.
Módulo 6: Seguridad de IA Agente (2 horas)
Objetivos de Aprendizaje:
- Comprender los desafíos de seguridad únicos de agentes autónomos de IA.
- Aplicar la taxonomía OWASP Agentic AI a sistemas del mundo real.
- Implementar controles de seguridad para entornos multi-agente.
Temas Cubiertos:
- Introducción a la IA Agente y sistemas autónomos.
- Taxonomía OWASP Agentic AI: Diseño de Agentes, Memoria, Planificación, Uso de Herramientas, Despliegue.
- Seguridad y riesgos de coordinación en sistemas multi-agente.
- Mal uso de herramientas, envenenamiento de memoria y ataques de secuestro de objetivos.
- Seguridad en la comunicación y procesos de toma de decisiones de agentes.
Ejercicio Práctico: Ejercicio de modelado de amenazas utilizando la taxonomía OWASP Agentic AI en un sistema multi-agente de servicio al cliente.
Módulo 7: Implementación de Threat Defense COMPASS (2 horas)
Objetivos de Aprendizaje:
- Dominar la aplicación práctica de Threat Defense COMPASS.
- Integrar la evaluación de amenazas de IA en programas de seguridad organizacionales.
- Desarrollar estrategias comprehensivas de gestión de riesgos de IA.
Temas Cubiertos:
- Inmersión profunda en la metodología Threat Defense COMPASS.
- Integración del Bucle OODA: Observar, Orientar, Decidir, Actuar.
- Mapeo de amenazas a marcos MITRE ATT&CK y ATLAS.
- Construcción de Tableros de Estrategia de Resiliencia a Amenazas de IA.
- Integración con herramientas y procesos de seguridad existentes.
Ejercicio Práctico: Evaluación completa de amenazas utilizando COMPASS para un escenario de despliegue de Microsoft Copilot.
Módulo 8: Implementación Práctica y Mejores Prácticas (2.5 horas)
Objetivos de Aprendizaje:
- Diseñar arquitecturas seguras de IA desde cero.
- Implementar monitoreo y respuesta a incidentes para sistemas de IA.
- Crear marcos de gobernanza para la seguridad de IA.
Temas Cubiertos:
Ciclo de Desarrollo Seguro de IA:
- Principios de seguridad por diseño para aplicaciones de IA.
- Prácticas de revisión de código para integraciones de LLM.
- Metodologías de prueba y escaneo de vulnerabilidades.
- Seguridad en el despliegue y endurecimiento en producción.
Monitoreo y Detección:
- Requisitos específicos de registro y monitoreo para sistemas de IA.
- Detección de anomalías para sistemas de IA.
- Procedimientos de respuesta a incidentes para eventos de seguridad de IA.
- Técnicas de forensia e investigación.
Gobernanza y Cumplimiento:
- Marcos y políticas de gestión de riesgos de IA.
- Consideraciones de cumplimiento regulatorio (GDPR, AI Act, etc.).
- Evaluación de riesgos de terceros para proveedores de IA.
- Capacitación en seguridad consciente para equipos de desarrollo de IA.
Ejercicio Práctico: Diseño de una arquitectura de seguridad completa para un chatbot empresarial de IA, incluyendo monitoreo, gobernanza y procedimientos de respuesta a incidentes.
Módulo 9: Herramientas y Tecnologías (1 hora)
Objetivos de Aprendizaje:
- Evaluar e implementar herramientas de seguridad de IA.
- Comprender el panorama actual de soluciones de seguridad de IA.
- Construir capacidades prácticas de detección y prevención.
Temas Cubiertos:
- Ecosistema de herramientas de seguridad de IA y panorama de proveedores.
- Herramientas de seguridad de código abierto: Garak, PyRIT, Giskard.
- Soluciones comerciales para la seguridad y monitoreo de IA.
- Patrones de integración y estrategias de despliegue.
- Criterios de selección de herramientas y marcos de evaluación.
Ejercicio Práctico: Demostración práctica de herramientas de prueba de seguridad de IA y planificación de implementación.
Módulo 10: Tendencias Futuras y Resumen (1 hora)
Objetivos de Aprendizaje:
- Comprender amenazas emergentes y desafíos futuros de seguridad.
- Desarrollar estrategias de aprendizaje continuo y mejora.
- Crear planes de acción para programas de seguridad de IA organizacionales.
Temas Cubiertos:
- Amenazas emergentes: Deepfakes, inyección de prompts avanzada, inversión de modelos.
- Desarrollos y roadmap futuros del proyecto OWASP GenAI.
- Construcción de comunidades de seguridad de IA y compartir conocimientos.
- Mejora continua e integración de inteligencia de amenazas.
Ejercicio de Planificación de Acción: Desarrollar un plan de acción de 90 días para implementar prácticas de seguridad OWASP GenAI en las organizaciones de los participantes.
Requerimientos
- Comprensión general de los principios de seguridad de aplicaciones web.
- Familiaridad básica con conceptos de IA/ML (Inteligencia Artificial/Aprendizaje Automático).
- Experiencia con marcos de seguridad o metodologías de evaluación de riesgos preferida.
Audiencia
- Profesionales de ciberseguridad
- Desarrolladores de IA
- Arquitectos de sistemas
- Oficiales de cumplimiento
- Practicantes de seguridad