Ciberseguridad en sistemas de IA
La seguridad de los sistemas de IA presenta desafíos únicos que difieren de las abordajes tradicionales de ciberseguridad. Los sistemas de IA son vulnerables a ataques adversarios, envenenamiento de datos y robo de modelos, todos los cuales pueden afectar significativamente las operaciones empresariales e la integridad de los datos. Este curso explora prácticas clave de ciberseguridad para sistemas de IA, cubriendo el aprendizaje automático adversario, la seguridad de los datos en las tuberías de machine learning y los requisitos de cumplimiento para una implementación sólida de AI.
Esta formación impartida por un instructor (en línea o presencial) está dirigida a profesionales intermedios de IA y ciberseguridad que desean entender y abordar las vulnerabilidades específicas de la seguridad en los modelos y sistemas de AI, especialmente en industrias altamente reguladas como finanzas, gobernanza de datos y consultoría.
Al finalizar esta formación, los participantes podrán:
- Comprender los tipos de ataques adversarios dirigidos a sistemas de IA y métodos para defenderse contra ellos.
- Implementar técnicas de fortalecimiento del modelo para proteger las tuberías de machine learning.
- Garantizar la seguridad e integridad de los datos en los modelos de machine learning.
- Navegar por los requisitos de cumplimiento regulatorio relacionados con la seguridad de AI.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para acordarlo.
Temario del curso
Introducción a los Desafíos AI Security
- Comprender los riesgos de seguridad únicos en sistemas de IA
- Comparación entre la ciberseguridad tradicional y la ciberseguridad de AI
- Visión general de las superficies de ataque en modelos de IA
Ataques Adversarios Machine Learning
- Tipos de ataques adversarios: evasión, poisoning y extracción
- Implementación de defensas y contramedidas adversarias
- Estudios de caso sobre ataques adversarios en diferentes industrias
Técnicas de Refuerzo del Modelo
- Introducción a la robustez y refuerzo del modelo
- Técnicas para reducir la vulnerabilidad del modelo ante ataques
- Práctica con distilación defensiva y otros métodos de refuerzo
Seguridad de Datos en Machine Learning
- Protección de las tuberías de datos para el entrenamiento e inferencia
- Prevención de fugas de datos y ataques por inversión del modelo
- Mejores prácticas para gestionar datos sensibles en sistemas AI
Cumplimiento Regulatorio AI Security
- Comprender las regulaciones alrededor de la IA y la seguridad de datos
- Cumplir con GDPR, CCPA y otras leyes de protección de datos
- Desarrollar modelos AI seguros y conforme a normas
Monitoreo y Mantenimiento de la Seguridad del Sistema AI
- Implementación de monitoreo continuo para sistemas AI
- Registro y auditoría para la seguridad en machine learning
- Respuesta a incidentes y violaciones de seguridad en AI
Tendencias Futuras en Ciberseguridad AI
- Técnicas emergentes para la protección de AI y machine learning
- Oportunidades para innovar en ciberseguridad de AI
- Preparación para desafíos futuros de seguridad en AI
Resumen y Próximos Pasos
Requerimientos
- Conocimientos básicos de conceptos de aprendizaje automático y IA
- Familiaridad con los principios y prácticas de ciberseguridad
Publito Objetivo
- Ingenieros de IA y aprendizaje automático que buscan mejorar la seguridad en sistemas AI
- Profesionales de ciberseguridad centrados en la protección de modelos de IA
- Profesionales de cumplimiento y gestión de riesgos en gobernanza y seguridad de datos
Los cursos públicos requieren más de 5 participantes.
Ciberseguridad en sistemas de IA - Reserva
Ciberseguridad en sistemas de IA - Consulta
Ciberseguridad en sistemas de IA - Solicitud de consultoría
Solicitud de consultoría
Próximos cursos
Cursos Relacionados
ISACA Avanzado en Gestión de Seguridad de IA (AAISM)
21 HorasAAISM es un marco avanzado para evaluar, gobernar y gestionar los riesgos de seguridad en sistemas de inteligencia artificial.
Este entrenamiento dirigido por instructores (en línea o presencial) está destinado a profesionales de nivel avanzado que deseen implementar controles de seguridad y prácticas de gobierno efectivas para entornos empresariales de IA.
Al finalizar este programa, los participantes estarán preparados para:
- Evaluar riesgos de seguridad en IA utilizando metodologías reconocidas en la industria.
- Implementar modelos de gobernanza para despliegues responsables de IA.
- Alinear políticas de seguridad de IA con los objetivos organizacionales y las expectativas regulatorias.
- Mejorar la resiliencia y la responsabilidad en operaciones impulsadas por IA.
Formato del Curso
- Conferencias facilitadas respaldadas por análisis de expertos.
- Talleres prácticos y actividades basadas en evaluaciones.
- Ejercicios aplicados utilizando escenarios reales de gobernanza de IA.
Opciones de Personalización del Curso
- Para un entrenamiento personalizado alineado con su estrategia de IA organizacional, póngase en contacto con nosotros para personalizar el curso.
Gobernanza, Cumplimiento y Seguridad de IA para Líderes Empresariales
14 HorasEste entrenamiento dirigido por un instructor en vivo (en línea o presencial) está destinado a líderes empresariales intermedios que desean comprender cómo gobernar y asegurar los sistemas de IA de manera responsable y en conformidad con marcos emergentes como el Reglamento de IA de la UE, el RGPD, ISO/IEC 42001 y la Orden Ejecutiva sobre IA de Estados Unidos.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender los riesgos legales, éticos y regulatorios del uso de IA en diferentes departamentos.
- Interpretar y aplicar marcos principales de gobernanza de IA (Reglamento de IA de la UE, NIST AI RMF, ISO/IEC 42001).
- Establecer políticas de seguridad, auditoría y supervisión para el despliegue de IA en la empresa.
- Desarrollar directrices de adquisición y uso para sistemas de IA de terceros y propios.
Gestión de Riesgos y Seguridad de la IA en el Sector Público
7 HorasLa Inteligencia Artificial (IA) introduce nuevas dimensiones de riesgo operativo, desafíos de gobernanza y exposición a ciberseguridad para las agencias y departamentos gubernamentales.
Este entrenamiento dirigido por un instructor (en línea o en el lugar) está orientado a profesionales del sector público en TI y gestión de riesgos con experiencia limitada previa en IA que desean comprender cómo evaluar, monitorear y asegurar sistemas de IA dentro de un contexto gubernamental o regulatorio.
Al final de este entrenamiento, los participantes serán capaces de:
- Interpretar conceptos clave de riesgo relacionados con los sistemas de IA, incluyendo sesgo, imprevisibilidad y desviación del modelo.
- Aplicar marcos específicos de gobernanza y auditoría de IA como el NIST AI RMF y ISO/IEC 42001.
- Reconocer amenazas de ciberseguridad que se dirigen a modelos y pipelines de datos de IA.
- Establecer planes de gestión de riesgos interdepartamentales y alineación de políticas para la implementación de IA.
Formato del Curso
- Conferencia interactiva y discusión de casos de uso en el sector público.
- Ejercicios de marcos de gobernanza de IA y mapeo de políticas.
- Modelado basado en escenarios y evaluación de riesgos.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso, por favor contáctenos para organizarlo.
Introducción a la Confianza, Riesgo y Security Management en IA (AI TRiSM)
21 HorasEsta formación en vivo dirigida por un instructor (online o presencial) está destinada a profesionales de TI principiantes y de nivel intermedio que desean entender e implementar AI TRiSM en sus organizaciones.
Al finalizar esta capacitación, los participantes podrán:
- Comprender los conceptos clave y la importancia de la confianza, el manejo del riesgo y la seguridad en AI.
- Identificar y mitigar los riesgos asociados con los sistemas AI.
- Implementar las mejores prácticas de seguridad para AI.
- Entender la conformidad regulatoria y las consideraciones éticas para AI.
- Desarrollar estrategias efectivas para la gobernanza y gestión de AI.
Building Secure and Responsible LLM Applications
14 HorasEste curso de formación dirigido por un instructor en Colombia (en línea o presencial) está destinado a desarrolladores, arquitectos y gerentes de productos de IA de nivel intermedio a avanzado que deseen identificar y mitigar riesgos asociados con aplicaciones impulsadas por modelos de lenguaje grandes (LLM), incluyendo inyección de prompts, fuga de datos y salida sin filtrar, mientras incorporan controles de seguridad como la validación de entrada, supervisión humana en el bucle y barreras de protección de la salida.
Al finalizar este curso, los participantes podrán:
- Comprender las vulnerabilidades principales de los sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Utilizar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como el uso de entornos aislados (sandboxing), equipos rojos (red teaming) y revisiones humanas en el bucle en pipelines de producción de grado empresarial.
Introducción a la Seguridad y Gestión de Riesgos en IA
14 HorasEste entrenamiento dirigido por un instructor, en vivo (en línea o presencial) está destinado a profesionales de la seguridad de TI, gestión de riesgos y cumplimiento con nivel principiante que deseen comprender los conceptos fundamentales de seguridad en IA, vectores de amenaza y marcos globales como el NIST AI RMF y ISO/IEC 42001.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Comprender los riesgos de seguridad únicos introducidos por los sistemas de IA.
- Identificar vectores de amenaza como ataques adversarios, envenenamiento de datos e inversión de modelos.
- Aplicar modelos de gobernanza fundamentales como el Marco de Gestión de Riesgos de IA del NIST.
- Alinear el uso de IA con estándares emergentes, directrices de cumplimiento y principios éticos.
OWASP GenAI Security
14 HorasBasado en las últimas pautas del proyecto OWASP GenAI Security, los participantes aprenderán a identificar, evaluar y mitigar amenazas específicas de IA mediante ejercicios prácticos y escenarios del mundo real.
Aprendizaje Automático con Preservación de Privacidad
14 HorasEste entrenamiento dirigido por un instructor (en línea o presencial) está destinado a profesionales de nivel avanzado que deseen implementar y evaluar técnicas como el aprendizaje federado, el cálculo seguro multipartidario, la cifrado homomórfico y la privacidad diferencial en pipelines de aprendizaje automático del mundo real.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender y comparar las técnicas clave de preservación de privacidad en ML.
- Implementar sistemas de aprendizaje federado utilizando marcos de código abierto.
- Aplicar la privacidad diferencial para compartir datos y entrenar modelos de forma segura.
- Utilizar técnicas de cifrado y cálculo seguro para proteger las entradas y salidas del modelo.
Red Teaming de Sistemas de IA: Seguridad Ofensiva para Modelos de ML
14 HorasEste entrenamiento dirigido por un instructor (en línea o presencial) está destinado a profesionales de seguridad avanzados y especialistas en ML que desean simular ataques a sistemas de IA, descubrir vulnerabilidades y mejorar la robustez de los modelos de IA implementados.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Simular amenazas del mundo real a modelos de aprendizaje automático.
- Generar ejemplos adversarios para probar la robustez del modelo.
- Evaluar el área de ataque de APIs y pipelines de IA.
- Diseñar estrategias de red teaming para entornos de implementación de IA.
Protegiendo la Inteligencia en el Borde y la Inteligencia Embebida
14 HorasEsta formación dirigida por un instructor (en línea o presencial) está destinada a ingenieros y profesionales de la seguridad de nivel intermedio que desean proteger los modelos de IA implementados en el borde contra amenazas como manipulaciones, filtraciones de datos, entradas adversarias y ataques físicos.
Al final de esta formación, los participantes serán capaces de:
- Identificar y evaluar los riesgos de seguridad en las implementaciones de IA en el borde.
- Aplicar técnicas de resistencia a la manipulación e inferencia cifrada.
- Fortalecer los modelos implementados en el borde y asegurar las pipelines de datos.
- Implementar estrategias de mitigación de amenazas específicas para sistemas embebidos y con recursos limitados.
Protección de Modelos de IA: Amenazas, Ataques y Defensas
14 HorasEste entrenamiento dirigido por un instructor en vivo (en línea o presencial) está destinado a profesionales intermedios de aprendizaje automático y ciberseguridad que deseen comprender y mitigar amenazas emergentes contra los modelos de IA, utilizando tanto marcos conceptuales como defensas prácticas como el entrenamiento robusto y la privacidad diferencial.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Identificar y clasificar amenazas específicas de IA como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como la Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas, incluyendo entrenamiento adversario, inyección de ruido y técnicas que preservan la privacidad.
- Diseñar estrategias de evaluación del modelo conscientes de amenazas en entornos de producción.
Seguridad y Privacidad en Aplicaciones de TinyML
21 HorasTinyML es un enfoque para implementar modelos de aprendizaje automático en dispositivos de bajo consumo y recursos limitados que operan en el borde de la red.
Este entrenamiento dirigido por instructores (en línea o presencial) está destinado a profesionales de nivel avanzado que deseen asegurar las pipelines de TinyML e implementar técnicas de protección de la privacidad en aplicaciones de IA en el borde.
Al finalizar este curso, los participantes podrán:
- Identificar riesgos de seguridad propios de la inferencia de TinyML en dispositivo.
- Implementar mecanismos de protección de la privacidad para implementaciones de IA en el borde.
- Fortalecer los modelos y sistemas embebidos de TinyML contra amenazas adversarias.
- Aplicar mejores prácticas para un manejo seguro de datos en entornos con recursos limitados.
Formato del Curso
- Conferencias atractivas respaldadas por discusiones dirigidas por expertos.
- Ejercicios prácticos que enfatizan escenarios de amenazas del mundo real.
- Implementación práctica utilizando herramientas de seguridad embebida y TinyML.
Opciones de Personalización del Curso
- Las organizaciones pueden solicitar una versión personalizada de este entrenamiento para alinearlo con sus necesidades específicas de seguridad y cumplimiento.
IA Segura y Confiable: Gobernanza, Identidad y Equipo Rojo
21 HorasEste curso cubre la gobernanza, gestión de identidad y pruebas adversarias para sistemas de IA agente, con enfoque en patrones de implementación seguros para empresas y técnicas prácticas de equipo rojo.
Esta capacitación dirigida por un instructor (en línea o presencial) está destinada a profesionales de nivel avanzado que deseen diseñar, asegurar y evaluar sistemas de IA basados en agentes en entornos de producción.
Al finalizar esta capacitación, los participantes podrán:
- Definir modelos y políticas de gobernanza para implementaciones seguras de IA agente.
- Diseñar flujos de identidad y autenticación no humanos para agentes con acceso de privilegios mínimos.
- Implementar controles de acceso, rastros de auditoría y observabilidad adaptados a agentes autónomos.
- Planificar y ejecutar ejercicios de equipo rojo para descubrir malos usos, caminos de escalada y riesgos de exfiltración de datos.
- Mitigar amenazas comunes a sistemas agente mediante políticas, controles de ingeniería y monitoreo.
Formato del Curso
- Conferencias interactivas y talleres de modelado de amenazas.
- Laboratorios prácticos: aprovisionamiento de identidad, aplicación de políticas y simulación de adversarios.
- Ejercicios de equipo rojo/equipo azul y evaluación final del curso.
Opciones de Personalización del Curso
- Para solicitar una capacitación personalizada para este curso, comuníquese con nosotros para realizar los arreglos necesarios.