Curso de Introduction to AI Trust, Risk, and Security Management (AI TRiSM)
AI TRiSM es un campo emergente que aborda la necesidad de confiabilidad, gestión del riesgo y seguridad en los sistemas de IA.
Este entrenamiento guiado por instructores (en línea o presencial) está dirigido a profesionales IT de nivel principiante a intermedio que desean entender e implementar AI TRiSM en sus organizaciones.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Comprender los conceptos clave y la importancia de la gestión de confianza, riesgo y seguridad en IA.
- Identificar y mitigar los riesgos asociados con los sistemas de IA.
- Implementar las mejores prácticas de seguridad para IA.
- Entender la conformidad regulatoria y las consideraciones éticas para IA.
- Desarrollar estrategias efectivas de gobernanza y gestión de AI.
Formato del Curso
- Charla interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para programarlo.
Programa del Curso
Comprensión de AI TRiSM
- Introducción a AI TRiSM
- La importancia de la confianza y la seguridad en el AI
- Visión general de los riesgos y desafíos del AI
Fundamentos de la AI Confiable
- Principios de confiabilidad en AI
- Garantizar equidad, fiabilidad y robustez en sistemas de AI
- Ética y gobernanza del AI
Gestión de Riesgos Risk Management en AI
- Identificación y evaluación de riesgos en AI
- Estrategias de mitigación para riesgos relacionados con AI
- Marco de gestión de riesgos en AI
Aspectos de Seguridad en AI
- AI y ciberseguridad
- Protección de sistemas de AI contra ataques
- Ciclo de vida seguro para el desarrollo de AI
Cumplimiento Normativo y Data Protection
- Marco regulatorio para AI
- Cumplimiento con leyes de privacidad de datos en AI
- Encriptación y almacenamiento seguro de datos en sistemas de AI
Gobernanza del Modelo de AI Governance
- Estructuras de gobernanza para AI Governance
- Monitoreo y auditoría de modelos de AI
- Transparencia y explicabilidad en AI
Implementación de AI TRiSM
- Mejores prácticas para implementar AI TRiSM
- Estudios de caso y ejemplos del mundo real
- Herramientas y tecnologías para AI TRiSM
Futuro de AI TRiSM
- Tendencias emergentes en AI TRiSM
- Preparación para el futuro de AI en los negocios
- Aprendizaje continuo y adaptación en AI TRiSM
Resumen y Próximos Pasos
Requerimientos
- Comprender los conceptos básicos de IA y sus aplicaciones
- Experiencia en la gestión de datos y principios de seguridad informática es beneficiosa
Audiencia
- Profesionales y gerentes de TI
- Científicos de datos y desarrolladores de IA
- Líderes y formuladores de políticas Business
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de Introduction to AI Trust, Risk, and Security Management (AI TRiSM) - Booking
Curso de Introduction to AI Trust, Risk, and Security Management (AI TRiSM) - Enquiry
Introduction to AI Trust, Risk, and Security Management (AI TRiSM) - Consulta de consultoría
Consulta de consultoría
Próximos cursos
Cursos Relacionados
AI Governance, Compliance, and Security for Enterprise Leaders
14 HorasEsta formación en vivo dirigida por un instructor en Colombia (en línea o presencial) está destinada a líderes empresariales de nivel intermedio que desean comprender cómo gobernar y asegurar sistemas de IA responsablemente y de conformidad con los marcos globales emergentes como el Reglamento UE sobre IA, GDPR, ISO/IEC 42001 y la Orden Ejecutiva de EE. UU. sobre IA.
Al finalizar esta formación, los participantes podrán:
- Comprender los riesgos legales, éticos y regulatorios del uso de IA en diferentes departamentos.
- Interpretar y aplicar marcos principales de gobernanza de IA (Reglamento UE sobre IA, Marco de Gestión de Riesgos de AI de NIST, ISO/IEC 42001).
- Establecer políticas de seguridad, auditoría y supervisión para la implementación de IA en la empresa.
- Desarrollar directrices de adquisición y uso para sistemas de IA de terceros y internos.
AI Risk Management and Security in the Public Sector
7 HorasArtificial Intelligence (AI) introduce nuevas dimensiones de riesgo operativo, desafíos de gobernanza y exposición a ciberseguridad para las agencias y departamentos gubernamentales.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a profesionales de TI y gestión de riesgos del sector público con experiencia limitada en IA que desean comprender cómo evaluar, monitorear y proteger sistemas de IA dentro de un contexto gubernamental o regulatorio.
Al finalizar esta formación, los participantes podrán:
- Interpretar conceptos clave de riesgo relacionados con los sistemas de IA, incluyendo sesgo, imprevisibilidad y deriva del modelo.
- Aplicar marcos de gobernanza y auditoría específicos de la IA como el Marco de Gestión de Riesgos de AI NIST (AI RMF) e ISO/IEC 42001.
- Reconocer amenazas de ciberseguridad dirigidas a modelos de IA y pipelines de datos.
- Establecer planes de gestión de riesgos interdepartamentales y alineación de políticas para la implementación de AI.
Formato del Curso
- Conferencia interactiva y discusión sobre casos de uso del sector público.
- Ejercicios de marcos de gobernanza de IA y mapeo de políticas.
- Modelado de amenazas basado en escenarios y evaluación de riesgos.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Building Secure and Responsible LLM Applications
14 HorasEsta formación en vivo dirigida por un instructor en Colombia (en línea o presencial) está destinada a desarrolladores, arquitectos e instructores de productos intermedios y avanzados que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo inyección de prompts, filtración de datos y salida no filtrada, mientras incorporan controles de seguridad como validación de entrada, supervisión humana en el ciclo (human-in-the-loop) y barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Usar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión humana en el ciclo (human-in-the-loop) en pipelines de producción.
Descripción general de la arquitectura LLM y superficie de ataque
- Cómo se construyen, implementan y acceden a los LLM mediante APIs
- Componentes clave en pilas de aplicaciones LLM (por ejemplo, prompts, agentes, memoria, APIs)
- Dónde y cómo surgen problemas de seguridad en el uso real
Inyección de Prompts y Ataques de Escape
- Qué es la inyección de prompts y por qué es peligrosa
- Casos directos e indirectos de inyección de prompts
- Técnicas de escape para eludir filtros de seguridad
- Estrategias de detección y mitigación
Filtración de Datos y Riesgos a la Privacidad
- Exposición accidental de datos a través de respuestas
- Vulnerabilidades de PII y uso indebido de memoria del modelo
- Diseño de prompts conscientes de la privacidad y generación aumentada por recuperación (RAG)
Filtrado y Protección de Salida LLM
- Uso de Guardrails AI para filtrado y validación de contenido
- Definición de esquemas y restricciones de salida
- Monitoreo y registro de salidas inseguras
Supervisión Humana en el Ciclo (Human-in-the-Loop) y Enfoques de Flujo de Trabajo
- Dónde y cuándo introducir supervisión humana
- Colas de aprobación, umbrales de puntuación, manejo de respaldos
- Calibración de confianza y papel de la explicabilidad
Aplicaciones LLM Seguras Design Patterns
- Mínimos privilegios y sandboxing para llamadas a API y agentes
- Límites de velocidad, trottling y detección de abuso
- Cadenas robustas con LangChain y aislamiento de prompts
Compliance, Registro e Governance
- Asegurar la auditoría de las salidas LLM
- Mantener trazabilidad y control de versiones del prompt
- Alinear con políticas internas de seguridad y necesidades regulatorias
Resumen y Próximos Pasos
La seguridad de aplicaciones LLM es la disciplina de diseñar, construir y mantener sistemas seguros, confiables y acordes a las políticas utilizando modelos de lenguaje grandes.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a desarrolladores, arquitectos e instructores de productos intermedios y avanzados que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo inyección de prompts, filtración de datos y salida no filtrada, mientras incorporan controles de seguridad como validación de entrada, supervisión humana en el ciclo (human-in-the-loop) y barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Usar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión humana en el ciclo (human-in-the-loop) en pipelines de producción.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
Requisitos Previos
- Entendimiento de modelos de lenguaje grandes y interfaces basadas en prompts
- Experiencia construyendo aplicaciones LLM usando Python
- Familiaridad con integraciones API y despliegues basados en la nube
Audiencia
- Desarrolladores de IA
- Arquitectos de aplicaciones y soluciones
- Gestores técnicos de productos que trabajan con herramientas LLM
Cybersecurity in AI Systems
14 HorasEsta formación en vivo, guiada por un instructor (en línea o presencial) está dirigida a profesionales de nivel intermedio de IA y ciberseguridad que desean comprender y abordar las vulnerabilidades de seguridad específicas de los modelos y sistemas de IA, especialmente en industrias altamente reguladas como finanzas, gobernanza de datos y consultoría.
Al finalizar esta formación, los participantes serán capaces de:
- Comprender los tipos de ataques adversarios dirigidos a sistemas de IA y métodos para defenderse contra ellos.
- Implementar técnicas de endurecimiento del modelo para proteger las tuberías de aprendizaje automático.
- Asegurar la seguridad y integridad de los datos en modelos de aprendizaje automático.
- Navegar entre los requisitos de cumplimiento normativo relacionados con la seguridad de la IA.
Introduction to AI Security and Risk Management
14 HorasEsta formación en vivo dirigida por un instructor en Colombia (en línea o presencial) está destinada a profesionales principiantes de seguridad IT, riesgo y cumplimiento que desean comprender conceptos fundamentales de seguridad AI, vectores de amenaza y marcos globales como NIST AI RMF e ISO/IEC 42001.
Al finalizar esta formación, los participantes podrán:
- Comprender los riesgos de seguridad únicos introducidos por los sistemas AI.
- Identificar vectores de amenaza como ataques adversarios, envenenamiento de datos y inversión de modelo.
- Aplicar modelos de gobernanza fundamentales como el Marco NIST AI Risk Management.
- Alinear el uso de AI con estándares emergentes, directrices de cumplimiento y principios éticos.
Privacy-Preserving Machine Learning
14 HorasThis instructor-led, live training in Colombia (online or onsite) is aimed at advanced-level professionals who wish to implement and evaluate techniques such as federated learning, secure multiparty computation, homomorphic encryption, and differential privacy in real-world machine learning pipelines.
By the end of this training, participants will be able to:
- Understand and compare key privacy-preserving techniques in ML.
- Implement federated learning systems using open-source frameworks.
- Apply differential privacy for safe data sharing and model training.
- Use encryption and secure computation techniques to protect model inputs and outputs.
Red Teaming AI Systems: Offensive Security for ML Models
14 HorasEste entrenamiento en vivo dirigido por un instructor en Colombia (en línea o presencial) está diseñado para profesionales avanzados de seguridad y especialistas en IA que desean simular ataques a sistemas de inteligencia artificial, descubrir vulnerabilidades e incrementar la robustez de los modelos AI implementados.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Simular amenazas del mundo real a los modelos de aprendizaje automático.
- Generar ejemplos adversarios para probar la robustez del modelo.
- Evaluar el área de ataque de las API y los flujos de trabajo de AI.
- Diseñar estrategias de equipo rojo para entornos de implementación de AI.
Securing Edge AI and Embedded Intelligence
14 HorasEsta formación en vivo dirigida por un instructor en Colombia (en línea o presencial) está destinada a ingenieros y profesionales de seguridad de nivel intermedio que desean proteger los modelos de IA implementados en el borde contra amenazas como la manipulación, la fuga de datos, las entradas adversarias y ataques físicos.
Al finalizar esta formación, los participantes podrán:
- Identificar y evaluar riesgos de seguridad en implementaciones de IA en el borde.
- Aplique técnicas de resistencia a la manipulación e inferencia cifrada.
- Fortalezca modelos desplegados en el borde y proteja las tuberías de datos.
- Implemente estrategias de mitigación de amenazas específicas para sistemas embebidos y restringidos.
Securing AI Models: Threats, Attacks, and Defenses
14 HorasEsta formación en vivo dirigida por un instructor en Colombia (en línea o presencial) está destinada a profesionales de nivel intermedio en aprendizaje automático y ciberseguridad que desean comprender y mitigar las amenazas emergentes contra modelos de IA, utilizando tanto marcos conceptuales como defensas prácticas como el entrenamiento robusto y la privacidad diferencial.
Al finalizar esta formación, los participantes podrán:
- Identificar y clasificar amenazas específicas de AI como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como el Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas que incluyen entrenamiento adversario, inyección de ruido y técnicas de preservación de la privacidad.
- Diseñar estrategias de evaluación de modelos conscientes de amenazas en entornos de producción.
Introducción al Modelado de Amenazas para IA
- ¿Qué hace que los sistemas de AI sean vulnerables?
- Superficie de ataque de AI vs sistemas tradicionales
- Vectores de ataque clave: capas de datos, modelo, salida e interfaz
Ataques Adversarios en Modelos de IA
- Comprender ejemplos adversarios y técnicas de perturbación
- Ataques de caja blanca vs caja negra
- Métodos FGSM, PGD y DeepFool
- Visualización y creación de muestras adversarias
Inversión del Modelo y Fugas de Privacidad
- Inferir datos de entrenamiento a partir de la salida del modelo
- Ataques de inferencia de membresía
- Riesgos de privacidad en modelos de clasificación y generativos
Envenenamiento de Datos e Inyecciones de Puertas Traseras
- Cómo los datos envenenados influyen en el comportamiento del modelo
- Puertas traseras basadas en desencadenantes y ataques Troyano
- Estrategias de detección y saneamiento
Robustez y Técnicas Defensivas
- Entrenamiento adversario y aumento de datos
- Mascaramiento del gradiente y preprocesamiento de entrada
- Técnicas de suavizado y regularización del modelo
Defensas de AI que Preservan la Privacidad
- Introducción a la privacidad diferencial
- Inyección de ruido y presupuestos de privacidad
- Aprendizaje federado y agregación segura
AI Security en Práctica
- Evaluación y despliegue de modelos conscientes de amenazas
- Uso del ART (Adversarial Robustness Toolbox) en configuraciones aplicadas
- Casos de estudio de la industria: fugas reales y mitigaciones
Resumen y Próximos Pasos
La seguridad de modelos de AI es la disciplina de defender sistemas de aprendizaje automático contra amenazas específicas del modelo, como entradas adversarias, envenenamiento de datos, ataques de inversión y fugas de privacidad.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a profesionales de nivel intermedio en aprendizaje automático y ciberseguridad que desean comprender y mitigar las amenazas emergentes contra modelos de AI, utilizando tanto marcos conceptuales como defensas prácticas como el entrenamiento robusto y la privacidad diferencial.
Al finalizar esta formación, los participantes podrán:
- Identificar y clasificar amenazas específicas de AI como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como el Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas que incluyen entrenamiento adversario, inyección de ruido y técnicas de preservación de la privacidad.
- Diseñar estrategias de evaluación de modelos conscientes de amenazas en entornos de producción.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para acordarlo.
Requisitos previos
- Comprensión de los flujos de trabajo del aprendizaje automático y el entrenamiento del modelo
- Experiencia con Python y marcos comunes de ML como PyTorch o TensorFlow
- Familiaridad con conceptos básicos de seguridad o modelado de amenazas es útil
Audiencia
- ingenieros de aprendizaje automático
- analistas de ciberseguridad
- investigadores de AI y equipos de validación del modelo