Curso de Introducción a la Confianza, Riesgo y Security Management en IA (AI TRiSM)
AI TRiSM es un campo emergente que aborda la necesidad de confiabilidad, gestión del riesgo y seguridad en los sistemas de IA.
Este entrenamiento guiado por instructores (en línea o presencial) está dirigido a profesionales IT de nivel principiante a intermedio que desean entender e implementar AI TRiSM en sus organizaciones.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Comprender los conceptos clave y la importancia de la gestión de confianza, riesgo y seguridad en IA.
- Identificar y mitigar los riesgos asociados con los sistemas de IA.
- Implementar las mejores prácticas de seguridad para IA.
- Entender la conformidad regulatoria y las consideraciones éticas para IA.
- Desarrollar estrategias efectivas de gobernanza y gestión de AI.
Formato del Curso
- Charla interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para programarlo.
Programa del Curso
Comprensión de AI TRiSM
- Introducción a AI TRiSM
- La importancia de la confianza y la seguridad en el AI
- Visión general de los riesgos y desafíos del AI
Fundamentos de la AI Confiable
- Principios de confiabilidad en AI
- Garantizar equidad, fiabilidad y robustez en sistemas de AI
- Ética y gobernanza del AI
Gestión de Riesgos Risk Management en AI
- Identificación y evaluación de riesgos en AI
- Estrategias de mitigación para riesgos relacionados con AI
- Marco de gestión de riesgos en AI
Aspectos de Seguridad en AI
- AI y ciberseguridad
- Protección de sistemas de AI contra ataques
- Ciclo de vida seguro para el desarrollo de AI
Cumplimiento Normativo y Data Protection
- Marco regulatorio para AI
- Cumplimiento con leyes de privacidad de datos en AI
- Encriptación y almacenamiento seguro de datos en sistemas de AI
Gobernanza del Modelo de AI Governance
- Estructuras de gobernanza para AI Governance
- Monitoreo y auditoría de modelos de AI
- Transparencia y explicabilidad en AI
Implementación de AI TRiSM
- Mejores prácticas para implementar AI TRiSM
- Estudios de caso y ejemplos del mundo real
- Herramientas y tecnologías para AI TRiSM
Futuro de AI TRiSM
- Tendencias emergentes en AI TRiSM
- Preparación para el futuro de AI en los negocios
- Aprendizaje continuo y adaptación en AI TRiSM
Resumen y Próximos Pasos
Requerimientos
- Comprender los conceptos básicos de IA y sus aplicaciones
- Experiencia en la gestión de datos y principios de seguridad informática es beneficiosa
Audiencia
- Profesionales y gerentes de TI
- Científicos de datos y desarrolladores de IA
- Líderes y formuladores de políticas Business
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de Introducción a la Confianza, Riesgo y Security Management en IA (AI TRiSM) - Reserva
Curso de Introducción a la Confianza, Riesgo y Security Management en IA (AI TRiSM) - Consulta
Introducción a la Confianza, Riesgo y Security Management en IA (AI TRiSM) - Consulta de consultoría
Consulta de consultoría
Próximos cursos
Cursos Relacionados
Gobernanza de IA, Cumplimiento y Seguridad para Líderes Empresariales
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) está destinado a líderes empresariales de nivel intermedio que desean comprender cómo gobernar y asegurar sistemas de IA de manera responsable y conforme a los marcos globales emergentes como la EU AI Act, GDPR, ISO/IEC 42001 y el Decreto Ejecutivo de EE.UU. sobre IA.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Comprender los riesgos legales, éticos y regulatorios de usar la IA en diferentes departamentos.
- Interpretar y aplicar marcos importantes de gobernanza de IA (EU AI Act, NIST AI RMF, ISO/IEC 42001).
- Establecer políticas de seguridad, auditoría y supervisión para la implementación de IA en la empresa.
- Desarrollar directrices de adquisición y uso para sistemas de IA de terceros y internos.
Inteligencia Artificial Risk Management y Seguridad en el Sector Público
7 HorasArtificial Intelligence (AI) introduce nuevas dimensiones de riesgo operativo, desafíos de gobernanza y exposición a ciberseguridad para las agencias y departamentos gubernamentales.
Este entrenamiento dirigido por un instructor (en línea o en el sitio) está orientado a profesionales IT y de riesgos del sector público con experiencia limitada en IA que desean comprender cómo evaluar, monitorear y proteger sistemas de IA dentro de un contexto gubernamental o regulatorio.
Al finalizar este entrenamiento, los participantes podrán:
- Interpretar conceptos clave de riesgo relacionados con los sistemas de IA, incluyendo sesgo, impredecibilidad y deriva del modelo.
- Aplicar marcos de gobernanza y auditoría específicos de la IA como NIST AI RMF e ISO/IEC 42001.
- Reconocer amenazas de ciberseguridad que atacan modelos de IA y canales de datos.
- Establecer planes de gestión de riesgos interdepartamentales y alineación de políticas para la implementación de IA.
Formato del Curso
- Conferencia interactiva y discusión sobre casos de uso del sector público.
- Ejercicios con marcos de gobernanza de IA y mapeo de políticas.
- Modelado de amenazas basado en escenarios y evaluación de riesgos.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso, contáctenos para coordinar.
Building Secure and Responsible LLM Applications
14 HorasEsta formación en vivo dirigida por un instructor en Colombia (en línea o presencial) está destinada a desarrolladores, arquitectos e instructores de productos intermedios y avanzados que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo inyección de prompts, filtración de datos y salida no filtrada, mientras incorporan controles de seguridad como validación de entrada, supervisión humana en el ciclo (human-in-the-loop) y barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Usar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión humana en el ciclo (human-in-the-loop) en pipelines de producción.
Descripción general de la arquitectura LLM y superficie de ataque
- Cómo se construyen, implementan y acceden a los LLM mediante APIs
- Componentes clave en pilas de aplicaciones LLM (por ejemplo, prompts, agentes, memoria, APIs)
- Dónde y cómo surgen problemas de seguridad en el uso real
Inyección de Prompts y Ataques de Escape
- Qué es la inyección de prompts y por qué es peligrosa
- Casos directos e indirectos de inyección de prompts
- Técnicas de escape para eludir filtros de seguridad
- Estrategias de detección y mitigación
Filtración de Datos y Riesgos a la Privacidad
- Exposición accidental de datos a través de respuestas
- Vulnerabilidades de PII y uso indebido de memoria del modelo
- Diseño de prompts conscientes de la privacidad y generación aumentada por recuperación (RAG)
Filtrado y Protección de Salida LLM
- Uso de Guardrails AI para filtrado y validación de contenido
- Definición de esquemas y restricciones de salida
- Monitoreo y registro de salidas inseguras
Supervisión Humana en el Ciclo (Human-in-the-Loop) y Enfoques de Flujo de Trabajo
- Dónde y cuándo introducir supervisión humana
- Colas de aprobación, umbrales de puntuación, manejo de respaldos
- Calibración de confianza y papel de la explicabilidad
Aplicaciones LLM Seguras Design Patterns
- Mínimos privilegios y sandboxing para llamadas a API y agentes
- Límites de velocidad, trottling y detección de abuso
- Cadenas robustas con LangChain y aislamiento de prompts
Compliance, Registro e Governance
- Asegurar la auditoría de las salidas LLM
- Mantener trazabilidad y control de versiones del prompt
- Alinear con políticas internas de seguridad y necesidades regulatorias
Resumen y Próximos Pasos
La seguridad de aplicaciones LLM es la disciplina de diseñar, construir y mantener sistemas seguros, confiables y acordes a las políticas utilizando modelos de lenguaje grandes.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a desarrolladores, arquitectos e instructores de productos intermedios y avanzados que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo inyección de prompts, filtración de datos y salida no filtrada, mientras incorporan controles de seguridad como validación de entrada, supervisión humana en el ciclo (human-in-the-loop) y barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Usar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión humana en el ciclo (human-in-the-loop) en pipelines de producción.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
Requisitos Previos
- Entendimiento de modelos de lenguaje grandes y interfaces basadas en prompts
- Experiencia construyendo aplicaciones LLM usando Python
- Familiaridad con integraciones API y despliegues basados en la nube
Audiencia
- Desarrolladores de IA
- Arquitectos de aplicaciones y soluciones
- Gestores técnicos de productos que trabajan con herramientas LLM
Ciberseguridad en sistemas de IA
14 HorasEsta formación en vivo, guiada por un instructor (en línea o presencial) está dirigida a profesionales de nivel intermedio de IA y ciberseguridad que desean comprender y abordar las vulnerabilidades de seguridad específicas de los modelos y sistemas de IA, especialmente en industrias altamente reguladas como finanzas, gobernanza de datos y consultoría.
Al finalizar esta formación, los participantes serán capaces de:
- Comprender los tipos de ataques adversarios dirigidos a sistemas de IA y métodos para defenderse contra ellos.
- Implementar técnicas de endurecimiento del modelo para proteger las tuberías de aprendizaje automático.
- Asegurar la seguridad y integridad de los datos en modelos de aprendizaje automático.
- Navegar entre los requisitos de cumplimiento normativo relacionados con la seguridad de la IA.
Introducción a AI Security y Risk Management
14 HorasEste curso en vivo, impartido por un instructor (en línea o presencial) en Colombia, está dirigido a profesionales de nivel principiante en seguridad informática, gestión de riesgos y cumplimiento que desean comprender los conceptos fundamentales de la seguridad de IA, vectores de amenaza y marcos globales como el NIST AI RMF e ISO/IEC 42001.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender los riesgos de seguridad únicos introducidos por los sistemas de IA.
- Identificar vectores de amenaza como ataques adversarios, envenenamiento de datos y reversión del modelo.
- Aplicar modelos de gobernanza fundamentales como el Marco NIST AI Risk Management.
- Alinear el uso de IA con estándares emergentes, directrices de cumplimiento y principios éticos.
OWASP GenAI Security
14 HorasBased on the latest OWASP GenAI Security Project guidance, participants will learn to identify, assess, and mitigate AI-specific threats through hands-on exercises and real-world scenarios.
Preservación de la Privacidad Machine Learning
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) está destinado a profesionales avanzados que desean implementar y evaluar técnicas como el aprendizaje federado, el cálculo multiparte seguro, la criptografía homomórfica y la privacidad diferencial en las tuberías de aprendizaje automático del mundo real.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender y comparar técnicas clave para preservar la privacidad en ML.
- Implementar sistemas de aprendizaje federado utilizando marcos de código abierto.
- Aplicar la privacidad diferencial para compartir datos seguros y entrenamiento de modelos.
- Utilizar técnicas de encriptación y cálculo seguro para proteger las entradas y salidas del modelo.
Red Teaming AI Systems: Offensive Security for ML Models
14 HorasEste entrenamiento en vivo dirigido por un instructor en Colombia (en línea o presencial) está diseñado para profesionales avanzados de seguridad y especialistas en IA que desean simular ataques a sistemas de inteligencia artificial, descubrir vulnerabilidades e incrementar la robustez de los modelos AI implementados.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Simular amenazas del mundo real a los modelos de aprendizaje automático.
- Generar ejemplos adversarios para probar la robustez del modelo.
- Evaluar el área de ataque de las API y los flujos de trabajo de AI.
- Diseñar estrategias de equipo rojo para entornos de implementación de AI.
Securing Edge AI y la Inteligencia Embebida
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea u onsite) está diseñado para ingenieros de nivel intermedio y profesionales de seguridad que desean proteger modelos de IA implementados en la edge contra amenazas como el manipulación, fuga de datos, entradas adversarias y ataques físicos.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Identificar y evaluar riesgos de seguridad en implementaciones edge AI.
- Aplicar técnicas de resistencia a la manipulación e inferencias cifradas.
- Fortalecer modelos desplegados en edge y proteger pipelines de datos.
- Implementar estrategias de mitigación de amenazas específicas para sistemas embebidos y con restricciones.
Securing AI Models: Threats, Attacks, and Defenses
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) está orientado a profesionales de nivel intermedio de aprendizaje automático y ciberseguridad que desean comprender y mitigar amenazas emergentes contra modelos AI, utilizando marcos conceptuales y defensas prácticas como entrenamiento robusto y privacidad diferencial.
Al finalizar este entrenamiento, los participantes podrán:
- Identificar y clasificar amenazas específicas de AI como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como el Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas que incluyen entrenamiento adversario, inyección de ruido y técnicas de preservación de la privacidad.
- Diseñar estrategias de evaluación de modelos conscientes de amenazas en entornos de producción.