Contacta con nosotros

Temario del curso

Fundamentos de NiFi y Flujo de Datos

  • Datos en movimiento vs datos en reposo: conceptos y desafíos
  • Arquitectura de NiFi: núcleos, controlador de flujo, procedencia y boletines
  • Componentes clave: procesadores, conexiones, controladores y procedencia

Contexto e Integración de Big Data

  • Rol de NiFi en ecosistemas de Big Data (Hadoop, Kafka, almacenamiento en la nube)
  • Visión general de HDFS, MapReduce y alternativas modernas
  • Casos de uso: ingestión de streams, envío de registros y pipelines de eventos

Instalación, Configuración y Configuración de Clúster

  • Instalación de NiFi en modo nodo único y en clúster
  • Configuración del clúster: roles de nodo, Zookeeper y balanceo de carga
  • Orquestación de despliegues de NiFi: uso de Ansible, Docker o Helm

Diseño y Gestión de Flujos de Datos

  • Enrutamiento, filtrado, división y fusión de flujos
  • Configuración de procesadores (InvokeHTTP, QueryRecord, PutDatabaseRecord, etc.)
  • Manejo de esquemas, operaciones de enriquecimiento y transformación
  • Manejo de errores, relaciones de reintento y contrapresión

Escenarios de Integración

  • Conexión a bases de datos, sistemas de mensajería y APIs REST
  • Streaming hacia sistemas analíticos: Kafka, Elasticsearch o almacenamiento en la nube
  • Integración con Splunk, Prometheus o pipelines de registros

Monitoreo, Recuperación y Procedencia

  • Uso de la interfaz de NiFi, métricas y visualizador de procedencia
  • Diseño de recuperación autónoma y manejo elegante de fallos
  • Copias de seguridad, control de versiones de flujos y gestión de cambios

Ajuste de Rendimiento y Optimización

  • Ajuste de JVM, memoria heap, pools de hilos y parámetros de clúster
  • Optimización del diseño de flujos para reducir cuellos de botella
  • Aislamiento de recursos, priorización de flujos y control del rendimiento

Mejores Prácticas y Gobernanza

  • Documentación de flujos, estándares de nomenclatura y diseño modular
  • Seguridad: TLS, autenticación, control de acceso y cifrado de datos
  • Control de cambios, versionado, acceso basado en roles y registros de auditoría

Solución de Problemas y Respuesta a Incidentes

  • Problemas comunes: bloqueos, fugas de memoria y errores de procesadores
  • Análisis de registros, diagnóstico de errores e investigación de causas raíz
  • Estrategias de recuperación y reversión de flujos

Laboratorio Práctico: Implementación de un Pipeline de Datos Realista

  • Construcción de un flujo de extremo a extremo: ingestión, transformación y entrega
  • Implementación de manejo de errores, contrapresión y escalabilidad
  • Pruebas de rendimiento y ajuste del pipeline

Resumen y Próximos Pasos

Requerimientos

  • Experiencia con la línea de comandos de Linux
  • Conocimientos básicos de redes y sistemas de datos
  • Experiencia previa con conceptos de transmisión de datos o ETL

Público Objetivo

  • Administradores de sistemas
  • Ingenieros de datos
  • Desarrolladores
  • Profesionales de DevOps
 21 Horas

Número de participantes


Precio por participante

Testimonios (7)

Próximos cursos

Categorías Relacionadas