Temario del curso
Introducción a DataStage
- Descripción general del proceso ETL
- Comprensión de la arquitectura de DataStage
- Componentes clave de DataStage
Administración de DataStage
- Instalación y configuración
- Gestión de usuarios y seguridad
- Configuración de proyectos y gestión de entornos
- Programación y gestión de trabajos
- Procedimientos de respaldo y recuperación
Técnicas de extracción de datos
- Conexión a diversas fuentes de datos
- Extracción de datos desde bases de datos, archivos planos y fuentes externas
- Mejores prácticas para la extracción de datos
Transformación de datos con DataStage
- Comprensión del diseñador de DataStage
- Trabajo con diferentes tipos de etapas
- Implementación de lógica de negocio en transformaciones
- Técnicas avanzadas de transformación de datos
Carga e integración de datos
- Carga de datos en sistemas objetivo
- Garantía de calidad e integridad de los datos
- Manejo de errores y registro de eventos
Ajuste y optimización del rendimiento
- Mejores prácticas para el ajuste del rendimiento
- Gestión de recursos
- Secuenciación de trabajos y paralelismo
Temas avanzados
- Trabajo con el director de DataStage
- Depuración y resolución de problemas
Resumen y próximos pasos
Requerimientos
- Conocimientos básicos de conceptos de bases de datos
- Familiaridad con SQL y principios de almacenamiento de datos
Público objetivo
- Profesionales de TI
- Administradores de bases de datos
- Desarrolladores
Testimonios (3)
Me gustó que fuera práctico. Amé aplicar el conocimiento teórico con ejemplos prácticos.
Aurelia-Adriana - Allianz Services Romania
Curso - Python and Spark for Big Data (PySpark)
Traducción Automática
El hecho de poder llevar con nosotros la mayoría de la información/curso/presentación/ejercicios realizados, para poder revisarlos y tal vez volver a hacer lo que no entendimos la primera vez o mejorar lo que ya hicimos.
Raul Mihail Rat - Accenture Industrial SS
Curso - Python, Spark, and Hadoop for Big Data
Traducción Automática
La combinación de teoría y práctica con herramientas como databricks