Fundamentos de Integración de Datos Pentaho
Pentaho Data Integration es una herramienta de integración de datos de código abierto que permite definir trabajos y transformaciones de datos de manera eficiente.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a aprovechar las potentes capacidades de ETL de Pentaho Data Integration y su interfaz gráfica intuitiva para gestionar todo el ciclo de vida del big data, maximizando así el valor que aportan los datos a la organización.
Al finalizar esta capacitación, los participantes serán capaces de:
- Crear, previsualizar y ejecutar transformaciones de datos básicas que incluyan pasos y saltos
- Configurar y asegurar el Repositorio de Pentaho Enterprise
- Aprovechar diversas fuentes de datos para generar una única versión unificada y precisa en un formato listo para análisis
- Proporcionar resultados a aplicaciones de terceros para su posterior procesamiento
Audiencia
- Analistas de datos
- Desarrolladores de ETL
Formato del curso
- Parte conferencia, parte discusión, ejercicios y práctica práctica
Temario del curso
Introducción
Instalación y configuración Pentaho
Descripción general de Pentaho Características y arquitectura
Descripción del almacenamiento en caché en memoria de Pentaho
Navegación por la interfaz de usuario
Conexión a una fuente de datos
Configuración del Pentaho repositorio empresarial
Transformación de datos
Visualización de los resultados de la transformación
Resolución de errores de transformación
Procesamiento de un flujo de datos
Reutilización de transformaciones
Programación de transformaciones
Aseguramiento Pentaho
Integración con aplicaciones de terceros (Hadoop, NoSQL, etc.)
Análisis e informes
Pentaho Design Patterns y Mejores Prácticas
Solución de problemas
Resumen y conclusión
Requerimientos
- Una comprensión de las bases de datos relacionales
- Una comprensión del almacenamiento de datos
- Una comprensión de los conceptos de ETL (Extraer, Transformar, Cargar)
Los cursos públicos requieren más de 5 participantes.
Fundamentos de Integración de Datos Pentaho - Reserva
Fundamentos de Integración de Datos Pentaho - Consulta
Fundamentos de Integración de Datos Pentaho - Solicitud de consultoría
Testimonios (1)
Que fue muy priactico.
Alfonso Ramos - Banco de Mexico
Curso - Fundamentos de Integración de Datos Pentaho
Próximos cursos
Cursos Relacionados
Plataforma de Análisis KNIME para BI
21 HorasKNIME Analytics Platform es una opción líder de código abierto para la innovación basada en datos, que ayuda a descubrir el potencial oculto en sus datos, extraer información fresca y predecir nuevos escenarios futuros. Con más de 1000 módulos, cientos de ejemplos listos para ejecutar, una amplia gama de herramientas integradas y la selección más completa de algoritmos avanzados disponibles, KNIME Analytics Platform es la caja de herramientas ideal para cualquier científico de datos y analista de negocios.
Este curso sobre KNIME Analytics Platform es una oportunidad perfecta para principiantes, usuarios avanzados y expertos en KNIME. Les permitirá conocer KNIME a fondo, aprender a utilizarlo de manera más eficiente y crear informes claros y completos basados en los flujos de trabajo de KNIME.
Plataforma analítica KNIME - formación completa
35 HorasEl curso "Plataforma analítica KNIME" ofrece una visión completa de esta plataforma gratuita de análisis de datos. El programa incluye una introducción al procesamiento y análisis de datos, la instalación y configuración de KNIME, la construcción de flujos de trabajo, metodologías para crear modelos de negocio y modelado de datos. El curso también aborda herramientas de análisis de datos avanzadas, importación y exportación de flujos de trabajo, integración de herramientas, procesos ETL, exploración de datos, visualización, extensiones e integraciones con herramientas como R, Java, Python, Gephi y Neo4j. La conclusión incluye un análisis de reportes, integración con BIRT y KNIME WebPortal.
Oráculo GoldenGate
14 HorasEste entrenamiento en vivo, dirigido por un instructor (en línea o presencial) en Colombia, está destinado a administradores de sistemas y desarrolladores que desean configurar, implementar y gestionar Oracle GoldenGate para la transformación de datos.
Al finalizar este entrenamiento, los participantes podrán:
- Instalar y configurar Oracle GoldenGate.
- Comprender la replicación de bases de datos Oracle utilizando la herramienta Oracle GoldenGate.
- Entender la arquitectura de Oracle GoldenGate.
- Configurar y realizar una replicación y migración de bases de datos.
- Optimizar el rendimiento de Oracle GoldenGate y resolver problemas.
Pentaho Open Source BI Suite Community Edition (CE)
28 HorasPentaho Open Source BI Suite Community Edition (CE) es una suite de inteligencia empresarial que ofrece integración de datos, informes, tableros y capacidades de carga.
En este entrenamiento guiado por un instructor, los participantes aprenderán a aprovechar al máximo las funciones de Pentaho Open Source BI Suite Community Edition (CE).
Al final del curso, los participantes serán capaces de:
- Instalar y configurar Pentaho Open Source BI Suite Community Edition (CE)
- Entender los principios básicos de las herramientas de Pentaho CE y sus funcionalidades
- Crear informes utilizando Pentaho CE
- Integrar datos de fuentes externas en Pentaho CE
- Manejar big data y realizar análisis con Pentaho CE
Audiencia
- Programadores
- Desarrolladores de BI
Formato del curso
- Una combinación de conferencias, discusiones y ejercicios prácticos con mucho tiempo para la práctica
Nota
- Para solicitar un entrenamiento personalizado para este curso, por favor contáctenos para organizarlo.
Pentaho Data Integration Avanzado
21 HorasPentaho Data Integration es una plataforma completa para diseñar flujos de ETL y datos a nivel empresarial.
Este curso, dirigido por un instructor (en línea o presencial), está orientado a ingenieros avanzados que deseen dominar soluciones PDI de alto rendimiento, escala empresarial y altamente automatizadas.
Al finalizar este curso, los participantes estarán preparados para:
- Diseñar flujos ETL a gran escala con orquestación avanzada.
- Optimizar transformaciones complejas para lograr un alto rendimiento.
- Implementar patrones de scripting, automatización e integración híbrida.
- Crear flujos de trabajo robustos, mantenibles y listos para producción.
Formato del Curso
- Demostraciones guiadas por expertos y discusiones arquitectónicas.
- Trabajo de laboratorio extenso sobre desafíos ETL avanzados del mundo real.
- Desarrollo práctico en un entorno similar al de producción.
Opciones de Personalización del Curso
- Póngase en contacto con nosotros si necesita una versión personalizada de este entrenamiento.
Pentaho Data Integration Intermedio
21 HorasPentaho Data Integration es una plataforma de extracción, transformación y carga (ETL) de datos.
Este entrenamiento, guiado por un instructor (tanto en línea como presencial), está diseñado para profesionales de nivel intermedio que buscan perfeccionar sus habilidades en PDI para abordar escenarios de transformación más complejos.
Al concluir este curso, los participantes podrán:
- Diseñar transformaciones de múltiples pasos que ofrezcan un mejor rendimiento.
- Manejar variables, parámetros y componentes reutilizables.
- Integrar PDI con bases de datos, APIs y sistemas externos.
- Aplicar mejores prácticas para crear pipelines ETL que sean mantenibles y escalables.
Formato del curso
- Demostraciones interactivas y explicaciones detalladas por parte del instructor.
- Ejercicios guiados y prácticas basadas en escenarios reales.
- Trabajo práctico en un entorno de proyecto ETL real.
Opciones de personalización del curso
- Si necesita una versión personalizada de este curso, no dude en contactarnos para ajustarlo a sus necesidades.
Algoritmos de Fusión de Datos
14 HorasLa Fusión de Sensores es la integración y combinación de datos provenientes de varios sensores para ofrecer una visión más precisa, confiable y contextual de la información.
Las aplicaciones de Fusión de Sensores necesitan algoritmos que filtran e integran distintas fuentes de datos.
Audiencia
Este curso está diseñado para ingenieros, programadores y arquitectos que se dedican a implementaciones multi-sensor.
Talend Administration Center (TAC)
14 HorasEsta formación guiada por un instructor (en línea o presencial) está dirigida a administradores de sistemas, científicos de datos y analistas de negocios que deseen configurar Talend Administration Center para desplegar y gestionar los roles y tareas de la organización.
Al final de esta formación, los participantes podrán:
- Instalar y configurar Talend Administration Center.
- Entender e implementar los fundamentos de la gestión de Talend.
- Construir, desplegar y ejecutar proyectos o tareas empresariales en Talend.
- Monitorear la seguridad de los conjuntos de datos y desarrollar rutinas de negocio basadas en el marco TAC.
- Obtener una comprensión más amplia de las aplicaciones de big data.
Talend Big Data Integration
28 HorasEste curso de formación dirigido por un instructor en Colombia (en línea o presencial) está destinado a personas técnicas que deseen implementar Talend Open Studio for Big Data para simplificar el proceso de lectura y análisis de big data.
Al final de esta formación, los participantes podrán:
- Instalar y configurar Talend Open Studio for Big Data.
- Conectarse con sistemas de big data como Cloudera, HortonWorks, MapR, Amazon EMR y Apache.
- Comprender y configurar los componentes y conectores de big data de Open Studio.
- Configurar parámetros para generar automáticamente código MapReduce.
- Usar la interfaz arrastrar y soltar de Open Studio para ejecutar trabajos Hadoop.
- Prototipar pipelines de big data.
- Automatizar proyectos de integración de big data.
Talend Cloud
7 HorasEsta formación dirigida por un instructor (en línea o presencial) en Colombia está destinada a administradores de datos y desarrolladores que deseen gestionar, supervisar y operar procesos de integración de datos utilizando los servicios de Talend Cloud.
Al final de esta formación, los participantes serán capaces de:
- Navegar por la Consola de Gestión de Talend para gestionar usuarios y roles en la plataforma.
- Evaluar datos para encontrar y comprender conjuntos de datos relevantes.
- Crear un pipeline para procesar y monitorear datos en reposo o en movimiento.
- Preparar datos para el análisis a fin de generar información relevante para la empresa.
Talend Data Stewardship
14 HorasEsta capacitación dirigida por un instructor, en vivo (en línea o presencial) está destinada a analistas de datos principiantes e intermedios que desean profundizar su comprensión y habilidades en la gestión y mejora de la calidad de los datos utilizando Talend Data Stewardship.
Al final de esta capacitación, los participantes podrán:
- Obtener una comprensión completa del papel de la gobernanza de los datos en el mantenimiento de la calidad de los datos.
- Utilizar Talend Data Stewardship para gestionar tareas de calidad de datos.
- Crear, asignar y gestionar tareas dentro de Talend Data Stewardship, incluyendo la personalización de flujos de trabajo.
- Utilizar las capacidades de informes y monitoreo de la herramienta para rastrear la calidad de los datos y los esfuerzos de gobernanza de los datos.
Talend Open Studio para ESB
21 HorasEn este curso dirigido por un instructor y en vivo en Colombia, los participantes aprenderán cómo usar Talend Open Studio para ESB para crear, conectar, mediar y administrar servicios y sus interacciones.
Al final de este entrenamiento, los participantes podrán
- Integrar, mejorar y entregar tecnologías ESB como paquetes únicos en una variedad de entornos de implementación.
- Entender y utilizar los componentes más utilizados de Talend Open Studio.
- Integrar cualquier aplicación, base de datos, API o servicios web.
- Integrar sistemas y aplicaciones heterogéneos sin problemas.
- Incorporar bibliotecas de código Java existentes para extender los proyectos.
- Aprovechar componentes y código de la comunidad para extender los proyectos.
- Integrar rápidamente sistemas, aplicaciones y fuentes de datos en un entorno de Eclipse arrastrar y soltar.
- Reducir el tiempo de desarrollo y costos de mantenimiento generando código optimizado y reutilizable.