Análisis de Big Data en Salud
El análisis de big data consiste en examinar vastos conjuntos de datos diversos para identificar correlaciones, patrones ocultos y otros insights valiosos.
La industria de la salud dispone de enormes volúmenes de datos médicos y clínicos complejos y heterogéneos. La aplicación de técnicas de análisis de big data a estos datos ofrece un gran potencial para obtener insights que mejoren la calidad de los servicios de atención médica. Sin embargo, la magnitud de estos conjuntos de datos presenta grandes desafíos en su análisis y aplicaciones prácticas en el entorno clínico.
En este entrenamiento guiado por un instructor (remoto), los participantes aprenderán a realizar el análisis de big data en salud mediante una serie de ejercicios prácticos en vivo.
Al finalizar este entrenamiento, los participantes podrán:
- Instalar y configurar herramientas de análisis de big data como Hadoop MapReduce y Spark
- Comprender las características específicas de los datos médicos
- Aplicar técnicas avanzadas de big data para manejar datos médicos
- Estudiar sistemas y algoritmos de big data en el contexto de aplicaciones de salud
Audiencia
- Desarrolladores
- Científicos de Datos
Formato del Curso
- Parte exposición, parte discusión, ejercicios y mucha práctica hands-on.
Nota
- Para solicitar un entrenamiento personalizado para este curso, por favor contáctenos para arreglarlo.
Temario del curso
Introducción al Análisis de Big Data en Salud
Visión General de Tecnologías de Análisis de Big Data
- Apache Hadoop MapReduce
- Apache Spark
Instalación y Configuración de Apache Hadoop MapReduce
Instalación y Configuración de Apache Spark
Uso de Modelado Predictivo para Datos de Salud
Uso de Apache Hadoop MapReduce para Datos de Salud
Realización de Fenotipado y Clustering en Datos de Salud
- Métricas de Evaluación de Clasificación
- Métodos Ensamblados de Clasificación
Uso de Apache Spark para Datos de Salud
Trabajo con Ontologías Médicas
Uso de Análisis de Grafos en Datos de Salud
Reducción de Dimensionalidad en Datos de Salud
Trabajo con Métricas de Similitud de Pacientes
Solución de Problemas
Resumen y Conclusión
Requerimientos
- Comprensión de conceptos de aprendizaje automático y minería de datos
- Experiencia avanzada en programación (Python, Java, Scala)
- Competencia en procesos de datos y ETL
Los cursos públicos requieren más de 5 participantes.
Análisis de Big Data en Salud - Reserva
Análisis de Big Data en Salud - Consulta
Análisis de Big Data en Salud - Solicitud de consultoría
Testimonios (1)
Me gustó mucho la VM. El profesor tenía un conocimiento muy profundo no solo del tema principal sino también de otros temas; además, era muy amable y agradable. También me gustó las instalaciones en Dubái.
Safar Alqahtani - Elm Information Security
Curso - Big Data Analytics in Health
Traducción Automática
Próximos cursos
Cursos Relacionados
Capacitación de Administrador para Apache Hadoop
35 HorasAudiencia:
Este curso está diseñado para profesionales de TI que buscan una solución para almacenar y procesar grandes volúmenes de datos en un entorno de sistemas distribuidos.
Objetivo:
Adquirir un conocimiento profundo sobre la administración de clústeres de Hadoop.
Análisis de Big Data con Google Colab y Apache Spark
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) está destinado a científicos de datos y ingenieros de nivel intermedio que desean utilizar Google Colab y Apache Spark para el procesamiento y análisis de grandes volúmenes de datos.
Al finalizar este entrenamiento, los participantes podrán:
- Configurar un entorno de gran volumen de datos utilizando Google Colab y Spark.
- Procesar y analizar conjuntos de datos grandes de manera eficiente con Apache Spark.
- Visualizar grandes volúmenes de datos en un entorno colaborativo.
- Integrar Apache Spark con herramientas basadas en la nube.
Hadoop y Spark para Administradores
35 HorasEsta capacitación en vivo dirigida por un instructor en Colombia (en línea o presencial) está dirigida a administradores de sistemas que desean aprender a configurar, implementar y administrar Hadoop clústeres dentro de su organización.
Al final de esta formación, los participantes serán capaces de:
- Instale y configure Apache Hadoop.
- Comprenda los cuatro componentes principales del ecosistema Hadoop: HDFS, MapReduce, YARN y Hadoop Common.
- Utilice Hadoop Sistema de archivos distribuido (HDFS) para escalar un clúster a cientos o miles de nodos.
- Configure HDFS para que funcione como motor de almacenamiento para implementaciones de Spark locales.
- Configure Spark para acceder a soluciones de almacenamiento alternativas, como Amazon S3, y NoSQL sistemas de bases de datos como Redis, Elasticsearch, Couchbase, Aerospike, etc.
- Lleve a cabo tareas administrativas como el aprovisionamiento, la gestión, la supervisión y la seguridad de un clúster Apache Hadoop.
Una introducción práctica al procesamiento de flujo
21 HorasEn este entrenamiento dirigido por un instructor en Colombia (presencial o remoto), los participantes aprenderán cómo configurar e integrar diferentes marcos de Procesamiento de Flujos con sistemas de almacenamiento de datos grandes y aplicaciones y microservicios relacionados existentes.
Al final de este entrenamiento, los participantes serán capaces de:
- Instalar y configurar diferentes marcos de Procesamiento de Flujos, como Spark Streaming y Kafka Streaming.
- Entender y seleccionar el marco más apropiado para el trabajo.
- Procesar datos continuamente, concurrentemente y de forma individual.
- Integrar soluciones de Procesamiento de Flujos con bases de datos existentes, almacenes de datos, lagos de datos, etc.
- Integrar la biblioteca de procesamiento de flujos más apropiada con aplicaciones empresariales y microservicios.
PySpark y Aprendizaje Automático
21 HorasEsta formación ofrece una introducción práctica a la creación de flujos de trabajo escalables de procesamiento de datos y aprendizaje automático utilizando PySpark. Los participantes aprenderán cómo funciona Apache Spark dentro de los ecosistemas modernos de Big Data y cómo procesar grandes conjuntos de datos de manera eficiente aplicando los principios de la computación distribuida.
SMACK Stack para Ciencia de Datos
14 HorasEste curso de formación dirigido por un instructor en Colombia (en línea o presencial) está destinado a científicos de datos que deseen utilizar la pila SMACK para crear plataformas de procesamiento de datos para soluciones de big data.
Al finalizar este curso, los participantes serán capaces de:
- Implementar una arquitectura de pipeline de datos para el procesamiento de big data.
- Desarrollar una infraestructura en clúster con Apache Mesos y Docker.
- Analizar datos con Spark y Scala.
- Administrar datos no estructurados con Apache Cassandra.
Fundamentos de Apache Spark
21 HorasEste curso de formación dirigido por un instructor en Colombia (en línea o presencial) está destinado a ingenieros que deseen configurar e implementar el sistema Apache Spark para procesar cantidades muy grandes de datos.
Al finalizar este curso, los participantes serán capaces de:
- Instalar y configurar Apache Spark.
- Procesar y analizar rápidamente conjuntos de datos muy grandes.
- Comprender la diferencia entre Apache Spark y Hadoop MapReduce y cuándo utilizar cada uno.
- Integrar Apache Spark con otras herramientas de aprendizaje automático.
Administración de Apache Spark
35 HorasEsta formación en directo dirigida por un instructor en Colombia (en línea o in situ) está dirigida a administradores de sistemas de nivel principiante a intermedio que deseen implementar, mantener y optimizar clústeres de Spark.
Al final de esta capacitación, los participantes serán capaces de:
- Instale y configure Apache Spark en varios entornos.
- Administre los recursos del clúster y supervise las aplicaciones de Spark.
- Optimice el rendimiento de los clústeres de Spark.
- Implemente medidas de seguridad y garantice una alta disponibilidad.
- Depurar y solucionar problemas comunes de Spark.
Apache Spark en la Nube
21 HorasLa curva de aprendizaje de Apache Spark comienza con una pendiente suave pero exige un considerable esfuerzo inicial para obtener los primeros resultados. Este curso está diseñado para superar esta etapa inicial complicada. Al finalizar el curso, los participantes comprenderán los conceptos fundamentales de Apache Spark, diferenciarán claramente RDD de DataFrame, aprenderán las API de Python y Scala, entenderán cómo funcionan los ejecutores y las tareas, entre otros aspectos. Además, siguiendo las mejores prácticas, el curso se enfoca fuertemente en la implementación en la nube, específicamente con Databricks y AWS. Los estudiantes también conocerán las diferencias entre AWS EMR y AWS Glue, uno de los servicios más recientes de Spark ofrecidos por AWS.
AUDIENCIA:
Data Engineer, DevOps, Data Scientist
Spark para Desarrolladores
21 HorasOBJETIVO:
Este curso presentará Apache Spark a los participantes. Los estudiantes aprenderán cómo Spark se integra en el ecosistema de Big Data y cómo utilizarlo para el análisis de datos. El programa abarca la shell de Spark para el análisis de datos interactivo, las características internas de Spark, sus APIs, Spark SQL, Spark Streaming, machine learning y GraphX.
PÚBLICO OBJETIVO:
Desarrolladores y Analistas de Datos
Escalar Pipelines de Datos con Spark NLP
14 HorasEsta capacitación en vivo dirigida por un instructor en Colombia (en línea o presencial) está dirigida a científicos de datos y desarrolladores que deseen utilizar Spark NLP, construido sobre Apache Spark, para desarrollar, implementar y escalar modelos y tuberías de procesamiento de texto en lenguaje natural.
Al final de esta formación, los participantes serán capaces de:
- Configure el entorno de desarrollo necesario para comenzar a crear canalizaciones de NLP con Spark NLP.
- Comprender las características, la arquitectura y los beneficios del uso de Spark NLP.
- Utilice los modelos previamente entrenados disponibles en Spark NLP para implementar el procesamiento de texto.
- Aprenda a crear, entrenar y escalar modelos Spark NLP para proyectos de producción.
- Aplique la clasificación, la inferencia y el análisis de sentimientos en casos de uso del mundo real (datos clínicos, información sobre el comportamiento de los clientes, etcétera).
Python y Spark para Big Data (PySpark)
21 HorasEn esta capacitación en vivo dirigida por un instructor en Colombia, los participantes aprenderán a usar Python y Spark juntos para analizar big data mientras trabajan en ejercicios prácticos.
Al final de esta formación, los participantes serán capaces de:
- Aprenda a usar Spark con Python para analizar Big Data.
- Trabaja en ejercicios que imiten casos del mundo real.
- Utilice diferentes herramientas y técnicas para el análisis de big data utilizando PySpark.
Python, Spark y Hadoop para Big Data
21 HorasEsta capacitación en vivo dirigida por un instructor en Colombia (en línea o presencial) está dirigida a desarrolladores que desean usar e integrar Spark, Hadoop y Python para procesar, analizar y transformar conjuntos de datos grandes y complejos.
Al final de esta formación, los participantes serán capaces de:
- Configure el entorno necesario para empezar a procesar macrodatos con Spark, Hadoop y Python.
- Comprender las características, los componentes principales y la arquitectura de Spark y Hadoop.
- Aprenda a integrar Spark, Hadoop y Python para el procesamiento de big data.
- Explore las herramientas del ecosistema de Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka y Flume).
- Cree sistemas de recomendación de filtrado colaborativo similares a Netflix, YouTube, Amazon, Spotify y Google.
- Utilice Apache Mahout para escalar los algoritmos de aprendizaje automático.
Apache Spark SQL
7 HorasSpark SQL es el módulo de Apache Spark diseñado para manejar datos estructurados y no estructurados. Este módulo proporciona información detallada sobre la estructura de los datos, así como sobre las operaciones que se están realizando, lo cual puede ser utilizado para realizar optimizaciones. Dos usos comunes de Spark SQL incluyen:
- ejecutar consultas SQL.
- leer datos de una instalación existente de Hive.
En este entrenamiento dirigido por un instructor (presencial o a distancia), los participantes aprenderán a analizar diversos conjuntos de datos utilizando Spark SQL.
Al final de este curso, los participantes podrán:
- Instalar y configurar Spark SQL de manera eficiente.
- Realizar análisis de datos con Spark SQL de forma efectiva.
- Consultar conjuntos de datos en diferentes formatos de manera fluida.
- Visualizar datos y resultados de consultas de manera clara y comprensible.
Formato del curso
- Sesiones interactivas con discusión.
- Muchos ejercicios y práctica práctica.
- Implementación práctica en un entorno de laboratorio real.
Opciones de personalización del curso
- Para solicitar un entrenamiento personalizado para este curso, contáctenos para realizar los ajustes necesarios.
Stratio: Módulos Rocket e Intelligence con PySpark
14 HorasStratio es una plataforma especializada en datos que integra big data, inteligencia artificial y gobernanza en una solución integral. Sus módulos Rocket e Intelligence facilitan la exploración rápida de datos, transformaciones y análisis avanzados en entornos empresariales.
Este curso dirigido por un instructor, disponible tanto en modalidad online como presencial, está diseñado para profesionales intermedios en el manejo de datos que desean aprovechar eficazmente los módulos Rocket e Intelligence de Stratio con PySpark, centrándose en estructuras de bucles, funciones definidas por el usuario y lógica avanzada de datos.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Navegar y trabajar dentro de la plataforma Stratio utilizando los módulos Rocket e Intelligence.
- Aplicar PySpark para la ingesta, transformación y análisis de datos.
- Utilizar bucles y lógica condicional para controlar flujos de trabajo de datos y tareas de ingeniería de características.
- Crear y gestionar funciones definidas por el usuario (UDFs) para operaciones reutilizables en PySpark.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarla.