Jupyter para Equipos de Ciencia de Datos
Jupyter es un entorno de desarrollo integrado (IDE) interactivo y de código abierto, basado en la web.
Este entrenamiento impartido por un instructor, en vivo (en línea o en el sitio), introduce el concepto de desarrollo colaborativo en ciencia de datos y demuestra cómo utilizar Jupyter para rastrear y participar en equipo en el "ciclo de vida de una idea computacional". Acompaña a los participantes en la creación de un proyecto de ciencia de datos de ejemplo, construido sobre el ecosistema de Jupyter.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Instalar y configurar Jupyter, incluyendo la creación e integración de un repositorio de equipo en Git.
- Utilizar características de Jupyter como extensiones, widgets interactivos, modo multiusuario y más, para habilitar la colaboración en proyectos.
- Crear, compartir y organizar cuadernos de Jupyter (Jupyter Notebooks) con los miembros del equipo.
- Elegir entre Scala, Python o R para escribir y ejecutar código contra sistemas de big data como Apache Spark, todo a través de la interfaz de Jupyter.
Formato del Curso
- Clases interactivas y debates.
- Numerosos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- El cuaderno de Jupyter soporta más de 40 lenguajes, incluyendo R, Python, Scala, Julia, etc. Para adaptar este curso a su(s) lenguaje(s) de preferencia, por favor contáctenos para coordinarlo.
Temario del curso
Introducción a Jupyter
- Descripción general de Jupyter y su ecosistema
- Instalación y configuración
- Configuración de Jupyter para la colaboración en equipo
Características Colaborativas
- Uso de Git para control de versiones
- Extensiones y widgets interactivos
- Modo multiusuario
Creación y Gestión de Cuadernos
- Estructura y funcionalidad de los cuadernos
- Compartir y organizar cuadernos
- Mejores prácticas para la colaboración
Programación con Jupyter
- Elección y uso de lenguajes de programación (Python, R, Scala)
- Escribir y ejecutar código
- Integración con sistemas de big data (Apache Spark)
Características Avanzadas de Jupyter
- Personalización del entorno de Jupyter
- Automatización de flujos de trabajo con Jupyter
- Exploración de casos de uso avanzados
Sesiones Prácticas
- Laboratorios prácticos
- Proyectos reales de ciencia de datos
- Ejercicios grupales y revisiones entre pares
Resumen y Próximos Pasos
Requerimientos
- Experiencia en programación con lenguajes como Python, R, Scala, etc.
- Conocimientos previos en ciencia de datos
Público Objetivo
- Equipos de ciencia de datos
Los cursos públicos requieren más de 5 participantes.
Jupyter para Equipos de Ciencia de Datos - Reserva
Jupyter para Equipos de Ciencia de Datos - Consulta
Jupyter para Equipos de Ciencia de Datos - Solicitud de consultoría
Testimonios (1)
Es genial que el curso esté personalizado para las áreas clave que destacué en el cuestionario previo al curso. Esto realmente ayuda a abordar las preguntas que tengo sobre la materia y a alinearse con mis objetivos de aprendizaje.
Winnie Chan - Statistics Canada
Curso - Jupyter for Data Science Teams
Traducción Automática
Próximos cursos
Cursos Relacionados
Introducción a la Ciencia de Datos e IA con Python
35 HorasEste curso de 5 días ofrece una introducción a la Ciencia de Datos y a la Inteligencia Artificial (IA).
El curso se imparte con ejemplos y ejercicios utilizando Python.
Apache Airflow para Ciencia de Datos: Automatización de Pipelines de Machine Learning
21 HorasEsta capacitación presencial, con instructores en vivo en Colombia (en línea o in situ), está dirigida a participantes de nivel intermedio que deseen automatizar y gestionar flujos de trabajo de machine learning, incluyendo el entrenamiento, validación y despliegue de modelos utilizando Apache Airflow.
Al finalizar esta capacitación, los participantes podrán:
- Configurar Apache Airflow para la orquestación de flujos de trabajo de machine learning.
- Automatizar tareas de preprocesamiento de datos, entrenamiento y validación de modelos.
- Integrar Airflow con frameworks y herramientas de machine learning.
- Desplegar modelos de machine learning mediante pipelines automatizados.
- Monitorear y optimizar flujos de trabajo de machine learning en producción.
Ecosistema Anaconda para Cientistas de Datos
14 HorasEste entrenamiento impartido por un instructor en vivo en Colombia (en línea o presencial) está dirigido a científicos de datos que desean utilizar el ecosistema de Anaconda para capturar, gestionar e implementar paquetes y flujos de trabajo de análisis de datos en una sola plataforma.
Al finalizar este entrenamiento, los participantes podrán:
- Instalar y configurar componentes y bibliotecas de Anaconda.
- Comprender los conceptos centrales, características y beneficios de Anaconda.
- Gestionar paquetes, entornos y canales utilizando el Navegador de Anaconda.
- Utilizar paquetes de Conda, R y Python para ciencia de datos y aprendizaje automático.
- Conocer casos de uso prácticos y técnicas para gestionar múltiples entornos de datos.
AWS Cloud9 para Ciencia de Datos
28 HorasEsta capacitación impartida por un instructor y en vivo en Colombia (en línea o en sitio) está dirigida a científicos de datos y analistas de nivel intermedio que deseen utilizar AWS Cloud9 para optimizar los flujos de trabajo en ciencia de datos.
Al finalizar esta capacitación, los participantes podrán:
- Configurar un entorno de ciencia de datos en AWS Cloud9.
- Realizar análisis de datos utilizando Python, R y Jupyter Notebook en Cloud9.
- Integrar AWS Cloud9 con servicios de datos de AWS como S3, RDS y Redshift.
- Aprovechar AWS Cloud9 para el desarrollo y despliegue de modelos de aprendizaje automático.
- Optimizar flujos de trabajo basados en la nube para el análisis y procesamiento de datos.
Introducción a Google Colab para Ciencia de Datos
14 HorasEsta capacitación presencial, impartida por un instructor en Colombia (en línea o in situ), está dirigida a científicos de datos y profesionales de TI de nivel principiante que deseen aprender los fundamentos de la ciencia de datos utilizando Google Colab.
Al finalizar esta capacitación, los participantes podrán:
- Configurar y navegar por Google Colab.
- Escribir y ejecutar código Python básico.
- Importar y manejar conjuntos de datos.
- Crear visualizaciones utilizando bibliotecas de Python.
Una introducción práctica a la ciencia de datos
35 HorasLos participantes que completen esta formación obtendrán una comprensión práctica y aplicada de la ciencia de datos, así como de sus tecnologías, metodologías y herramientas relacionadas.
Los participantes tendrán la oportunidad de poner estos conocimientos en práctica mediante ejercicios prácticos. La interacción en grupo y la retroalimentación del instructor son componentes fundamentales de la clase.
El curso comienza con una introducción a los conceptos elementales de la ciencia de datos y luego avanza hacia las herramientas y metodologías utilizadas en este campo.
Público objetivo
- Desarrolladores
- Analistas técnicos
- Consultores de TI
Formato del curso
- Combinación de clases magistrales, discusiones, ejercicios y práctica intensiva en el desarrollo práctico
Nota
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinarlo.
Ciencia de Datos para Big Data Analytics
35 HorasEl big data se refiere a conjuntos de datos tan voluminosos y complejos que el software tradicional de procesamiento de datos resulta inadecuado para manejarlos. Los desafíos del big data incluyen la captura de datos, el almacenamiento, el análisis, la búsqueda, el intercambio, la transferencia, la visualización, las consultas, las actualizaciones y la privacidad de la información.
Data Science essential for para los profesionales de marketing / ventas
21 HorasEste curso está diseñado para profesionales de Marketing y Ventas que desean profundizar en la aplicación de la ciencia de datos en estas áreas. El programa ofrece una cobertura detallada de diversas técnicas de ciencia de datos utilizadas para el "venta adicional" (upsale), la "venta cruzada" (cross-sale), la segmentación de mercado, la creación de marca y el valor de vida del cliente (CLV).
La diferencia entre Marketing y Ventas - ¿En qué se diferencian estas dos disciplinas?
En términos muy sencillos, las ventas pueden definirse como un proceso que se centra o dirige a individuos o pequeños grupos. El marketing, por otro lado, apunta a un grupo más amplio o al público en general. El marketing incluye la investigación (identificar las necesidades del cliente), el desarrollo de productos (crear productos innovadores) y la promoción del producto (mediante anuncios), generando conciencia sobre el mismo entre los consumidores. Por lo tanto, el marketing se trata de generar leads o prospectos. Una vez que el producto está en el mercado, es tarea del vendedor persuadir al cliente para que lo compre. Las ventas consisten en convertir esos leads o prospectos en compras y pedidos, mientras que el marketing está orientado a objetivos a largo plazo, mientras que las ventas se enfocan en metas a corto plazo.
Introducción a la Ciencia de Datos
35 HorasEste entrenamiento en vivo, dirigido por un instructor (en línea o presencial), está diseñado para profesionales que desean iniciar una carrera en Ciencia de Datos.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Instalar y configurar Python y MySQL.
- Comprender qué es la Ciencia de Datos y cómo puede agregar valor a prácticamente cualquier negocio.
- Aprender los fundamentos de la programación en Python.
- Adquirir conocimientos sobre técnicas de aprendizaje automático supervisado y no supervisado, así como saber cómo implementarlas e interpretar sus resultados.
Formato del curso
- Conferencias interactivas y debates.
- Abundantes ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
- Para solicitar un entrenamiento personalizado para este curso, contáctenos para coordinarlo.
Kaggle
14 HorasEsta formación impartida por un instructor, en vivo en Colombia (en línea o en el sitio), está dirigida a científicos de datos y desarrolladores que deseen aprender y construir su carrera en Ciencia de Datos utilizando Kaggle.
Al finalizar esta formación, los participantes serán capaces de:
- Comprender los fundamentos de la ciencia de datos y el aprendizaje automático.
- Explorar el análisis de datos.
- Conocer Kaggle y su funcionamiento.
Ciencia de Datos con KNIME Analytics Platform
21 HorasKNIME Analytics Platform es una opción líder de código abierto para la innovación basada en datos, que le ayuda a descubrir el potencial oculto en sus datos, extraer nuevas perspectivas o predecir futuros escenarios. Con más de 1000 módulos, cientos de ejemplos listos para ejecutar, una amplia gama de herramientas integradas y la mayor variedad de algoritmos avanzados disponibles, KNIME Analytics Platform es la caja de herramientas perfecta para cualquier científico de datos y analista de negocios.
Este curso sobre KNIME Analytics Platform representa una oportunidad ideal para principiantes, usuarios avanzados y expertos en KNIME que deseen iniciarse en la plataforma, aprender a utilizarla de manera más efectiva y crear informes claros y exhaustivos basados en flujos de trabajo de KNIME.
Esta formación impartida por un instructor, en vivo (en línea o presencial), está dirigida a profesionales de los datos que deseen utilizar KNIME para resolver necesidades empresariales complejas.
Está diseñada para aquellos que no tienen conocimientos de programación pero que buscan utilizar herramientas de vanguardia para implementar escenarios de análisis.
Al finalizar esta formación, los participantes serán capaces de:
- Instalar y configurar KNIME.
- Construir escenarios de ciencia de datos.
- Entrenar, probar y validar modelos.
- Implementar el ciclo de valor completo de los modelos de ciencia de datos.
Formato del Curso
- Conferencias interactivas y discusiones.
- Numerosos ejercicios y prácticas.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso o obtener más información sobre este programa, contáctenos para coordinarlo.
Fundamentos de MATLAB, Ciencia de datos y generación de informes
35 HorasEn la primera parte de esta capacitación, abordamos los fundamentos de MATLAB y su función tanto como lenguaje de programación como plataforma. Esta discusión incluye una introducción a la sintaxis de MATLAB, arreglos y matrices, visualización de datos, desarrollo de scripts y principios de programación orientada a objetos.
En la segunda parte, demostramos cómo utilizar MATLAB para la minería de datos, el aprendizaje automático y el análisis predictivo. Para ofrecer a los participantes una perspectiva clara y práctica del enfoque y la potencia de MATLAB, establecemos comparaciones entre su uso y el de otras herramientas como hojas de cálculo, C, C++ y Visual Basic.
En la tercera parte de la capacitación, los participantes aprenderán a optimizar su trabajo automatizando el procesamiento de datos y la generación de informes.
A lo largo del curso, los participantes pondrán en práctica los conceptos aprendidos mediante ejercicios prácticos en un entorno de laboratorio. Al finalizar la capacitación, los participantes tendrán un dominio completo de las capacidades de MATLAB y estarán en capacidad de emplearlo para resolver problemas reales de ciencia de datos, así como para optimizar sus procesos mediante la automatización.
Se realizarán evaluaciones durante todo el curso para medir el progreso.
Formato del curso
- El curso incluye ejercicios teóricos y prácticos, como discusiones de casos, revisión de código de ejemplo e implementación práctica.
Nota
- Las sesiones de práctica se basarán en plantillas de informes de datos de muestra preestablecidas. Si tiene requisitos específicos, por favor contáctenos para coordinarlo.
Aprendizaje Automático - Ciencia de Datos
21 HorasEsta capacitación impartida por un instructor en vivo en Colombia (en línea o presencial) está dirigida a analistas de datos, desarrolladores o aspirantes a científicos de datos de nivel intermedio que desean aplicar técnicas de aprendizaje automático en Python para extraer conocimientos, hacer predicciones y automatizar decisiones basadas en datos.
Al finalizar este curso, los participantes podrán:
- Comprender y diferenciar los paradigmas clave del aprendizaje automático.
- Explorar técnicas de preprocesamiento de datos y métricas de evaluación de modelos.
- Aplicar algoritmos de aprendizaje automático para resolver problemas reales de datos.
- Utilizar bibliotecas de Python y cuadernos Jupyter para el desarrollo práctico.
- Construir modelos para predicción, clasificación, recomendación y agrupamiento.
Aceleración de flujos de trabajo de Python Pandas con Modin
14 HorasEsta capacitación en vivo, impartida por un instructor en Colombia (en línea o en sitio), está dirigida a científicos de datos y desarrolladores que deseen utilizar Modin para construir e implementar cálculos paralelos con Pandas y lograr un análisis de datos más rápido.
Al finalizar esta capacitación, los participantes serán capaces de:
- Configurar el entorno necesario para comenzar a desarrollar flujos de trabajo de Pandas a gran escala con Modin.
- Comprender las características, la arquitectura y las ventajas de Modin.
- Conocer las diferencias entre Modin, Dask y Ray.
- Ejecutar operaciones de Pandas más rápidamente con Modin.
- Implementar toda la API y las funciones de Pandas.
Ciencia de datos con GPU usando NVIDIA RAPIDS
14 HorasEsta capacitación en vivo, impartida por un instructor en Colombia (en línea o en sitio), está dirigida a científicos de datos y desarrolladores que deseen utilizar RAPIDS para construir pipelines de datos, flujos de trabajo y visualizaciones acelerados por GPU, aplicando algoritmos de aprendizaje automático como XGBoost, cuML, entre otros.
Al finalizar esta capacitación, los participantes estarán en capacidad de:
- Configurar el entorno de desarrollo necesario para crear modelos de datos con NVIDIA RAPIDS.
- Comprender las características, componentes y ventajas de RAPIDS.
- Aprovechar las GPU para acelerar pipelines de datos y análisis de extremo a extremo.
- Implementar preparación de datos y ETL acelerados por GPU utilizando cuDF y Apache Arrow.
- Aprender a realizar tareas de aprendizaje automático con los algoritmos XGBoost y cuML.
- Crear visualizaciones de datos y ejecutar análisis de grafos con cuXfilter y cuGraph.