Contacta con nosotros

Temario del curso

Introducción

Comprensión de los fundamentos de la metodología de computación heterogénea

¿Por qué la computación paralela? Comprensión de la necesidad de la computación paralela

Procesadores multinúcleo: arquitectura y diseño

Introducción a los hilos, conceptos básicos de hilos y conceptos fundamentales de la programación paralela

Comprensión de los fundamentos de los procesos de optimización de software en GPU

OpenMP: un estándar para la programación paralela basada en directivas

Práctica y demostración de diversos programas en máquinas multinúcleo

Introducción a la computación con GPU

GPU para computación paralela

Modelo de programación de GPU

Práctica y demostración de diversos programas en GPU

SDK, toolkit e instalación del entorno para GPU

Trabajo con diversas bibliotecas

Demuestra de GPU y herramientas con programas de ejemplo y OpenACC

Comprensión del modelo de programación CUDA

Aprendizaje de la arquitectura CUDA

Exploración y configuración de los entornos de desarrollo CUDA

Trabajo con la API de tiempo de ejecución de CUDA

Comprensión del modelo de memoria de CUDA

Exploración de características adicionales de la API de CUDA

Acceso eficiente a la memoria global en CUDA: optimización de la memoria global

Optimización de transferencias de datos en CUDA mediante flujos CUDA

Uso de memoria compartida en CUDA

Comprensión y uso de operaciones e instrucciones atómicas en CUDA

Estudio de caso: procesamiento básico de imágenes digitales con CUDA

Trabajo con programación de múltiples GPU

Perfiles y muestreo avanzado de hardware en NVIDIA / CUDA

Uso de la API de paralelismo dinámico de CUDA para el lanzamiento dinámico de núcleos

Resumen y conclusión

Requerimientos

  • Programación en C
  • Linux GCC
 21 Horas

Número de participantes


Precio por participante

Testimonios (1)

Próximos cursos

Categorías Relacionadas