Contacta con nosotros

Temario del curso

Introducción

  • ¿Qué es la programación de GPU?
  • ¿Por qué utilizar la programación de GPU?
  • ¿Cuáles son los desafíos y las compensaciones de la programación de GPU?
  • ¿Qué marcos de trabajo existen para la programación de GPU?
  • Cómo elegir el marco de trabajo adecuado para su aplicación

OpenCL

  • ¿Qué es OpenCL?
  • ¿Cuáles son las ventajas y desventajas de OpenCL?
  • Configuración del entorno de desarrollo para OpenCL
  • Creación de un programa básico en OpenCL que realice una suma de vectores
  • Uso de la API de OpenCL para consultar información del dispositivo, asignar y liberar memoria del dispositivo, copiar datos entre el host y el dispositivo, lanzar kernels y sincronizar hilos
  • Uso del lenguaje OpenCL C para escribir kernels que se ejecuten en el dispositivo y manipulen los datos
  • Uso de las funciones, variables y bibliotecas integradas de OpenCL para realizar tareas y operaciones comunes
  • Uso de los espacios de memoria de OpenCL, como global, local, constante y privada, para optimizar las transferencias de datos y los accesos a memoria
  • Uso del modelo de ejecución de OpenCL para controlar los elementos de trabajo, los grupos de trabajo y los rangos ND que definen el paralelismo
  • Depuración y pruebas de programas OpenCL utilizando herramientas como CodeXL
  • Optimización de programas OpenCL mediante técnicas como coalescencia, almacenamiento en caché, prebúsqueda y perfiles de rendimiento

CUDA

  • ¿Qué es CUDA?
  • ¿Cuáles son las ventajas y desventajas de CUDA?
  • Configuración del entorno de desarrollo para CUDA
  • Creación de un programa básico en CUDA que realice una suma de vectores
  • Uso de la API de CUDA para consultar información del dispositivo, asignar y liberar memoria del dispositivo, copiar datos entre el host y el dispositivo, lanzar kernels y sincronizar hilos
  • Uso del lenguaje C/C++ de CUDA para escribir kernels que se ejecuten en el dispositivo y manipulen los datos
  • Uso de las funciones, variables y bibliotecas integradas de CUDA para realizar tareas y operaciones comunes
  • Uso de los espacios de memoria de CUDA, como global, compartida, constante y local, para optimizar las transferencias de datos y los accesos a memoria
  • Uso del modelo de ejecución de CUDA para controlar los hilos, bloques y cuadrículas que definen el paralelismo
  • Depuración y pruebas de programas CUDA utilizando herramientas como CUDA-GDB, CUDA-MEMCHECK y NVIDIA Nsight
  • Optimización de programas CUDA mediante técnicas como coalescencia, almacenamiento en caché, prebúsqueda y perfiles de rendimiento

ROCm

  • ¿Qué es ROCm?
  • ¿Cuáles son las ventajas y desventajas de ROCm?
  • Configuración del entorno de desarrollo para ROCm
  • Creación de un programa básico en ROCm que realice una suma de vectores
  • Uso de la API de ROCm para consultar información del dispositivo, asignar y liberar memoria del dispositivo, copiar datos entre el host y el dispositivo, lanzar kernels y sincronizar hilos
  • Uso del lenguaje C/C++ de ROCm para escribir kernels que se ejecuten en el dispositivo y manipulen los datos
  • Uso de las funciones, variables y bibliotecas integradas de ROCm para realizar tareas y operaciones comunes
  • Uso de los espacios de memoria de ROCm, como global, local, constante y privada, para optimizar las transferencias de datos y los accesos a memoria
  • Uso del modelo de ejecución de ROCm para controlar los hilos, bloques y cuadrículas que definen el paralelismo
  • Depuración y pruebas de programas ROCm utilizando herramientas como ROCm Debugger y ROCm Profiler
  • Optimización de programas ROCm mediante técnicas como coalescencia, almacenamiento en caché, prebúsqueda y perfiles de rendimiento

Comparación

  • Comparación de las funcionalidades, rendimiento y compatibilidad de OpenCL, CUDA y ROCm
  • Evaluación de programas de GPU mediante puntos de referencia y métricas
  • Aprendizaje de las mejores prácticas y consejos para la programación de GPU
  • Exploración de las tendencias actuales y futuras, así como de los desafíos de la programación de GPU

Resumen y próximos pasos

Requerimientos

  • Comprensión del lenguaje C/C++ y de los conceptos de programación paralela
  • Conocimientos básicos de arquitectura de computadoras y jerarquía de memoria
  • Experiencia con herramientas de línea de comandos y editores de código

Público objetivo

  • Desarrolladores que deseen aprender a utilizar diferentes marcos de trabajo para la programación de GPU y comparar sus funcionalidades, rendimiento y compatibilidad.
  • Desarrolladores interesados en escribir código portable y escalable que pueda ejecutarse en diferentes plataformas y dispositivos.
  • Programadores que deseen explorar las compensaciones y desafíos de la programación y optimización de GPU.
 28 Horas

Número de participantes


Precio por participante

Próximos cursos

Categorías Relacionadas