Gracias por enviar su consulta! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Gracias por enviar su reserva! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Temario del curso
Introducción
- ¿Qué es la programación de GPU?
- ¿Por qué utilizar la programación de GPU?
- ¿Cuáles son los desafíos y las compensaciones de la programación de GPU?
- ¿Qué marcos de trabajo existen para la programación de GPU?
- Cómo elegir el marco de trabajo adecuado para su aplicación
OpenCL
- ¿Qué es OpenCL?
- ¿Cuáles son las ventajas y desventajas de OpenCL?
- Configuración del entorno de desarrollo para OpenCL
- Creación de un programa básico en OpenCL que realice una suma de vectores
- Uso de la API de OpenCL para consultar información del dispositivo, asignar y liberar memoria del dispositivo, copiar datos entre el host y el dispositivo, lanzar kernels y sincronizar hilos
- Uso del lenguaje OpenCL C para escribir kernels que se ejecuten en el dispositivo y manipulen los datos
- Uso de las funciones, variables y bibliotecas integradas de OpenCL para realizar tareas y operaciones comunes
- Uso de los espacios de memoria de OpenCL, como global, local, constante y privada, para optimizar las transferencias de datos y los accesos a memoria
- Uso del modelo de ejecución de OpenCL para controlar los elementos de trabajo, los grupos de trabajo y los rangos ND que definen el paralelismo
- Depuración y pruebas de programas OpenCL utilizando herramientas como CodeXL
- Optimización de programas OpenCL mediante técnicas como coalescencia, almacenamiento en caché, prebúsqueda y perfiles de rendimiento
CUDA
- ¿Qué es CUDA?
- ¿Cuáles son las ventajas y desventajas de CUDA?
- Configuración del entorno de desarrollo para CUDA
- Creación de un programa básico en CUDA que realice una suma de vectores
- Uso de la API de CUDA para consultar información del dispositivo, asignar y liberar memoria del dispositivo, copiar datos entre el host y el dispositivo, lanzar kernels y sincronizar hilos
- Uso del lenguaje C/C++ de CUDA para escribir kernels que se ejecuten en el dispositivo y manipulen los datos
- Uso de las funciones, variables y bibliotecas integradas de CUDA para realizar tareas y operaciones comunes
- Uso de los espacios de memoria de CUDA, como global, compartida, constante y local, para optimizar las transferencias de datos y los accesos a memoria
- Uso del modelo de ejecución de CUDA para controlar los hilos, bloques y cuadrículas que definen el paralelismo
- Depuración y pruebas de programas CUDA utilizando herramientas como CUDA-GDB, CUDA-MEMCHECK y NVIDIA Nsight
- Optimización de programas CUDA mediante técnicas como coalescencia, almacenamiento en caché, prebúsqueda y perfiles de rendimiento
ROCm
- ¿Qué es ROCm?
- ¿Cuáles son las ventajas y desventajas de ROCm?
- Configuración del entorno de desarrollo para ROCm
- Creación de un programa básico en ROCm que realice una suma de vectores
- Uso de la API de ROCm para consultar información del dispositivo, asignar y liberar memoria del dispositivo, copiar datos entre el host y el dispositivo, lanzar kernels y sincronizar hilos
- Uso del lenguaje C/C++ de ROCm para escribir kernels que se ejecuten en el dispositivo y manipulen los datos
- Uso de las funciones, variables y bibliotecas integradas de ROCm para realizar tareas y operaciones comunes
- Uso de los espacios de memoria de ROCm, como global, local, constante y privada, para optimizar las transferencias de datos y los accesos a memoria
- Uso del modelo de ejecución de ROCm para controlar los hilos, bloques y cuadrículas que definen el paralelismo
- Depuración y pruebas de programas ROCm utilizando herramientas como ROCm Debugger y ROCm Profiler
- Optimización de programas ROCm mediante técnicas como coalescencia, almacenamiento en caché, prebúsqueda y perfiles de rendimiento
Comparación
- Comparación de las funcionalidades, rendimiento y compatibilidad de OpenCL, CUDA y ROCm
- Evaluación de programas de GPU mediante puntos de referencia y métricas
- Aprendizaje de las mejores prácticas y consejos para la programación de GPU
- Exploración de las tendencias actuales y futuras, así como de los desafíos de la programación de GPU
Resumen y próximos pasos
Requerimientos
- Comprensión del lenguaje C/C++ y de los conceptos de programación paralela
- Conocimientos básicos de arquitectura de computadoras y jerarquía de memoria
- Experiencia con herramientas de línea de comandos y editores de código
Público objetivo
- Desarrolladores que deseen aprender a utilizar diferentes marcos de trabajo para la programación de GPU y comparar sus funcionalidades, rendimiento y compatibilidad.
- Desarrolladores interesados en escribir código portable y escalable que pueda ejecutarse en diferentes plataformas y dispositivos.
- Programadores que deseen explorar las compensaciones y desafíos de la programación y optimización de GPU.
28 Horas