Gracias por enviar su consulta! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Gracias por enviar su reserva! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Temario del curso
Introducción
- ¿Qué es CUDA?
- CUDA vs OpenCL vs SYCL
- Visión general de las características y arquitectura de CUDA
- Configuración del entorno de desarrollo
Primeros pasos
- Creación de un nuevo proyecto CUDA usando Visual Studio Code
- Exploración de la estructura y los archivos del proyecto
- Compilación y ejecución del programa
- Muestra de la salida mediante printf y fprintf
API de CUDA
- Comprensión del papel de la API de CUDA en el programa del host
- Uso de la API de CUDA para consultar información y capacidades del dispositivo
- Uso de la API de CUDA para asignar y liberar memoria del dispositivo
- Uso de la API de CUDA para copiar datos entre el host y el dispositivo
- Uso de la API de CUDA para lanzar núcleos y sincronizar hilos
- Manejo de errores y excepciones mediante la API de CUDA
CUDA C/C++
- Comprensión del papel de CUDA C/C++ en el programa del dispositivo
- Uso de CUDA C/C++ para escribir núcleos que se ejecuten en la GPU y manipulen datos
- Uso de tipos de datos, calificadores, operadores y expresiones de CUDA C/C++
- Uso de funciones integradas de CUDA C/C++, como matemáticas, atómicas, warp, etc.
- Uso de variables integradas de CUDA C/C++, como threadIdx, blockIdx, blockDim, etc.
- Uso de bibliotecas de CUDA C/C++, como cuBLAS, cuFFT, cuRAND, etc.
Modelo de memoria de CUDA
- Comprensión de las diferencias entre los modelos de memoria del host y del dispositivo
- Uso de los espacios de memoria de CUDA, como global, compartida, constante y local
- Uso de objetos de memoria de CUDA, como punteros, arreglos, texturas y superficies
- Uso de los modos de acceso a la memoria de CUDA, como de solo lectura, de solo escritura, de lectura-escritura, etc.
- Aplicación del modelo de consistencia de memoria de CUDA y de los mecanismos de sincronización
Modelo de ejecución de CUDA
- Comprensión de las diferencias entre los modelos de ejecución del host y del dispositivo
- Uso de hilos, bloques y cuadrículas de CUDA para definir el paralelismo
- Uso de funciones de hilo de CUDA, como threadIdx, blockIdx, blockDim, etc.
- Uso de funciones de bloque de CUDA, como __syncthreads, __threadfence_block, etc.
- Uso de funciones de cuadrícula de CUDA, como gridDim, gridSync, grupos cooperativos, etc.
Depuración
- Comprensión de los errores y fallos comunes en los programas CUDA
- Uso del depurador de Visual Studio Code para inspeccionar variables, puntos de interrupción, pila de llamadas, etc.
- Uso de CUDA-GDB para depurar programas CUDA en Linux
- Uso de CUDA-MEMCHECK para detectar errores y fugas de memoria
- Uso de NVIDIA Nsight para depurar y analizar programas CUDA en Windows
Optimización
- Comprensión de los factores que afectan el rendimiento de los programas CUDA
- Aplicación de técnicas de coalescencia de CUDA para mejorar el rendimiento de la memoria
- Uso de técnicas de almacenamiento en caché y prefetching de CUDA para reducir la latencia de memoria
- Aplicación de técnicas de memoria compartida y memoria local de CUDA para optimizar los accesos a la memoria y el ancho de banda
- Uso de perfiles de rendimiento y herramientas de perfilado de CUDA para medir y mejorar el tiempo de ejecución y la utilización de recursos
Resumen y próximos pasos
Requerimientos
- Conocimiento del lenguaje C/C++ y de los conceptos de programación paralela
- Conocimientos básicos de arquitectura de computadoras y jerarquía de memoria
- Experiencia con herramientas de línea de comandos y editores de código
Público objetivo
- Desarrolladores que deseen aprender a usar CUDA para programar GPU de NVIDIA y aprovechar su paralelismo.
- Desarrolladores interesados en escribir código de alto rendimiento y escalable que pueda ejecutarse en diferentes dispositivos CUDA.
- Programadores que deseen explorar los aspectos de bajo nivel de la programación de GPU y optimizar el rendimiento de su código.
28 Horas