Contacta con nosotros

Temario del curso

Introducción

  • ¿Qué es CUDA?
  • CUDA vs OpenCL vs SYCL
  • Visión general de las características y arquitectura de CUDA
  • Configuración del entorno de desarrollo

Primeros pasos

  • Creación de un nuevo proyecto CUDA usando Visual Studio Code
  • Exploración de la estructura y los archivos del proyecto
  • Compilación y ejecución del programa
  • Muestra de la salida mediante printf y fprintf

API de CUDA

  • Comprensión del papel de la API de CUDA en el programa del host
  • Uso de la API de CUDA para consultar información y capacidades del dispositivo
  • Uso de la API de CUDA para asignar y liberar memoria del dispositivo
  • Uso de la API de CUDA para copiar datos entre el host y el dispositivo
  • Uso de la API de CUDA para lanzar núcleos y sincronizar hilos
  • Manejo de errores y excepciones mediante la API de CUDA

CUDA C/C++

  • Comprensión del papel de CUDA C/C++ en el programa del dispositivo
  • Uso de CUDA C/C++ para escribir núcleos que se ejecuten en la GPU y manipulen datos
  • Uso de tipos de datos, calificadores, operadores y expresiones de CUDA C/C++
  • Uso de funciones integradas de CUDA C/C++, como matemáticas, atómicas, warp, etc.
  • Uso de variables integradas de CUDA C/C++, como threadIdx, blockIdx, blockDim, etc.
  • Uso de bibliotecas de CUDA C/C++, como cuBLAS, cuFFT, cuRAND, etc.

Modelo de memoria de CUDA

  • Comprensión de las diferencias entre los modelos de memoria del host y del dispositivo
  • Uso de los espacios de memoria de CUDA, como global, compartida, constante y local
  • Uso de objetos de memoria de CUDA, como punteros, arreglos, texturas y superficies
  • Uso de los modos de acceso a la memoria de CUDA, como de solo lectura, de solo escritura, de lectura-escritura, etc.
  • Aplicación del modelo de consistencia de memoria de CUDA y de los mecanismos de sincronización

Modelo de ejecución de CUDA

  • Comprensión de las diferencias entre los modelos de ejecución del host y del dispositivo
  • Uso de hilos, bloques y cuadrículas de CUDA para definir el paralelismo
  • Uso de funciones de hilo de CUDA, como threadIdx, blockIdx, blockDim, etc.
  • Uso de funciones de bloque de CUDA, como __syncthreads, __threadfence_block, etc.
  • Uso de funciones de cuadrícula de CUDA, como gridDim, gridSync, grupos cooperativos, etc.

Depuración

  • Comprensión de los errores y fallos comunes en los programas CUDA
  • Uso del depurador de Visual Studio Code para inspeccionar variables, puntos de interrupción, pila de llamadas, etc.
  • Uso de CUDA-GDB para depurar programas CUDA en Linux
  • Uso de CUDA-MEMCHECK para detectar errores y fugas de memoria
  • Uso de NVIDIA Nsight para depurar y analizar programas CUDA en Windows

Optimización

  • Comprensión de los factores que afectan el rendimiento de los programas CUDA
  • Aplicación de técnicas de coalescencia de CUDA para mejorar el rendimiento de la memoria
  • Uso de técnicas de almacenamiento en caché y prefetching de CUDA para reducir la latencia de memoria
  • Aplicación de técnicas de memoria compartida y memoria local de CUDA para optimizar los accesos a la memoria y el ancho de banda
  • Uso de perfiles de rendimiento y herramientas de perfilado de CUDA para medir y mejorar el tiempo de ejecución y la utilización de recursos

Resumen y próximos pasos

Requerimientos

  • Conocimiento del lenguaje C/C++ y de los conceptos de programación paralela
  • Conocimientos básicos de arquitectura de computadoras y jerarquía de memoria
  • Experiencia con herramientas de línea de comandos y editores de código

Público objetivo

  • Desarrolladores que deseen aprender a usar CUDA para programar GPU de NVIDIA y aprovechar su paralelismo.
  • Desarrolladores interesados en escribir código de alto rendimiento y escalable que pueda ejecutarse en diferentes dispositivos CUDA.
  • Programadores que deseen explorar los aspectos de bajo nivel de la programación de GPU y optimizar el rendimiento de su código.
 28 Horas

Número de participantes


Precio por participante

Próximos cursos

Categorías Relacionadas