Contacta con nosotros

Temario del curso

Introducción a la arquitectura de GPU de Biren

  • Panorama general de Biren y casos de uso
  • Estructura del hardware: núcleos, memoria y clústeres de cómputo
  • Comparación con GPUs de NVIDIA y AMD

Configuración del entorno de programación de Biren

  • Instalación del SDK y el runtime de Biren
  • Comprensión de la cadena de herramientas y del modelo de compilación
  • Estructura básica del proyecto y proceso de compilación

Programación GPU con la pila de Biren

  • Modelos de hilos y bloques
  • Gestión de memoria y transferencias de datos
  • Desarrollo de kernels y patrones de lanzamiento

Migración desde CUDA hacia Biren

  • Técnicas de traducción para código CUDA
  • Mapeos y adaptaciones comunes de API
  • Laboratorios y práctica de conversión de código

Depuración y perfilado

  • Uso del depurador y perfilador de Biren
  • Identificación de cuellos de botella
  • Patrones de acceso a memoria y optimización

Técnicas de optimización

  • Planificación de hilos y canalización de instrucciones
  • Desenrollado de bucles y uso de memoria compartida
  • Ajuste avanzado de kernels para maximizar el rendimiento

Estudio de caso y ejemplos de aplicación

  • Entrenamiento de un modelo con aceleradores de Biren
  • Migración y perfilado de un modelo de visión o procesamiento de lenguaje natural (NLP)
  • Comparación de rendimiento frente a CUDA/NVIDIA

Resumen y próximos pasos

Requerimientos

  • Comprensión de la arquitectura de GPU y el procesamiento paralelo
  • Experiencia con CUDA, OpenCL o entornos de programación GPU similares
  • Familiaridad con frameworks de aprendizaje profundo como PyTorch o TensorFlow

Público objetivo

  • Desarrolladores de HPC
  • Ingenieros de infraestructura de IA
  • Especialistas en optimización de rendimiento
 21 Horas

Número de participantes


Precio por participante

Testimonios (2)

Próximos cursos

Categorías Relacionadas