Gracias por enviar su consulta! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Gracias por enviar su reserva! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Temario del curso
Visión general de las capacidades de optimización de CANN
- Cómo se gestiona el rendimiento de inferencia en CANN
- Objetivos de optimización para sistemas de IA en el borde y embebidos
- Comprensión de la utilización del núcleo de IA y la asignación de memoria
Uso de Graph Engine para análisis
- Introducción a Graph Engine y al pipeline de ejecución
- Visualización de grafos de operadores y métricas de tiempo de ejecución
- Modificación de grafos computacionales para optimización
Herramientas de perfilado y métricas de rendimiento
- Uso de la herramienta de perfilado de CANN (profiler) para el análisis de cargas de trabajo
- Análisis del tiempo de ejecución de kernels y identificación de cuellos de botella
- Perfilado del acceso a memoria y estrategias de teselación (tiling)
Desarrollo de operadores personalizados con TIK
- Visión general de TIK y del modelo de programación de operadores
- Implementación de un operador personalizado utilizando TIK DSL
- Pruebas y evaluación del rendimiento de los operadores
Optimización avanzada de operadores con TVM
- Introducción a la integración de TVM con CANN
- Estrategias de auto-ajuste para grafos computacionales
- Cuándo y cómo cambiar entre TVM y TIK
Técnicas de optimización de memoria
- Gestión de la disposición de memoria y ubicación de buffers
- Técnicas para reducir el consumo de memoria en chip
- Mejores prácticas para la ejecución asíncrona y la reutilización
Despliegue en escenarios reales y estudios de caso
- Estudio de caso: ajuste de rendimiento para la cadena de procesamiento de cámaras en ciudades inteligentes
- Estudio de caso: optimización del stack de inferencia para vehículos autónomos
- Directrices para el perfilado iterativo y la mejora continua
Resumen y siguientes pasos
Requerimientos
- Comprensión sólida de las arquitecturas de modelos de aprendizaje profundo y los flujos de trabajo de entrenamiento
- Experiencia en el despliegue de modelos utilizando CANN, TensorFlow o PyTorch
- Familiaridad con la línea de comandos de Linux, scripting en shell y programación en Python
Público objetivo
- Ingenieros de rendimiento en IA
- Especialistas en optimización de inferencia
- Desarrolladores que trabajan con IA en el borde o sistemas en tiempo real
14 Horas