Temario del curso
Introducción AI, Machine Learning & Deep Learning
- Historia, conceptos básicos y aplicaciones usuales de la inteligencia artificial. De las fantasías de este dominio.
- Inteligencia Colectiva: agregando conocimiento compartido por muchos agentes virtuales
- Algoritmos genéticos: para desarrollar una población de agentes virtuales por selección
- Máquina de aprendizaje habitual: definición.
- Tipos de tareas: aprendizaje supervisado, aprendizaje no supervisado, aprendizaje de refuerzo
- Tipos de acciones: clasificación, regresión, clustering, estimación de densidad, reducción de dimensionalidad
- Ejemplos de algoritmos de Machine Learning: regresión lineal, Naive Bayes, Random Tree
- Aprendizaje automático VS Deep Learning: problemas en los que se mantiene el aprendizaje automático Hoy en día el estado del arte (Random Forests & XGBoosts)
Conceptos básicos de una red neuronal (Aplicación: perceptrón multicapa)
- Recordatorio de bases matemáticas
- Definición de una red de neuronas: arquitectura clásica, activación y
- Ponderación de activaciones anteriores, profundidad de una red
- Definición del aprendizaje de una red de neuronas: funciones de costo, retro-propagación, gradiente de gradiente estocástico, máxima verosimilitud.
- Modelado de una red neuronal: modelar datos de entrada y salida de acuerdo con el tipo de problema (regresión, clasificación ...). Maldición de dimensionalidad.
- Distinción entre datos de múltiples funciones y señal. Elección de una función de costo según los datos.
- Aproximación de una función por una red de neuronas: presentación y ejemplos
- Aproximación de una distribución por una red de neuronas: presentación y ejemplos
- Aumento de datos: cómo equilibrar un conjunto de datos
- Generalización de los resultados de una red de neuronas.
- Inicialización y regularización de una red neuronal: regularización L1 / L2, normalización de lotes
- Algoritmos de optimización y convergencia
Herramientas estándar ML / DL
Se planifica una presentación simple con ventajas, desventajas, posición en el ecosistema y uso.
- Herramientas de gestión de datos: Apache Spark, Apache Hadoop Tools
- Aprendizaje automático: Numpy, Scipy, Sci-kit
- Armazones DL de alto nivel: PyTorch, Keras, Lasagne
- Marcos DL de bajo nivel: Theano, Torch, Caffe, Tensorflow
Redes Neuronales Convolucionales (CNN).
- Presentación de los CNN: principios fundamentales y aplicaciones
- Funcionamiento básico de una CNN: capa convolucional, uso de un núcleo,
- Relleno y zancada, característica de generación de mapas, agrupación de capas. Extensiones 1D, 2D y 3D.
- Presentación de las diferentes arquitecturas CNN que trajeron el estado del arte en la clasificación
- Imágenes: LeNet, Redes VGG, Red en red, Inicio, Resnet. Presentación de las innovaciones producidas por cada arquitectura y sus aplicaciones más globales (Convolución 1x1 o conexiones residuales)
- Uso de un modelo de atención.
- Aplicación a un caso de clasificación común (texto o imagen)
- CNNs para generación: súper resolución, segmentación pixel-a-pixel. Presentación de
- Principales estrategias para aumentar los mapas de características para la generación de imágenes.
Redes neuronales recurrentes (RNN).
- Presentación de RNN: principios y aplicaciones fundamentales.
- Funcionamiento básico del RNN: activación oculta, retro-propagación a través del tiempo, versión desplegada.
- Evoluciones hacia las Unidades Recurrentes Cerradas (GRU) y LSTM (Memoria a Largo Plazo Larga).
- Presentación de los diferentes estados y las evoluciones traídas por estas arquitecturas
- Convergencia y problemas de gradiente de desvanecimiento
- Arquitecturas clásicas: Predicción de una serie temporal, clasificación ...
- RNN Encoder Decoder type architecture. Uso de un modelo de atención.
- Aplicaciones NLP: codificación de palabras / caracteres, traducción.
- Aplicaciones de video: predicción de la siguiente imagen generada de una secuencia de video.
Modelos generacionales: Variable AutoEncoder (VAE) y Generative Adversarial Networks (GAN).
- Presentación de los modelos generacionales, enlace con los CNN
- Auto-encoder: reducción de dimensionalidad y generación limitada
- Auto-encoder variable: modelo generacional y aproximación de la distribución de un dado. Definición y uso del espacio latente. Truco de reparametrización Aplicaciones y límites observados
- Redes de adversarios generativos: Fundamentos.
- Arquitectura de red dual (Generador y discriminador) con aprendizaje alternativo, funciones de costos disponibles.
- Convergencia de un GAN y dificultades encontradas.
- Convergencia mejorada: Wasserstein GAN, Began. Distancia de movimiento de tierra
- Aplicaciones para la generación de imágenes o fotografías, generación de texto, super-resolución.
Aprendizaje de refuerzo profundo.
- Presentación del aprendizaje de refuerzo: control de un agente en un entorno definido
- Por un estado y posibles acciones
- Uso de una red neuronal para aproximar la función de estado
- Deep Q Learning: reproducción de experiencia y aplicación al control de un videojuego.
- Optimización de la política de aprendizaje. En política && fuera de política. Arquitectura crítica del actor. A3C.
- Aplicaciones: control de un solo videojuego o sistema digital.
Parte 2 - Theano para el aprendizaje profundo
Fundamentos de Theano
- Introducción
- Instalacion y configuracion
Funciones de Theano
- entradas, salidas, actualizaciones, datos
Entrenamiento y optimización de una red neuronal usando Theano
- Modelado de redes neuronales
- Regresión logística
- Capas ocultas
- Entrenando una red
- Computación y Clasificación
- Mejoramiento
- Pérdida de registro
Probando el modelo
Parte 3 - DNN usando Tensorflow
Conceptos básicos de TensorFlow
- Creación, inicialización, almacenamiento y restauración de variables de TensorFlow
- Alimentando, leyendo y precargando los datos de TensorFlow
- Cómo usar la infraestructura de TensorFlow para entrenar modelos a escala
- Visualización y evaluación de modelos con TensorBoard
Mecánica TensorFlow
- Prepare los datos
- Descargar
- Entradas y marcadores de posición
- Construye los GraphS
- Inferencia
- Pérdida
- Formación
- Entrenar el modelo
- La gráfica
- La sesión
- Train Loop
- Evaluar el modelo
- Construye el Gráfico Eval
- Salida Eval
El Perceptron
- Funciones de activación
- El algoritmo de aprendizaje perceptron
- Clasificación binaria con el perceptrón
- Clasificación de documentos con el perceptrón
- Limitaciones del perceptrón
Desde Perceptron hasta Support Vector Machines
- Kernels y el truco del kernel
- Máxima clasificación de márgenes y vectores de soporte
ââââââRedes neuronales artificiales
- Límites de decisión no lineal
- Feedforward y feedback redes neuronales artificiales
- Perceptrones multicapa
- Minimizando la función de costo
- Propagación hacia adelante
- Reproducción posterior
- Mejorando la forma en que las redes neuronales aprenden
Redes neuronales convolucionales
- Metas
- Arquitectura modelo
- Principios
- Organización de código
- Lanzamiento y entrenamiento del modelo
- Evaluar un modelo
Introducciones básicas que se darán a los módulos a continuación (se brindará una breve introducción en función de la disponibilidad de tiempo):
Tensorflow: uso avanzado
- Enhebrado y colas
- Distribuido TensorFlow
- Escribir documentación y compartir su modelo
- Personalizar lectores de datos
- Manipulando archivos de modelo de TensorFlow
TensorFlow Sirviendo
- Introducción
- Tutorial de servicio básico
- Tutorial de servicio avanzado
- Sirviendo Tutorial de Modelo de Inicio
Requerimientos
Antecedentes en física, matemáticas y programación. Participación en actividades de procesamiento de imágenes.
Los delegados deberían tener una comprensión previa de los conceptos de aprendizaje automático, y deberían haber trabajado en la programación y las bibliotecas de Python.
Testimonios (5)
Hunter es fabuloso, muy atractivo, extremadamente conocedor y agradable. Muy bien hecho.
Rick Johnson - Laramie County Community College
Curso - Artificial Intelligence (AI) Overview
Traducción Automática
El entrenador explicó bien el contenido y mantuvo nuestra atención durante todo el tiempo. Se detenía para hacer preguntas y nos dejaba llegar a nuestras propias soluciones en algunas sesiones prácticas. También adaptó muy bien el curso a nuestras necesidades.
Robert Baker
Curso - Deep Learning with TensorFlow 2.0
Traducción Automática
Tomasz realmente conoce bien la información y el curso estaba bien paceado. (Note: "paceado" is not a correct Spanish word, so I'll adjust it to make sense in Spanish.) Tomasz realmente conoce bien la información y el curso fue bien estructurado en cuanto al ritmo.
Raju Krishnamurthy - Google
Curso - TensorFlow Extended (TFX)
Traducción Automática
Organización, siguiendo la agenda propuesta, el amplio conocimiento del entrenador sobre este tema
Ali Kattan - TWPI
Curso - Natural Language Processing with TensorFlow
Traducción Automática
Very updated approach or CPI (tensor flow, era, learn) to do machine learning.
Paul Lee
Curso - TensorFlow for Image Recognition
Traducción Automática