Contacta con nosotros

Temario del curso

DÍA 1 - REDES NEURONALES ARTIFICIALES

Introducción y estructura de las ANN.

  • Neuronas biológicas y neuronas artificiales.
  • Modelo de una ANN.
  • Funciones de activación utilizadas en las ANN.
  • Clases típicas de arquitecturas de redes.

Fundamentos matemáticos y mecanismos de aprendizaje.

  • Repaso del álgebra vectorial y matricial.
  • Conceptos de espacio de estados.
  • Conceptos de optimización.
  • Aprendizaje basado en corrección de errores.
  • Aprendizaje basado en memoria.
  • Aprendizaje hebbiano.
  • Aprendizaje competitivo.

Perceptrones de una sola capa.

  • Estructura y aprendizaje de los perceptrones.
  • Clasificador de patrones: introducción y clasificadores de Bayes.
  • El perceptrón como clasificador de patrones.
  • Convergencia del perceptrón.
  • Limitaciones de los perceptrones.

ANN de alimentación hacia adelante.

  • Estructuras de redes de alimentación hacia adelante multicapa.
  • Algoritmo de retropropagación.
  • Retropropagación: entrenamiento y convergencia.
  • Aproximación funcional mediante retropropagación.
  • Cuestiones prácticas y de diseño en el aprendizaje por retropropagación.

Redes de funciones de base radial.

  • Separabilidad de patrones e interpolación.
  • Teoría de regularización.
  • Regularización y redes RBF.
  • Diseño y entrenamiento de redes RBF.
  • Propiedades de aproximación de las RBF.

Aprendizaje competitivo y ANN autoorganizativa.

  • Procedimientos generales de agrupamiento.
  • Quantización de vectores de aprendizaje (LVQ).
  • Algoritmos y arquitecturas de aprendizaje competitivo.
  • Mapas autoorganizativos de características.
  • Propiedades de los mapas de características.

Redes neuronales difusas.

  • Sistemas neuro-difusos.
  • Fundamentos de los conjuntos difusos y la lógica difusa.
  • Diseño de sistemas difusos.
  • Diseño de ANN difusas.

Aplicaciones

  • Se discutirán algunos ejemplos de aplicaciones de redes neuronales, sus ventajas y problemas.

DÍA 2 - APRENDIZAJE AUTOMÁTICO

  • El marco de aprendizaje PAC
    • Garantías para conjuntos finitos de hipótesis: caso consistente
    • Garantías para conjuntos finitos de hipótesis: caso inconsistente
    • Generalidades
      • Escenarios determinísticos vs. estocásticos
      • Ruido y error de Bayes
      • Errores de estimación y aproximación
      • Selección de modelos
  • Complejidad de Rademacher y dimensión VC
  • Compensación entre sesgo y varianza
  • Regularización
  • Sobreajuste
  • Validación
  • Máquinas de vectores de soporte (SVM)
  • Kriging (regresión con procesos gaussianos)
  • PCA y Kernel PCA
  • Mapas de autoorganización (SOM)
  • Espacio vectorial inducido por kernels
    • Kernels de Mercer y métricas de similitud inducidas por kernels
  • Aprendizaje por refuerzo

DÍA 3 - APRENDIZAJE PROFUNDO

Este contenido se impartirá en relación con los temas cubiertos en el Día 1 y el Día 2

  • Regresión logística y softmax
  • Autoencoders dispersos
  • Vectorización, PCA y blanqueado
  • Aprendizaje autodidacta
  • Redes profundas
  • Decodificadores lineales
  • Convolución y agrupamiento (pooling)
  • Codificación dispersa
  • Análisis de componentes independientes
  • Análisis de correlación canónica
  • Demuestraciones y aplicaciones

Requerimientos

Buena comprensión de las matemáticas.

Buena comprensión de la estadística básica.

No se requieren conocimientos básicos de programación, aunque se recomiendan.

 21 Horas

Número de participantes


Precio por participante

Testimonios (2)

Próximos cursos

Categorías Relacionadas