Redes Neuronales - CURSO AVANZADO
Curso: Improving Neural Networks
Horas: 12 horas en cuatro clases de tres horas
Horario: miércoles de 18.30 a 21.30
Comienzo: miércoles 14 de agosto
Lugar: sede Lima - Lima e Hipólito Yrigoyen

HIPÓLITO YRIGOYEN 1144 - PRIMER PISO - OFICINA 3

ARANCEL: $5400
Para socios BackPropagation con la cuota social al día: SIN CARGO

Curso dirigido a: desarrolladores de software con intenciones de formarse como Ingenieros de Machine Learning
Requisitos: tener una base mínima del funcionamiento de las redes neuronales

REDES NEURONALES - CURSO AVANZADO

* Aspectos prácticos de Deep Learning
* Algoritmos de Optimización
* Ajuste de hiperparámetros, normalización batch y frameworks

Aspectos prácticos de Deep Learning

Objetivos de aprendizaje

- Comprender que con diferentes tipos de inicializaciones se obtienen resultados diferentes
- Reconocer la importancia de la inicialización en redes neuronales complejas
- Reconocer la diferencia entre los conjuntos train/dev/test
- Diagnosticar los tópicos relacionados con varianza y desvío en nuestro modelo
- Aprender como y cuando usar métodos de regularización como dropout y L2
- Entender tópicos experimentales de Deep Learning como Vanishing Gradient o Exploding Gradient y aprender como lidiar
con ellos
- Usar gradient checking para verificar si nuestra implementación de BackPropagation es correcta

Temas

- Configuración de nuestra aplicación de Machine Learning
- Train / Dev / Test sets
- Bias / Variance
- Recetas básicas de Machine Learning

REGULARIZACIÓN

- Regularizando nuestra red neuronal
- ¿Porqué la regularización reduce el sobre ajuste?
- Regularización Dropout
- Entendiendo Dropout
- Otros métodos de regularización

CONFIGURANDO NUESTRO PROBLEMA DE OPTIMIZACIÓN

- Normalización de inputs
- Vanishing / Exploding gradients
- Inicialización de pesos para redes profundas
- Aproximación numérica de gradientes - Gradient checking


Algoritmos de Optimización

Objetivos de aprendizaje

- Diferentes métodos de optimización: (Stochastic) Gradient Descent, Momentum, RMSProp, Adam
- Uso de minibatches random para acelerar la convergencia y mejorar la optimización
- Conocer los beneficios del decremento del learning rate y aplicarlos en nuestra optimización

Temas

Mini-batch gradient descent
Entendiendo mini-batch gradient descent
Exponentially weighted averages
Entendiendo exponentially weighted averages
Corrección del desvío en exponentially weighted averages
Descenso del gradiente con momentum
RMSprop
El algoritmo de optimización Adam
Decremento del learning rate
El problema de los óptimos locales

Ajuste de hiperparámetros, normalización batch y frameworks

Objetivos de aprendizaje

- Cómo transformarse en un MOU en el proceso de ajuste de hiperparámetros
- Tuneo de hiperparámetros

Temas

- Proceso de tuneo
- Tuneo en la práctica: Pandas vs. Caviar
- Normalización batch
- Normalización de activaciones en una red neuronal
- Encajando la Normalización batch en una red neuronal
- ¿Porque funciona Batch Norm?
- Batch Norm en el momento de testear
- Clasificación con múltiples clases
- La función Softmax
- Entrenando un clasificador Softmax

INTRODUCCIÓN A LOS FRAMEWORKS DE PROGRAMACIÓN DE DEEP LEARNING

- Frameworks para Deep Learning

TENSORFLOW


Sobre el docente: Ing. Ariel Alegre.

Ing. Civil de la UBA, especializado en Ing. de Sistemas. Es profesor en disciplinas industriales - PDI - UTN
Fue uno de los creadores de la Tecnicatura Superior en Desarrollo de Software.
Fue el presidente fundador del Centro de Graduados FIUBA y actualmente es el director de cursos de dicha institución.
Se ha especializado recientemente en el campo de la inteligencia artificial.
Cursó la especialización en Deep Learning de Coursera.
Es el presidente de la Cooperativa de Trabajo BackPropagation Limitada.

Email address *
Apellido *
Your answer
Nombres *
Your answer
Celular (Solo números) *
Your answer
¿Es Graduado FIUBA? *
Otra casilla de correo
Your answer
Teléfono Particular
Your answer
Carrera - Facultad - Universidad (En curso SI/NO)
Your answer
Año de Graduación
Your answer
Institución Relacionada
Your answer
Posición que ocupa
Your answer
Comentarios y Sugerencias
Your answer
Submit
Never submit passwords through Google Forms.
This content is neither created nor endorsed by Google. Report Abuse - Terms of Service