Natural Languaje Processing - Redes Neuronales Recurrentes
Natural Languaje Processing - Redes Neuronales Recurrentes

Modelos Secuenciales - CURSO
Horario: Sábados de 14 a 18
Comienzo: sábado 7 de septiembre
LUGAR: Sede Lima (Lima e Hipólito Yrigoyen)
Horas: 24 en 6 clases de cuatro horas

ARANCEL DEL CURSO: $18.000
Para los MOUs y/o socios de la Cooperativa de Trabajo BackPropagation con la cuota social al día: sin cargo

DURANTE EL CURSO DESARROLLAREMOS UN SISTEMA DE ANÁLISIS DE TEXTOS - PRÁCTICA PROFESIONAL SUPERVISADA - NOS PREPARAMOS PARA INGRESAR AL MUNDO LABORAL Y DE NEGOCIOS DEL DEEP LEARNING APUNTANDO A VENDERLE AL MERCADO DE USA.


Redes Neuronales Recurrentes - Modelos secuenciales

* Redes Neuronales Recurrentes
* Natural Language Processing & Word Embeddings
* Modelos Secuenciales y mecanismos de atención

REDES NEURONALES RECURRENTES

Ojetivos del aprendizaje

- Conocer las redes neuronales recurrentes y sus variantes: LDT, GRU y RNN bidireccionales


¿Porqué modelos secuenciales?
Notación
El modelo de las redes neuronales recurrentes
Backpropagation a través del tiempo
Diferentes tipos de RNNs
GRU: Gated Recurrent Unit (GRU)
LSTM: Long Short Term Memory (LSTM)
RNN bidireccionales
RNN profundas

NATURAL LANGUAJE PROCESSING & WORD EMBEDDINGS

Objetivos del aprendizaje

Deep Learning y NLP es una combinación potente. Usando representaciones vectoriales de palabras y embeddings
se pueden entrenar redes neuronales recurrentes con rendimientos sorprendentes en una amplia variedad de industrias.
Ejemplos: análisis de sentimientos, entidades nombradas y traducciones.


INTRODUCCIÓN A WORD EMBEDDINGS

- Representación de palabras
- Usando word embeddings
- Propiedades de word embeddings
- Embedding matrix
- Word Embeddings: Word2vec & GloVe
- Aprendizaje de word embeddings
- Word2Vec
- Negative Sampling
- GloVe word vectors

APLICACIONES USANDO WORD EMBEDDINGS

- Clasificación de sentimiento
- Sacando el bias de word embeddings

MODELOS SECUENCIALES Y MECANISMOS DE ATENCIÓN

Objetivos del aprendizaje

- Los modelos secuenciales pueden potenciarse usando mecanismos de atención.
Este algoritmo ayudará a que nuestro modelo entienda adonde debe enfocar su atención dada una secuencia de inputs.
- Aprenderemos también reconocimiento de habla y manejo de datos de audio.

Varias arquitecturas de secuencia a secuencia

- Modelos básicos
- Eligiendo la oración más probable
- Beam Search
- Refinando Beam Search
- Análisis del error de Beam Search
- Bleu Score
- Conceptos de modelo de atención
- Modelo de atención
- Audio data
- Speech recognition
- Trigger Word Detection

Sobre el docente: Ing. Ariel Alegre.

Ing. Civil de la UBA, especializado en Ing. de Sistemas. Es profesor en disciplinas industriales - PDI - UTN
Fue uno de los creadores de la Tecnicatura Superior en Desarrollo de Software.
Fue el presidente fundador del Centro de Graduados FIUBA y actualmente es el director de cursos de dicha institución.
Se ha especializado recientemente en el campo de la inteligencia artificial.
Cursó la especialización en Deep Learning de Coursera.
Es el presidente de la Cooperativa de Trabajo BackPropagation Limitada.
Email address *
Apellido *
Your answer
Nombres *
Your answer
Celular (Solo números) *
Your answer
¿Es Graduado FIUBA? *
Otra casilla de correo
Your answer
Teléfono Particular
Your answer
Carrera - Facultad - Universidad (En curso SI/NO)
Your answer
Año de Graduación
Your answer
Institución Relacionada
Your answer
Posición que ocupa
Your answer
Comentarios y Sugerencias
Your answer
Submit
Never submit passwords through Google Forms.
This content is neither created nor endorsed by Google. Report Abuse - Terms of Service