Word embeddings desde cero
La Siguiente Gran Revolución: NLP (Procesamiento del Lenguaje Natural)- Word embeddings desde cero - Con todo el código paso a paso

Curso online
Miércoles de 18.30 a 21.30, hora de Buenos Aires, GMT-3
Horas: 12 en cuatro clases de tres horas
Comienzo: miércoles 11 de agosto

Precio Argentina: pago único de $AR 7900
Precio especial abonando antes del 14 de julio: $AR 6900

Precio general: pago único de U$S 200

Todos los que abonen el curso podrán acceder, sin cargo adicional, a los siguientes cursos de Coursera (se entrega certificado):

* Python para todos - 5 cursos - Se entrega certificado oficial de la Universidad de Michigan
* IA para todos - DeepLearning.AI - Andrew Ng
* Neural Networks and Deep Learning - DeepLearning.AI - Andrew Ng
* Sequence Models - DeepLearning.AI - Andrew Ng
* Natural Language Processing with Probabilistic Models - DeepLearning.AI - Andrew Ng

Esta ola de transformación tecnológica es muy grande y nos va a obligar a replantear muchísimos aspectos de nuestro día a día. Esta ola es grande y ya está aquí. Queremos trabajar con texto, pero una red neuronal solo procesa números... ¿Cómo solucionamos esto? Tenemos que vectorizar el texto. El procesamiento de lenguaje natural, NLP, natural language processing, es un campo de las ciencias de la computación, de la inteligencia artificial y de la lingüística que estudia las interacciones entre las computadoras y el lenguaje humano. Word embedding es el nombre de un conjunto de lenguajes de modelado y técnicas de aprendizaje en procesamiento del lenguaje natural (PLN) en dónde las palabras o frases del lenguaje natural son representadas como vectores de números reales. Conceptualmente, implica el encaje matemático de un espacio con una dimensión por palabra a un espacio vectorial continuo con menos dimensiones.

Requisitos (no excluyente): nociones de Python u otro lenguaje de programación y de machine learning.

PLAN DE ESTUDIOS

1 - Introducción a Deep Learning

- Bienvenida
- Introducción a Deep Learning
- ¿Qué es una red neuronal?
- Aprendizaje supervisado con redes neuronales
- ¿Porqué es que ahora Deep Learning está despegando?

2 - Regresión logística con una mentalidad de red neuronal

Construiremos un clasificador de regresión logística para reconocer gatos.
Esta tarea te guiará a través de cómo hacer esto con una mentalidad de red neuronal y también perfeccionará tus intuiciones sobre el aprendizaje profundo.

3 - Aprendiendo Word Embeddings: Word2vec & GloVe

- Modelos secuenciales
- Redes Neuronales Recurrentes
- Porqué modelos secuenciales
- Notación
- El modelo de RNN
- Diferentes tipos de RNNs
- Language model and sequence generation
- Sampling novel sequences
- Bidirectional RNN
- Deep RNNs
- Introducción a Word Embeddings
- Word Representation
- Using word embeddings
- Properties of word embeddings
- Embedding matrix
- Learning word embeddings
- Word2Vec
- Negative Sampling
- GloVe word vectors

Aplicaciones usando Word Embeddings

- Sentiment Classification
- Debiasing word embeddings

4 -Natural Language Processing with Probabilistic Models
Word embeddings with neural networks

Learn about how word embeddings carry the semantic meaning of words, which makes them much more powerful for NLP tasks, then build your own Continuous bag-of-words model to create word embeddings from Shakespeare text.

Objetivos de aprendizaje

Gradient descent
One-hot vectors
Neural networks
Word embeddings
Continuous bag-of-words model
Text pre-processing
Tokenization
Data generators

Word Embeddings
Basic Word Representations
How to Create Word Embeddings
Word Embedding Methods
Continuous Bag-of-Words
Cleaning and Tokenization
Sliding Window of Words in Python
Transforming Words into Vectors
Notebook - Data Preparation
Architecture of the CBOW Model
Architecture of the CBOW Model: Dimensions
Architecture of the CBOW Model: Activation Functions
Notebook - Intro to CBOW model
Training a CBOW Model: Cost Function
Training a CBOW Model: Forward Propagation
Training a CBOW Model: Backpropagation and Gradient Descent
Notebook - Training the CBOW model
Extracting Word Embedding Vectors
Notebook - Word Embeddings
notebook: Word embeddings step by step
Evaluating Word Embeddings: Intrinsic Evaluation
Evaluating Word Embeddings: Extrinsic Evaluation
Conclusion

5 - Escribiremos nuestro propio modelo Word2Vec que usa redes neuronales para computar word embeddings usando el modelo bag-of-words.
Email *
Apellido *
Nombres *
Celular (Solo números) *
¿Es Graduado FIUBA? *
Localidad de residencia *
¿Te interesa participar en la cooperativa de trabajo?
Clear selection
Otra casilla de correo
Teléfono Particular
Carrera - Facultad - Universidad (En curso SI/NO)
Año de Graduación
Institución Relacionada
Posición que ocupa
Comentarios y Sugerencias
Submit
Never submit passwords through Google Forms.
This content is neither created nor endorsed by Google. Report Abuse - Terms of Service - Privacy Policy