Natural language processing, word embeddings y transformers
Natural language processing, word embeddings y transformers
La tecnología detrás de ChatGPT


Curso online con docentes en vivo
Las clases se graban y quedan disponibles
Lunes y jueves de 18.30 a 21.30, hora de Buenos Aires, Argentina GMT-3
Son 8 clases de tres horas
Comienza: Lunes 2 de septiembre

Organiza: Centro de Graduados de Ingeniería de la Universidad de Buenos Aires

ARANCEL: U$S 199

Incluye:
Acceso a los 12.000 cursos de Coursera hasta el 31 de diciembre de 2025

Formas de pago: Paypal, USDT o Hotmart
Para Argentina: Mercado Pago o CBU

Te familiarizarás con los modelos de secuencia y sus emocionantes aplicaciones como el reconocimiento de voz, la síntesis de música, los chatbots, la traducción automática, el procesamiento del lenguaje natural (NLP) y más.

Al final, serás capaz de construir y entrenar Redes Neuronales Recurrentes (RNNs) y variantes comúnmente usadas como GRUs y LSTMs; aplicar RNNs al Modelado de Lenguaje a Nivel de Caracteres; adquirir experiencia con el procesamiento del lenguaje natural y Embeddings de Palabras; y usar tokenizadores y modelos transformadores de HuggingFace para resolver diferentes tareas de NLP como NER y Question Answering.

MÓDULO 1 - Redes Neuronales Recurrentes

Descubre las redes neuronales recurrentes, un tipo de modelo que funciona extremadamente bien con datos temporales, y varias de sus variantes, incluyendo LSTMs, GRUs y RNNs bidireccionales.

¿Por qué Modelos de Secuencia?
Notación
Modelo de Red Neuronal Recurrente
Retropropagación a través del Tiempo
Diferentes Tipos de RNNs
Modelo de Lenguaje y Generación de Secuencias
Muestreo de Secuencias Nuevas
Gradientes Desvanecientes con RNNs
Unidad Recurrente Gated (GRU)
Memoria de Corto y Largo Plazo (LSTM)
RNN Bidireccional
RNNs Profundas

MÓDULO 2 - Natural Language Processing y Word Embeddings

El procesamiento del lenguaje natural con deep learning es una combinación poderosa. Usando representaciones vectoriales de palabras y capas de embedding, entrena redes neuronales recurrentes con un rendimiento sobresaliente en una amplia variedad de aplicaciones, incluyendo análisis de sentimientos, reconocimiento de entidades nombradas y traducción automática neuronal.
Representación de Palabras
Uso de Embeddings de Palabras
Propiedades de los Embeddings de Palabras
Matriz de Embeddings
Aprendizaje de Embeddings de Palabras
Word2Vec
Muestreo Negativo
Vectores de Palabras GloVe
Clasificación de Sentimientos
Eliminación de Sesgos en Embeddings de Palabras

MÓDULO 3 - Modelos secuenciales y mecanismos de atención

Aumenta tus modelos de secuencia utilizando un mecanismo de atención, un algoritmo que ayuda a tu modelo a decidir dónde enfocar su atención dada una secuencia de entradas. Luego, explora el reconocimiento de voz y cómo manejar los datos de audio.

Modelos Básicos
Elección de la Frase Más Probable
Búsqueda de Haz
Mejoras en la Búsqueda de Haz
Análisis de Errores en la Búsqueda de Haz
Puntuación BLEU
Intuición del Modelo de Atención
Modelo de Atención
Reconocimiento de Voz
Detección de Palabras de Activación

MÓDULO 4 - Transformer network

Objetivos de Aprendizaje

Crear codificaciones posicionales para capturar relaciones secuenciales en los datos
Calcular la autoatención con producto escalar puntual escalado usando embeddings de palabras
Implementar atención multi-cabezal enmascarada
Construir y entrenar un modelo Transformer
Ajustar un modelo Transformer preentrenado para el Reconocimiento de Entidades Nombradas
Ajustar un modelo Transformer preentrenado para la Respuesta a Preguntas
Implementar un modelo de QA en TensorFlow y PyTorch
Ajustar un modelo Transformer preentrenado a un conjunto de datos personalizado
Realizar Respuesta a Preguntas Extractivas

Transformer Network Intuition
Self-Attention
Multi-Head Attention
Transformer Network
Conclusion and Thank You!
Sign in to Google to save your progress. Learn more
Email *
Apellido *
Nombres *
Celular (Solo números) *
Localidad de residencia *
País de residencia *
Comentarios y Sugerencias
Submit
Clear form
Never submit passwords through Google Forms.
This form was created inside of Centro de Graduados de la Facultad de Ingenieria. Report Abuse