Objetivos
O que é machine learning? | Funções
O que é machine learning? | Funções
Qual o objetivo? | Aproximar funções
Tipos de Aprendizado
Supervised
Learning
Unsupervised Learning
Reinforcement
Learning
O que são Redes Neurais? | Exemplo
Probabilidade de sair de casa no final de semana para ir em algum local.
O que são Redes Neurais? | Neurônio
f(x)
Temperatura (x1)
Possibilidade
de Chuva (x2)
Distância de
transporte público (x3)
Probabilidade de sair (y)
O que são Redes Neurais? | Neurônio
f(x)
Temperatura (x1)
Possibilidade
de Chuva (x2)
Distância de
transporte publico (x3)
Probabilidade de sair (y)
w1
w2
w3
O que são Redes Neurais? | Aprendizado
f(x)
Temperatura (x1)
Possibilidade
de Chuva (x2)
Distância de
transporte publico (x3)
Probabilidade de sair (y)
w1
w2
w3
O que são Redes Neurais? | Aprendizado
f(x)
23oC
20%
100m
w1
w2
w3
53%
O que são Redes Neurais? | Aprendizado
f(x)
23oC
20%
100m
w1
w2
w3
53%
96%
O que são Redes Neurais? | Aprendizado
f(x)
23oC
20%
100m
w1
w2
w3
Erro(96%, 53%)
Atualização de pesos baseado no erro.
O que são Redes Neurais? | Aprendizado
f(x)
23oC
20%
100m
w1
w2
w3
Erro(96%, 79%)
Atualização de pesos baseado no erro.
O que são Redes Neurais? | Aprendizado
f(x)
23oC
20%
100m
w1
w2
w3
Erro(96%, 94%)
Atualização de pesos baseado no erro.
O que são Redes Neurais? | Aprendizado
f(x)
23oC
20%
100m
w1
w2
w3
Erro(96%, 96%) = 0
O que são Redes Neurais? | Aprendizado
f(x)
Temperatura (x1)
Possibilidade
de Chuva (x2)
Distância de
transporte publico (x3)
Probabilidade de sair (y)
w1
w2
w3
Ajuste de pesos
Aproxima a função que descreve o comportamento a partir do ajuste de pesos da rede.
Como captar mais detalhes? | Adicionando Neurônios
f2(x)
Temperatura (x1)
Possibilidade
de Chuva (x2)
Distância de
transporte publico (x3)
f3(x)
f1(x)
f4(x)
Como captar mais detalhes? | Adicionando layers
f2(x)
Temperatura (x1)
Possibilidade
de Chuva (x2)
Distância de
transporte publico (x3)
f3(x)
f1(x)
f5(x)
f6(x)
f4(x)
f8(x)
f9(x)
f7(x)
Como captar mais detalhes? | Adicionando layers
f2(x)
Temperatura (x1)
Possibilidade
de Chuva (x2)
Distância de
transporte publico (x3)
f3(x)
f1(x)
f5(x)
f6(x)
f4(x)
f8(x)
f9(x)
f7(x)
Wi
Deep Learning | Layers
Tamanho da rede | Quanto mais neurônios e layers melhor?
O que é um LM? | Modelagem estatística da linguagem
Hoje o [redacted] foi oficialmente <??>
max(P(próximo termo | termos anteriores)) = "lançado"
Qual o elemento químico com número atômico 6?
max(P(resposta | contexto)) = "carbono"
Qual o primeiro LM? | Claude Shannon (1948)
Qual o primeiro LM? | Claude Shannon (1948)
Autocomplete | Language Model Comum
Modelagem Estatística | Como construímos esse modelo?
Hoje o [redacted] foi oficialmente lançado pro mundo.
Fizemos o lançamento do [redacted] hoje.
Universo
de
Sentenças
Cadeia de Markov | Language Model Comum
isv
academy
oficialmente
hoje
lançado
pro
mundo
o
fizemos
foi
.
do
lançamento
1.0
0.5
0.5
1.0
0.5
0.5
1.0
1.0
1.0
0.5
0.5
1.0
1.0
1.0
1.0
Matriz de Probabilidades | Language Model Comum
| academy | fizemos | hoje | isv | o |
academy | 0 | 0 | 0.5 | 0 | 0 |
fizemos | 0 | 0 | 0 | 0 | 1.0 |
hoje | 0 | 0 | 0 | 0 | 0.5 |
isv | 1.0 | 0 | 0 | 0 | 0 |
o | 0 | 0 | 0 | 0.5 | 0 |
Problema | Apenas utilizando o termo anterior
| academy | fizemos | hoje | [redacted] | o |
academy | 0 | 0 | 0.5 | 0 | 0 |
fizemos | 0 | 0 | 0 | 0 | 1.0 |
hoje | 0 | 0 | 0 | 0 | 0.5 |
[redacted] | 1.0 | 0 | 0 | 0 | 0 |
o | 0 | 0 | 0 | 0.5 | 0 |
Contexto | Como gerar frases com sentido?
Hoje o [redacted] foi oficialmente <??>
Hoje o [redacted] foi oficialmente <??>
No modelo atual:
Hoje o [redacted] foi oficialmente <??>
No modelo ideal:
Matriz de Probabilidades | Contexto
Número de palavras na língua portuguesa: 370 000
.
.
.
Mais do que 5 palavras:
Atenção | Attention is All You Need (2017)
Atenção | Foco em termos específicos do input
Treinamento | Como treinar o modelo?
Hoje o [redacted] foi <??> lançado pro mundo.
Fizemos o <??> do [redacted] hoje.
Treinamento | Como treinar o modelo?
Hoje o [redacted] foi <??> lançado pro mundo.
Fizemos o <??> do [redacted] hoje.
Hoje o [redacted] foi jorge lançado pro mundo.
Fizemos o lançamento do [redacted] hoje.
Treinamento | Como treinar o modelo?
Hoje o [redacted] foi <??> lançado pro mundo.
Fizemos o <??> do [redacted] hoje.
Hoje o [redacted] foi jorge lançado pro mundo.
Fizemos o lançamento do [redacted] hoje.
Treinamento | Como treinar o modelo?
Hoje o [redacted] foi <??> lançado pro mundo.
Fizemos o <??> do [redacted] hoje.
Hoje o [redacted] foi jorge lançado pro mundo.
Fizemos o lançamento do [redacted] hoje.
Modelo
Atualização
do pesos
Treinamento | GPT-3
Embedding
0.35
0.24
.
.
.
0.87
0.18
0.43
.
.
.
0.07
"Academy"
Rede Neural com
96 Layers
Treinamento | Atualização de pesos
Limite de Input | GPT-3
Tokenização | Tokenização por palavras
Tokens | Sub-word (GPT)
Hoje o [redacted] foi oficialmente lançado pro mundo.
principlamente
principalmente
Tokens | GPT
Hoje o [redacted] foi oficialmente lançado pro mundo.
Tokens | GPT
Texto | Tokens / palavra |
Wikipedia (Filosofia - Inglês) | 1.46 |
Wikipedia (Filosofia - Italiano) | 2.48 |
Wikipedia (Filosofia - Polonês) | 8.67 |
Wikipedia (Filosofia - Chinês) | 13.13 |
Como o modelo evolui? | Ajuste de pesos
tyntd-iafhatawiaoihrdemot lytdws e ,tfti, astai f ogoh eoase rrranbyne 'nhthnee e
plia tklrgd t o idoe ns,smtt h ne etie h,hregtrs nigtike,aoaenns lng
"Tmont thithey" fomesscerliund
Keushey. Thom here
sheulke, anmerenith ol sivh I lalterthend Bleipile shuwy fil on aseterlome
coaniogennc Phe lism thond hon at. MeiDimorotion in ther thize."
100 iterações
300 iterações
Como o modelo evolui? | Ajuste de pesos
we counter. He stutn co des. His stanted out one ofler that concossions and was
to gearang reay Jotrets and with fre colt otf paitt thin wall. Which das stimn
Aftair fall unsuch that the hall for Prince Velzonski's that me of
her hearly, and behs to so arwage fiving were to it beloge, pavu say falling misfort
how, and Gogition is so overelical and ofter.
500 iterações
700 iterações
Como o modelo evolui? | Ajuste de pesos
"Kite vouch!" he repeated by her
door. "But I would be done and quarts, feeling, then, son is people...."
"Why do what that day," replied Natasha, and wishing to himself the fact the
princess, Princess Mary was easier, fed in had oftened him.
Pierre aking his soul came to the packs and drove up his father-in-law women.
1200 iterações
2000 iterações
Reinforcement Learning | Refinamento do modelo
LLM