ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10....
Transcript of ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10....
![Page 1: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/1.jpg)
lnteligência Artificial
1
Introdução a Redes Neurais
Artificiais
![Page 2: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/2.jpg)
� Descrever as características básicas das Redes Neurais Artificiais (RNAs).
� Descrever o funcionamento de uma RNA.
Descrever algumas das principais arquiteturas
Objetivos
Inteligência Artificial CTC-15
� Descrever algumas das principais arquiteturas existentes para RNAs.
� Exemplificar o uso de RNAs em Reconhecimento de Padrões e Controle.
![Page 3: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/3.jpg)
Motivação Biológica� Idéia central:
� utilizar neurônios biológicos como modelos para neurônios artificiais.
� Neurônio Biológico:� Elemento fundamental do
sistema nervoso.
Inteligência Artificial CTC-15
sistema nervoso.� Diversos tipos.
� Cérebro humano: relativamente lento, muito paralelismo (1011
processadores de 1 KHz)
![Page 4: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/4.jpg)
Motivação de Engenharia� IA tradicional (simbólica):
� Adequada para problemas expressos em uma lógica apropriada (ad hoc).
� Pouca ênfase na comunicação entre o agente e o mundo (problema de grounding).
� Pouca ênfase em aprendizagem ou adaptação.Ênfase em processamento sequencial.
Inteligência Artificial CTC-15
� Ênfase em processamento sequencial.
� Redes Neurais Artificiais:� Adequada para tarefas “simples e diretas” como andar,
falar, ouvir, ver → ênfase em processos que envolvem interação entre agente e mundo.
� Ênfase em aprendizagem e adaptação.� Ênfase em processamento paralelo.
![Page 5: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/5.jpg)
Características das Redes Neurais Naturais
� Grande número de elementos de processamento. � (No. de neurônios 1011, estudos recentes falam em aprox. 86bilhões de
neurônios)
� Grande número de conexões ponderadas entre os elementos. � cada neurônio se conecta com outros 104.
� Controle altamente distribuído e paralelo: é mais robusta a falhas
Inteligência Artificial CTC-15
� Controle altamente distribuído e paralelo: é mais robusta a falhas de neurônios individuais.
� Relação entrada-saída em cada neurônio é não-linear.� Aprendizagem automática!
� As RNAs são uma aproximação grosseira de um “cérebro”.
![Page 6: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/6.jpg)
Um pouco de História
1950s & 1960s: Infância1943 - Neurônio de McCulloch-Pitts1959 - Perceptrons ( Rosenblatt )1960 - Adaline ( Widrow & Hoff )
1970s: Os anos negros... 1969 - Minsky and Papert ( MIT ) publicam um livro que põe em dúvida
a capacidade de aprendizado dos perceptrons.1972 - Redes auto-organizáveis ( Kohonen )
Inteligência Artificial CTC-15
1972 - Redes auto-organizáveis ( Kohonen )1976 - Teoria de Ressonância Adaptativa ( Grossberg & Carpenter )
1980s: Entusiasmo renovado1986 - Surgimento do algoritmo backpropagation (Werbos)1987 - Redes de Hopfield ( Hopfield & Tank )…
1990s-Atual: Amadurecimento- Aplicações no mundo real- Teoria computacional da aprendizagem: support vector machines(Vapnik)
![Page 7: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/7.jpg)
Aplicações
Identificação de alvos militares:B-52, Boeing 747 e Space Shuttle
Exploração de petróleo:
Autentificação de usuário.
Inteligência Artificial CTC-15
Controle de Navegação Autônoma de Veículos:ALVINN at CMU
Exploração de petróleo:Determinação e Litologia
Reconhecimentode Faces
Predição no MercadoFinanceiro
![Page 8: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/8.jpg)
Referências Bibliográficas
� A Bíblia:� Simon Haykin. Neural Networks: A Comprehensive Foundation.
� Livros de IA com bom capítulo de RNAs:� Russel e Norvig. Artificial Intelligence: A Modern Approach.
� Livro em Português:� Braga, Ludermir e Carvalho. Redes Neurais Artificiais. LTC.
Inteligência Artificial CTC-15
Braga, Ludermir e Carvalho. Redes Neurais Artificiais. LTC.
![Page 9: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/9.jpg)
Estrutura simplificada de neurônio
biológico� Um neurônio biológico é
composto de 4 partes principais:� Corpo.� Axônio: envia impulsos
elétricos.� Dendritos: recebem
informação (impulsos elétricos) provenientes de AxônioCorpo
Dendritos
Inteligência Artificial CTC-15
elétricos) provenientes de outros neurônios).
� Sinapse: ponto de contato entre neurônios.
Ação sináptica:
Axônio
Sinapses
Corpo
Impulso elétrico (do axônio)
Processo pré-sináptico
Processo pós-sináptico
Impulso elétrico (para dendritos)
Sinal elétrico
Sinal elétrico
Sinal químico
![Page 10: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/10.jpg)
Funcionamento de um Neurônio Biológico
� Neurônios podem estar em 2 estados:� Ativo ou excitado: envia sinais para outros neurônios por meio do
axônio e sinapses.� Inativo ou inibido: não envia sinais.
� Sinapses podem ser de 2 tipos:� Excitatórias (excitam o neurônio receptor).� Inibitórias (inibem o neurônio receptor).
� Quando o efeito cumulativo
Inteligência Artificial CTC-15
� Quando o efeito cumulativo das várias sinapses que chegam a um neurônio excedem um valor limite, o neurônio dispara (fica ativo por um período) e envia um sinal para outros neurônios.
![Page 11: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/11.jpg)
Modelo de Neurônio Artificial� Um Neurônio Artificial é composto por:
� Xi : o conjunto de entradas.
� Wji : o conjunto de pesos (um para cada sinapse).
� Nível de Ativação: soma ponderada do vetor de entradas.
� Função de Ativação: função não-linear aplicada sobre o nível de ativação para produzir o sinal de saída. Se a saída for diferente de zero, ela é transmitida para outros neurônios.
Inteligência Artificial CTC-15
ela é transmitida para outros neurônios.
ΣΣΣΣ f
x1
x3
x2
w1w2
w3
saída
w =Vetor de pesos.x = Vetor de entradas.Σ = Soma ponderada das entradasf = função de ativação
saída = f(wt.x) = f [(w1.x1)+(w2.x2)+(w3.x3)]
![Page 12: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/12.jpg)
Tipos de Função de Ativação
Out
θ
1
0 net
OutOut = 1 if net > θ
= 0 if net < θ
Função Limiar
0
1
net
Out 1Out = --------------------
1 + exp (-λ.net)
Função Logística
Função Sigmoide
Inteligência Artificial CTC-15
Out
0
1
net
−1
θ
Out = 1 if net > θ= -1 if net < θ
Função Logística
Out = tanh(λ.net)
Função Tangente Hiperbólica
0
1
net
Out
−1
![Page 13: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/13.jpg)
Exemplos de neurônio
� x1,x2 ∈ {0,1}� w1 = w2 = 1� f(wt.x) = 1 se nível de ativ. ≥ 2,
0 caso contrário.
ΣΣΣΣ
x1
x2
1
1
f
Inteligência Artificial CTC-15
� x1,x2 ∈ {0,1}� w1 = w2 = 0,5� f(wt.x) = 1 se nível de ativ. ≥ 0,5,
0 caso contrário.
ΣΣΣΣ
x1
x2
0,5
0,5
f
![Page 14: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/14.jpg)
O que é uma RNA?
� É um sistema de processamento de informações desenvolvido a partir de modelos matemáticos simplificados dos neurônios biológicos.
� É constituida por um grande número de unidades de processamento (chamadas neurônios artificiais)
Inteligência Artificial CTC-15
de processamento (chamadas neurônios artificiais) interconectadas.
� Reconhecem, classificam, convertem e aprendem padrões.
![Page 15: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/15.jpg)
Processamento Neural
� O processo de calcular a saída de uma rede neural dada uma entrada é chamado recall.
� O objetivo do recall é recuperar a informação armazenada na rede.
� Exemplos de processamento realizados por uma
Inteligência Artificial CTC-15
� Exemplos de processamento realizados por uma rede neural: � Associação de padrões
� Classificação de padrões.� Reconhecimento de padrões.
� Generalização.
![Page 16: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/16.jpg)
Padrões, atributos e classes
� Um Padrão é um modelo de descrição quantitativa de um objeto.
� Cada padrão é definido por um conjunto de valores de atributos.
� Um atributo é uma característica mensurável de um padrão.
� Uma Classe contem um conjunto de padrões com
Inteligência Artificial CTC-15
� Uma Classe contem um conjunto de padrões com propriedades comuns.
001011101011000000101110101011111111
![Page 17: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/17.jpg)
Tipos de Padrões
� Padrões estáticos ou espaciais:� não envolvem o tempo.
� Padrões dinâmicos ou temporais:� envolve o tempo.
Inteligência Artificial CTC-15
t
f(t)
t1 t2 t3 tn
f(t1)
f(tn)
Time-varying waveformsingle cell
6 x 5grid
object
1 1 1 0 0
![Page 18: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/18.jpg)
Associação: Autoassociação e
Heteroassociação
� Autoassociação� Um conjunto de padrões de
referência é armazenado na rede.� Um padrão similar é apresentado e
a rede associa esta entrada com o padrão armazenado mais próximo.
� O padrão de entrada pode possuir ruído ou distorções em relação ao
RNA
Entrada Saída
Inteligência Artificial CTC-15
� O padrão de entrada pode possuir ruído ou distorções em relação ao seu modelo armazenado na rede.
� Corresponde a um processo de reconhecimento de padrões.
![Page 19: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/19.jpg)
Heteroassociação
� Um conjunto de pares de padrões é armazenado na rede.
� Um padrão é apresentado e a rede associa esta entrada com
RNA
Entrada Saída
Inteligência Artificial CTC-15
rede associa esta entrada com o seu par.
� Memória associativa: corresponde a um processo de associação de padrões.
![Page 20: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/20.jpg)
Classificação
� Um conjunto de padrões é particionado em classes.
� Cada classe é definida por uma série de valores de atributos.
� Em resposta a uma entrada, a rede retorna informação sobre a
RNA
Entrada Classe1
2
3
0% 1
100% 2
0% 3RNA
Inteligência Artificial CTC-15
retorna informação sobre a pertinência do padrão apresentado a uma classe.
� A rede é treinada para classificar.
0% 3RNA
Entrada Classe1
2
3
40% 1
60% 2
0% 3
![Page 21: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/21.jpg)
Exemplo de Memória Associativa
� Memória associativa: associa o conceito A ao conceito B. (dado A, “lembra-se” de B)
� Pares de associação:Bach → Música
Inteligência Artificial CTC-15
Bach Música
Borges → Literatura
Picasso→ Pintura
Entrada Saída
![Page 22: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/22.jpg)
Exemplo de RNA: Memória Associativa
� 5 neurônios de entrada e 4 de saída.
� Neurônio binário: ativado = 1, inibido = -1� Função de ativação:
Σ > 0 → saída = 1, Σ < 0 → saída = -1, Σ = 0 → saída inalterada
A1
A2F1
Inteligência Artificial CTC-15
A2
A3
A4
A5
F2
F3
F4
Entradas:Bach = [1, 1, 1, -1, -1]Borges = [1, -1, 1, -1, 1]Picasso = [1, 1, -1, -1, 1]
Saídas:música = [1, 1, -1, -1]literatura = [1, -1, 1, -1]pintura = [1, -1, -1, 1]
![Page 23: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/23.jpg)
� Tabela de sinapses:
A1 A2 A3 A4 A5
F1 3 1 1 -3 1
F2 -1 1 1 1 -3
F3 -1 -3 1 1 1
F4 -1 1 -3 1 1
Exemplo de RNA: Memória Associativa
Inteligência Artificial CTC-15
F4 -1 1 -3 1 1
� Operação da RNA:
×
−−−−
−−−
=
×
=
=
5
4
3
2
1
5
4
3
2
1
4544434241
3534333231
2524232221
1514131211
4
3
2
1
4
3
2
1
11311
11131
31111
13113
A
A
A
A
A
f
A
A
A
A
A
wwwww
wwwww
wwwww
wwwww
f
S
S
S
S
f
F
F
F
F
![Page 24: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/24.jpg)
Operação� Apresentando Bach:
−−
=
−−
=
−−
×
−−−−
−−−
=
=
1
1
1
1
5
5
3
7
1
1
1
1
1
11311
11131
31111
13113
4
3
2
1
4
3
2
1
f
S
S
S
S
f
F
F
F
F
Exemplo de RNA: Memória Associativa
Inteligência Artificial CTC-15
� Apresentando Bach “ruidoso”:
−−
=
−−
=
−−
×
−−−−
−−−
=
=
1
1
1
1
4.5
5
9.2
4.7
1
2.1
1.1
1
9.0
11311
11131
31111
13113
4
3
2
1
4
3
2
1
f
S
S
S
S
f
F
F
F
F
CAPACIDADE DE GENERALIZAÇÃO !
![Page 25: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/25.jpg)
Projeto de uma RNA� O projeto de uma RNA envolve a determinação dos
seguintes parâmetros:
� Neurônios: função de ativação.� Conexões e disposição dos neurônios: topologia
(arquitetura da rede).
Inteligência Artificial CTC-15
(arquitetura da rede).� Pesos sinápticos: valores ou (no caso de pesos aprendidos),
o algoritmo a ser utilizado e seus parâmetros particulares.� Recall: procedimento a ser utilizado – como a rede calcula a
saída para uma dada entrada?
Infelizmente, não existe uma “receita” única...
![Page 26: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/26.jpg)
Arquiteturas das RNAs
� Os neurônios de uma RNAs devem estar conectados entre si.
� Os neurônios são dispostos em camadas (layers):� neurônios de uma mesma camada normalmente se
comportam da mesma maneira.
� A disposição dos neurônios nas camadas e o padrão
Inteligência Artificial CTC-15
� A disposição dos neurônios nas camadas e o padrão de conexão entre estas define a arquitetura da RNA:� Redes sem realimentação (feedforward)� Redes com realimentação ou recorrentes (recurrent)
![Page 27: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/27.jpg)
Sem realimentação:– Neurônios agrupados em camadas.– Sinal percorre a rede em uma única
direção, da entrada para a saída.– Neurônios da mesma camada não são
conectados.– Representante típico: Perceptron.
Arquiteturas de RNAs
Recorrentes:
Inteligência Artificial CTC-15
Recorrentes:– Saída de alguns neurônios alimentam
neurônios da mesma camada (inclusive o próprio) ou de camadas anteriores.
– Sinal percorre a rede em duas direções.– Memória dinâmica: capacidade de
representar estados em sistemas dinâmicos.
– Representante típico: rede de Hopfield
![Page 28: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/28.jpg)
Aprendizado (ou treinamento)� O aprendizado consiste na modificação dos pesos das
conexões entre os neurônios.� Os pesos iniciais (sinapses) são modificados de forma
iterativa, por um algoritmo que segue um dos seguintes paradigmas de aprendizado:� Aprendizado Supervisionado: é apresentado um conjunto de treino,
consistindo de entradas e correspondentes saídas desejadas.
Inteligência Artificial CTC-15
consistindo de entradas e correspondentes saídas desejadas.� Aprendizado por Reforço: para cada entrada apresentada, é
produzida uma indicação (reforço) sobre a adequação das saídas correspondentes produzidas pela rede.
� Aprendizado Não-supervisionado:A rede atualiza seus pesos sem o uso de pares entrada-saídas desejadas e sem indicações sobre a adequação das saídas produzidas.
![Page 29: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/29.jpg)
Aprendizado Supervisionado– Define-se um conjunto de treinamento (in,out) de entradas e
correspondentes saídas desejadas.– A distância entre a resposta atual e a desejada serve como uma
medida de erro que é usada para corrigir os parâmetros da rede.– Pesos da rede são ajustados para minimizar este erro.
W
Inteligência Artificial CTC-15
Medidade Erro
Saída
Entrada Rede Neural
Gerador de Distância
“Professor”: produz a saída desejada
![Page 30: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/30.jpg)
Aprendizado por Reforço– Para cada entrada apresentada, a rede calcula a saída e um “professor”
indica a sua conveniência ou não.– Não há medida explícita da distância entre resposta atual e a “desejada”.– Pesos da rede são ajustados para maximizar os reforços recebidos.– Frequentemente, a entrada é o estado de um sistema dinâmico, a saída é
a ação produzida para o estado, e o “professor” é o próprio sistema que se deseja controlar: reforço positivo = ação “boa”, reforço negativo (punição) = ação “ruim”
Inteligência Artificial CTC-15
(punição) = ação “ruim”
“Professor”: produz o reforço
Saída
Entrada Rede Neural
W
Reforço
![Page 31: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/31.jpg)
Aprendizado Não-Supervisionado
– Não existe comparação entre a saída obtida pela rede e a saída “desejada”.
– Aprendizado baseado na observação das respostas obtidas ou da saída desejada (e não dos dois simultaneamente).
– A Rede descobre por si mesmo propriedades e regularidades do sistema.
– Uso de métodos estatísticos. Envolve complexidade muito maior.
Inteligência Artificial CTC-15
ou
OutIn Rede Neural
W
OutIn Rede Neural
W
![Page 32: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/32.jpg)
Exemplo: Aprendizado em Memória Associativa
� Regra de Aprendizado de Hebb:1. Tabela W de pesos wji
inicialmente zerada.2. Se Fj e Ai estiverem
excitados, soma 1 em w .
A1
A2F1
"The general idea is an old one, that any two cells or systems of cells that are repeatedly active at the same time will tend to become 'associated', so that activity in one facilitates activity in the other.” Regra de Hebb
Inteligência Artificial CTC-15
j i excitados, soma 1 em wji.
3. Se Fj e Ai estiverem inibidos, soma 1 em wji.
4. Se Fj estiver inibido e Ai excitado, subtrai 1 de wji.
5. Se Fj estiver excitado e Ai inibido, subtrai 1 de wji.
� Pares de treinamento são apresentados um a um, uma única vez.
A3
A4
A5
F2
F3
F4
![Page 33: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/33.jpg)
Exemplo: Aprendizado em Memória
Associativa
� Tabela inicial:
� A) Apresento par
A1
A2
A3
F1
F2
00000
00000
00000
00000
Inteligência Artificial CTC-15
A3
A4
A5
F3
F4
Borges = [1, -1, 1, -1, 1]literatura = [1, -1, 1, -1]
A1=1, F1=1 → w11= 0+1= 1A1=1, F2= -1 → w21= 0-1= -1A1=1, F3=1 → w31= 0+1= 1A1=1, F4= -1 → w41= 0-1= -1Etc…
![Page 34: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/34.jpg)
� Tabela após A): B) Apresento par
� Tabela após B): C) Apresento par
−−−−−
−−−−−
11111
11111
11111
11111 Bach = [1, 1, 1, -1, -1]música = [1, 1, -1, -1]
A1=1, F1=1 → w11= 1+1= 2A1=1, F2= 1 → w21= -1+1= 0A1=1, F3=-1 → w31= 1-1= 0A1=1, F4= -1 → w41= -1-1= -2Etc…
Inteligência Artificial CTC-15
� Tabela após B): C) Apresento par
−−−
−−
02202
20020
20020
02202Picasso = [1, 1, -1, -1, 1]pintura = [1, -1, -1, 1]
A1=1, F1=1 → w11= 2+1= 3A1=1, F2= -1 → w21= 0-1= -1A1=1, F3=-1 → w31= 0-1= -1A1=1, F4= 1 → w41= -2+1= -1Etc…
![Page 35: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/35.jpg)
Exemplo: Aprendizado em Memória
Associativa
−−−−
−−−
11311
11131
31111
13113
� Pesos finais:
Inteligência Artificial CTC-15
� Regra de Hebb:� Realiza aprendizado não-supervisionado� Equação:
� O que acontece se treinar mais de uma vez com um par?
( ) ( ) ijjiji OUTOUTtwtw 1 α+=+
![Page 36: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/36.jpg)
Principais arquiteturas de RNAs
� Dependem da estrutura, tipo de neurônio, regra de aprendizado, ... � Perceptron,
� Perceptron Multi-Camada (MLP),
� Rede de Hopfield,
Inteligência Artificial CTC-15
� Rede de Hopfield,
� Rede de Kohonen,
� dezenas de outras…ADALINE e MADALINE, Máquinas de Boltzmann,
![Page 37: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/37.jpg)
Perceptron (McCulloch e Pitts, 1947)
� Arquitetura baseada em um neurônio discreto com função de ativação limiar:f(wt.x) = 1 se nível de ativação > 0,
-1 caso contrário.
Inteligência Artificial CTC-15
� Pode produzir saída vetorial: vários neurônios em paralelo
![Page 38: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/38.jpg)
Operação do Perceptron: Exemplo� Duas entradas: x, y
� Dois pesos: w1, w2
� Uma entrada de bias
ΣΣΣΣ
x
y
w1
w2
f
w0
1
[ ]ywxwwfo 210 ++=
Inteligência Artificial CTC-15
x
y
0210 =++ ywxww0210 >++ ywxww
0210 <++ ywxww
![Page 39: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/39.jpg)
Poder de representação dos
PerceptronsConseguem representar qualquer função linearmente separável
Função linearmente separável: consigo separar as classes com retas (ou planos, ou hiperplanos).
1 neurônio: classes +1 e –1
Inteligência Artificial CTC-15
2 neurônios: classes +1+1,+1-1,-1+1,-1-1
N neurônios: 2N classes
←←←← OK
Não OK →→→→
A
B
A
B
![Page 40: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/40.jpg)
Neurônio 1: separa em classes C1 e C2
Separação em 4 classes: Exemplo
ΣΣΣΣ
x
y
w1
w2
f
w01
x’
Inteligência Artificial CTC-15
Neurônio 2: separa em classes C1’ e C2’
ΣΣΣΣ
x
y
w1’
w2’
f
w0’1
y’
![Page 41: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/41.jpg)
Separação em 4 classes: Exemplo
xw1
w2
ΣΣΣΣ f
w01
x’
Inteligência Artificial CTC-15
y ΣΣΣΣ fy’w2’
w1’
1w0’
![Page 42: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/42.jpg)
Limitações do Perceptron
� Infelizmente, várias funções de interesse não são linearmente separáveis.
� Por exemplo,oPerceptron não pode
Inteligência Artificial CTC-15
Perceptron não pode representar o XOR (ou exclusivo).
X1 X2 Outa 0 0 0b 0 1 1c 1 0 1d 1 1 0
X1
X2
Out = 0
Out = 1
0
1
1
d
c
b
a
![Page 43: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/43.jpg)
Aprendizado no Perceptron: Regra Delta
� A regra de atualização dos pesos é:wi = wi + α δ xi
Onde δ = (t - o)� xi é a entrada,� t é o valor desejado,
Inteligência Artificial CTC-15
é o valor desejado,� o é a saída do perceptron e,� α é uma constante pequena (ex: 0.1), chamada taxa de
aprendizado.
Funciona para entradas/saídas discretas oucontínuas.
![Page 44: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/44.jpg)
Treinamento de Perceptrons
Inteligência Artificial CTC-15
![Page 45: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/45.jpg)
MLP: Multi-layer Perceptrons� Conjuntos de Perceptrons arranjados em diversas
camadas.
� Pelo menos uma camada escondida.
� Soluciona problema de classificação não-linear: consegue formar regiões de decisão mais complexas
Inteligência Artificial CTC-15
![Page 46: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/46.jpg)
MLP: Multi-layer Perceptrons
Classificação requer 3 linhas discriminantesque criam 7 compartimentos e 2 regiões de decisão: uma para e outra para .
A B
C
(-1-1-1)
(-111)
X
X2
Inteligência Artificial CTC-15
x1
x2
out
Camada Escondida
Entradas A
B
C
Classe 1
Classe 2
(-1-1-1),(-1-11),…..,(111)
1
-1
Solução:
compartimentos
X1
![Page 47: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/47.jpg)
Exemplo de Rede MLP: XOR� x1 = x2 = entradas binárias.� w1 = w2 = w3 = w4 = 1, w5 = 1 e w6 = -2� f1 (wt.x) = 1 se nível de ativação ≥ 0,5,
0 caso contrário.� f2 (wt.x) = 1 se nível de ativação ≥ 1,5,
0 caso contrário.
10,5
Inteligência Artificial CTC-15
Efetue o recall desta rede completando a tabela acima
1
1
1
1 -2
1
0,5
0,5
1,5
![Page 48: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/48.jpg)
Exemplo de Rede MLP: XOR� x1 = x2 = entradas binárias.� w1 = w2 = w3 = w4 = 1, w5 = 1 e w6 = -2� f1 (wt.x) = 1 se nível de ativação ≥ 0,5,
0 caso contrário.� f2 (wt.x) = 1 se nível de ativação ≥ 1,5,
0 caso contrário.
10,5
Inteligência Artificial CTC-15
Preciso agora de um algoritmo para treinar os pesos…
1
1
1
1 -2
1
0,5
0,5
1,5
![Page 49: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/49.jpg)
MLP Sigmóide� Neurônio com função de ativação limiar sigmóide:
( ) tanh)(ou 1
1)( netnet
enet
net=
+= − σσ
Inteligência Artificial CTC-15
( )
( ) ( )( )2
1)( tanh)(
)(1)()( 1
1)(
2 xxxx
xxxe
xx
σσσ
σσσσ
−=′⇒=
−=′⇒+
= −Propriedade Interessante…
![Page 50: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/50.jpg)
Como treinar um MLP?
� Descida do gradiente: Aprenda wi’s que minimizam erro quadrático instantâneo (td , saída esperada ) (od , saída obtida) :
h1
o
h1
Inteligência Artificial CTC-15
h1
x1x1
h1
2)(2
1][ ∑ −=
Oddd otwE
ε
r
O = total de saídas da rede
![Page 51: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/51.jpg)
Descida do Gradiente
Inteligência Artificial CTC-15
![Page 52: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/52.jpg)
Descida do Gradiente (uma camada)
Inteligência Artificial CTC-15
![Page 53: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/53.jpg)
Redefindo o erro para várias neurônios
de saída
Inteligência Artificial CTC-15
![Page 54: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/54.jpg)
Algoritmo Backpropagation (propagação
de retorno)
Inteligência Artificial CTC-15
![Page 55: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/55.jpg)
Algoritmo Backpropagation - 2
Inteligência Artificial CTC-15
![Page 56: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/56.jpg)
Aprendizado Batch (em lotes)
� Inicialize wi’s (pequeno valor aleatório)
� Repita até condição de término:
∆wi = 0
Para cada exemplo d faça
od ← σ(Σi wi xi,d)
∆wi ← ∆wi + η (td − od) od (1-od) xi,d
wi ← wi + ∆wi
Inicialize w ’s (pequeno valor aleatório)
Inteligência Artificial CTC-15
Aprendizado Online (incremental)
� Inicialize wi’s (pequeno valor aleatório)� Repita até condição de término:
Para cada exemplo d faça∆wi = 0od ← σ(Σi wi xi,d)∆wi ← ∆wi + η (td − od) od (1-od) xi,d
wi ← wi + ∆wi
![Page 57: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/57.jpg)
Algoritmo Backpropagation
Generalização da descida
do gradiente: várias camadas
� Inic. pesos (valores aleatórios pequenos)
� Para cada exemplo de treinamento:
� Para cada neurônio escondido h: ∑= ihih xwo )(σ
Inteligência Artificial CTC-15
� Para cada neurônio escondido h:
� Para cada neurônio de saída k:
� Para cada neurônio de saída k:
� Para cada neurônio escondido h:
� Atualize cada peso da rede wij:
ijjij xw δη=∆
∑i
∑=k
hkhk xwo )(σ
)()1( kkkkk otoo −−=δ
∑−=k
khkhhh woo δδ )1(
ondeijijij www ∆+←
![Page 58: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/58.jpg)
ExemploEntrada Saída
10000000 → 10000000
01000000 → 01000000
00100000 → 00100000
00010000 → 00010000
00001000 → 00001000
Inteligência Artificial CTC-15
00001000 → 00001000
00000100 → 00000100
00000010 → 00000010
00000001 → 00000001
![Page 59: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/59.jpg)
Aprendizado da representação (camada
interna)Entrada Saída
10000000 → .89 .04 .08 → 10000000
01000000 → .01 .11 .88 → 01000000
00100000 → .01 .97 .27 → 00100000
00010000 → .99 .97 .71 → 00010000
00001000 → .03 .05 .02 → 00001000
Inteligência Artificial CTC-15
00001000 → .03 .05 .02 → 00001000
00000100 → .22 .99 .99 → 00000100
00000010 → .80 .01 .98 → 00000010
00000001 → .60 .94 .01 → 00000001
![Page 60: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/60.jpg)
Backpropagation - 1
Inteligência Artificial CTC-15
![Page 61: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/61.jpg)
Backpropagation - 2
Inteligência Artificial CTC-15
![Page 62: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/62.jpg)
Backpropagation - 3
Inteligência Artificial CTC-15
![Page 63: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/63.jpg)
Backpropagation - 4
Inteligência Artificial CTC-15
![Page 64: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/64.jpg)
Backpropagation - 5
Inteligência Artificial CTC-15
![Page 65: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/65.jpg)
Backpropagation - 6
Inteligência Artificial CTC-15
![Page 66: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/66.jpg)
Backpropagation - 7
Inteligência Artificial CTC-15
![Page 67: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/67.jpg)
Backpropagation - 8
Inteligência Artificial CTC-15
![Page 68: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/68.jpg)
Backpropagation - 9
Inteligência Artificial CTC-15
![Page 69: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/69.jpg)
Backpropagation - 10
Inteligência Artificial CTC-15
![Page 70: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/70.jpg)
Backpropagation - 11
Inteligência Artificial CTC-15
![Page 71: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/71.jpg)
Backpropagation - 12
Inteligência Artificial CTC-15
![Page 72: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/72.jpg)
Backpropagation - 13
Inteligência Artificial CTC-15
![Page 73: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/73.jpg)
Backpropagation - 14
Inteligência Artificial CTC-15
![Page 74: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/74.jpg)
Backpropagation - 15
Inteligência Artificial CTC-15
![Page 75: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/75.jpg)
Backpropagation - 16
Inteligência Artificial CTC-15
![Page 76: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/76.jpg)
Backpropagation - 17
Inteligência Artificial CTC-15
![Page 77: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/77.jpg)
Backpropagation - 18
Inteligência Artificial CTC-15
![Page 78: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/78.jpg)
Todos os pesos atualizados –
Reinicia processo!
Inteligência Artificial CTC-15
![Page 79: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/79.jpg)
Aprendizado: Erro e Pesos
Inteligência Artificial CTC-15
![Page 80: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/80.jpg)
Aumento da velocidade de aprendizado:
Momentoerror E
ijw
E
∂∂ ij
ij w
Ew
∂∂−←∆ η
Descida do Gradiente
Inteligência Artificial CTC-15
weight wijwij wij
new
ijij
ij ww
Ew ∆+
∂∂−←∆ µη
DG com Momento
![Page 81: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/81.jpg)
Overfitting em RNAs
Inteligência Artificial CTC-15
![Page 82: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/82.jpg)
Convergência e Critério de
Parada� Pode ficar preso em mínimo local� Pesos podem divergir
…mas na prática, funciona bem!
Inteligência Artificial CTC-15
Critério de parada (para evitar overfitting): parar assim que erro no conjunto de validação começar a aumentar
![Page 83: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/83.jpg)
Faixa de operação
σ(x)
xex −+
=1
1)(σ
Faixa linear, # de unidades
Inteligência Artificial CTC-15
x
Faixa linear, # de unidades escondidas não interessa
![Page 84: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/84.jpg)
Capacidade de uma RNA MLP
� Qualquer função booleana pode ser representada por uma RNA com uma camada escondida.
� Qualquer função contínua limitada pode ser aproximada por uma RNA com uma camada escondida.
Inteligência Artificial CTC-15
escondida.
� Qualquer função contínua pode ser aproximada por uma RNA com duas camadas escondidas.
![Page 85: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/85.jpg)
Avaliação do Backpropagation em MLP� O desempenho do algoritmo de aprendizagem backpropagation está condicionado à
modelagem adotada na rede neural e ao conjunto de dados utilizados no treinamento.
� O número de unidades de processamento das camadas de entrada e saída é usualmente determinado pela aplicação. Nas camadas ocultas, a relação não é tão transparente. O ideal é utilizar o menor número possível de unidades ocultas para que a generalização não fique prejudicada [REFENES1993c]
Inteligência Artificial CTC-15
� Se o número de neurônios ocultos for muito grande, a rede acaba memorizando os padrões apresentados durante o treinamento. [RUMELHART1986]
� Contudo, se a rede possuir unidades ocultas em número inferior ao necessário, o algoritmo pode não conseguir ajustar os pesos adequadamente, impedindo a convergência para uma solução.
� A experiência ainda é a melhor indicação para a definição da topologia de um modelo conexionista [SURKAN1990].
![Page 86: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/86.jpg)
Exemplo: ALVINN
Inteligência Artificial CTC-15
Dirige um carro a 100 Km/h.
![Page 87: ctc15 cap7 IntroRedesNeurais [Modo de Compatibilidade]pauloac/ctc15/ctc15_cap7.pdf · 2011. 10. 30. · Características das Redes Neurais Naturais Grande número de elementos de](https://reader034.fdocumentos.com/reader034/viewer/2022051805/5ffa2eef2b4d57082a03727e/html5/thumbnails/87.jpg)
Exemplo: MLP Sigmóide
� Reconhecimento de fala - separar 10 vogais entre h_d (em inglês)
Inteligência Artificial CTC-15