Existem vários
modelos de estruturas de redes em uso. Entretanto os modelos podem ser
classificados por alguns elementos básicos próprios das redes.
Esses elementos são: operação das unidades de processamento
(“perceptrons”), topologia das redes, relação entre a entrada
e saída da rede e o algoritmo de aprendizagem.
O neurônio pode ser classificado quanto a natureza de seus sinais e sua função de transferência. A natureza dos sinais de entrada nos “perceptrons” podem ser discretas {0,1} ou {-1,0,1} ou podem ser contínuas, assumindo valores nos intervalos [0,1] ou [-1,+1] [Gallant, 1994].
O tipo do modelo
é dependente do tipo de não linearidade (função
de ativação) incorporada na camada escondida [Brown &
Harris, 1994]. Diferentes funções de ativação
podem ser implementadas: função sigmoidal (em redes de “backpropagation”),
funções trigonométricas (em redes de “links” funcionais-FLN),
funções gaussianas (em redes de bases radiais-RBF) e funções
polinomiais (em rede de memória associativa-AMN).
A topologia das redes é classificada pela forma na qual as unidades básicas estão arranjadas. As estruturas podem ser classificadas nos tipos direto e recorrente [Jang & Sun, 1995].
A estrutura direta pode ser descrita como um conjunto de unidades de processamento dispostos em camadas que se interconectam da saída de uma unidade à entrada de outra na camada subsequente. Não há ligações cíclicas e nem retroalimentação (fig. 5(a)).
A estrutura recorrente possue retroalimentação da saída de um neurônio para outra unidade em camadas predecessoras ou possuem nós cíclicos(fig. 5(b)). Exemplo desta estrutura é a rede de Hopfield.
Alguns autores
consideram outras duas estruturas, que são casos particulares da
estrutura direta. Uma é a estrutura em treliça que é
composta de uma camada de elementos de entrada que tem o papel de passar
informações para a camada de processamento da rede. As camadas
são arranjadas na forma de treliça (fig. 5(c)). A outra estrutura
é a pirâmide na qual as unidades vão diminuindo da
primeira à última camada, que possue apenas um neurônio
(fig. 5(d)).
Figura 5 - Estruturas de
redes neurais. (a) direta, (b) recorrente, (c) treliça e (d) pirâmide.
A relação entre a entrada e saída dos dados em uma rede neural pode ser classificada em dois tipos: as redes autoassociativas e as redes hetero-associativas. As redes autoassociativas reconstroem a versão original de sinais de entrada corrompidos ou ruidosos [Brown & Harris, 1994]. A rede de Hopfield é um exemplo deste tipo.
As redes hetero-associativas
mapeiam as entradas em uma representação alternativa, e isto
é a maioria das classes de redes que tratam do problema de classificação
e tarefas de aproximação funcional [Brown & Harris, 1994].
A capacidade de aprender informações de seu ambiente é uma das características mais importantes das redes neurais. Esta capacidade consiste num processo iterativo onde a rede ajusta seus pesos até que a informação do ambiente seja aprendida.
Os ajustes dos pesos podem ser feitos através de três tipos: aprendizado supervisionado, aprendizado não supervisionado e aprendizado por reforço. O aprendizado supervisionado é o mais comum; utiliza-se de um erro, a diferença entre a resposta desejada e a resposta obtida, como orientador ou supervisor do ajuste dos pesos. As redes de MLP (perceptrons múltiplas camadas) com algoritmo de “backpropagation” utilizam este aprendizado.
No aprendizado
não supervisionado não existe a presença do supervisor;
não há neste caso exemplos de entrada-saída associados
para treinamento. O processo de aprendizagem da rede é que deve
desenvolver suas próprias representações de acordo
com algum critério de similaridade definido. Este treinamento só
é aplicado nos casos em que não se tem informações
das classes. Lin [Lin & Lu, 1995] comenta que a desvantagem deste aprendizado
não supervisionado é sua ineficiência. A rede da teoria
de ressonância adaptativa (ART) e Hopfield são exemplos que
utilizam-se deste aprendizado.
O aprendizado por reforço é considerado
por alguns autores como um tipo próprio de aprendizado, [Lin &
Lu, 1995] e outros o consideram um caso especial de aprendizado supervisionado
[Hertz et al, 1993]. Este aprendizado é utilizado onde as informações
de saída não estão disponíveis, isto é,
a resposta é avaliada em termos de certo ou errado apenas. A rede
neural recebe um sinal de “feedback” de seu ambiente, sendo este sinal
apenas avaliativo e não instrutivo. É um método de
tentativa e erro. A rede não sabe, por exemplo, porque uma saída
é errada e então tenta diferentes resposta até atingir
a resposta certa [Hertz et al, 1993].
Considerando
os ítens anteriores, uma classificação das redes neurais
mais utilizadas na prática pode ser vista na tabela 1 abaixo.
| Estrutura | Aprendizagem | Redes |
| Direta |
supervisionado
não supervisionado |
Adaline/Madaline (fç.limiar)
MLP com “Backpropagation” (fç.sigmoidal) FLN - (fç. Trigonométrica) RBF - (fç. Gaussiana) AMN - (fç. Polinomial) LVQ “counterpropagation” matriz de aprendizagem Kohonen memória associativa |
| Recorrente | supervisionado
não
|
Cauchy “machine”
Boltzamn “machine” “Brain-state-in-a-box” Hopfield ART BAM “Additive Grossberg” (AG) |
As redes de
“counterpropagation” são consideradas como híbridas uma vez
que combina o treinamento supervisionado com o não supervisionado.
A idéia geral é haver uma camada que aprende de uma forma
não supervisionada, seguida de uma (ou mais) camadas que são
treinadas pelo algoritmo de “backpropagation” [Hertz et al, 1993].