4 - Classificação das redes neurais
 

        Existem vários modelos de estruturas de redes em uso. Entretanto os modelos podem ser classificados por alguns elementos básicos próprios das redes. Esses elementos são: operação das unidades de processamento (“perceptrons”), topologia das redes, relação entre a entrada e saída da rede e o algoritmo de aprendizagem.
 

4.1 - Operação das unidades de processamento

        O neurônio pode ser classificado quanto a natureza de seus sinais e sua função de transferência. A natureza dos sinais de entrada nos “perceptrons” podem ser discretas {0,1} ou {-1,0,1} ou podem ser contínuas, assumindo valores nos intervalos [0,1] ou [-1,+1] [Gallant, 1994].

        O tipo do modelo é dependente do tipo de não linearidade (função de ativação) incorporada na camada escondida [Brown & Harris, 1994]. Diferentes funções de ativação podem ser implementadas: função sigmoidal (em redes de “backpropagation”), funções trigonométricas (em redes de “links” funcionais-FLN), funções gaussianas (em redes de bases radiais-RBF) e funções polinomiais (em rede de memória associativa-AMN).
 

4.2 - Topologia das redes

        A topologia das redes é classificada pela forma na qual as unidades básicas estão arranjadas. As estruturas podem ser classificadas nos tipos direto e recorrente [Jang & Sun, 1995].

        A estrutura direta pode ser descrita como um conjunto de unidades de processamento dispostos em camadas que se interconectam da saída de uma unidade à entrada de outra na camada subsequente. Não há ligações cíclicas e nem retroalimentação (fig. 5(a)).

        A estrutura recorrente possue retroalimentação da saída de um neurônio para outra unidade em camadas predecessoras ou possuem nós cíclicos(fig. 5(b)). Exemplo desta estrutura é a rede de Hopfield.

        Alguns autores consideram outras duas estruturas, que são casos particulares da estrutura direta. Uma é a estrutura em treliça que é composta de uma camada de elementos de entrada que tem o papel de passar informações para a camada de processamento da rede. As camadas são arranjadas na forma de treliça (fig. 5(c)). A outra estrutura é a pirâmide na qual as unidades vão diminuindo da primeira à última camada, que possue apenas um neurônio (fig. 5(d)).

 Figura 5 - Estruturas de redes neurais. (a) direta, (b) recorrente, (c) treliça e (d) pirâmide.
 
 

4.3 - Relação entre entrada e saída de dados

        A relação entre a entrada e saída dos dados em uma rede neural pode ser classificada em dois tipos: as redes autoassociativas e as redes hetero-associativas. As redes autoassociativas reconstroem a versão original de sinais de entrada corrompidos ou ruidosos [Brown & Harris, 1994]. A rede de Hopfield é um exemplo deste tipo.

        As redes hetero-associativas mapeiam as entradas em uma representação alternativa, e isto é a maioria das classes de redes que tratam do problema de classificação e tarefas de aproximação funcional [Brown & Harris, 1994].
 
 

4.4 - Algoritmo de aprendizagem

        A capacidade de aprender informações de seu ambiente é uma das características mais importantes das redes neurais. Esta capacidade consiste num processo iterativo onde a rede ajusta seus pesos até que a informação do ambiente seja aprendida.

        Os ajustes dos pesos podem ser feitos através de três tipos: aprendizado supervisionado, aprendizado não supervisionado e aprendizado por reforço. O aprendizado supervisionado é o mais comum; utiliza-se de um erro, a diferença entre a resposta desejada e a resposta obtida, como orientador ou supervisor do ajuste dos pesos. As redes de MLP (perceptrons múltiplas camadas) com algoritmo de “backpropagation” utilizam este aprendizado.

        No aprendizado não supervisionado não existe a presença do supervisor; não há neste caso exemplos de entrada-saída associados para treinamento. O processo de aprendizagem da rede é que deve desenvolver suas próprias representações de acordo com algum critério de similaridade definido. Este treinamento só é aplicado nos casos em que não se tem informações das classes. Lin [Lin & Lu, 1995] comenta que a desvantagem deste aprendizado não supervisionado é sua ineficiência. A rede da teoria de ressonância adaptativa (ART) e Hopfield são exemplos que utilizam-se deste aprendizado.
O aprendizado por reforço é considerado por alguns autores como um tipo próprio de aprendizado, [Lin & Lu, 1995] e outros o consideram um caso especial de aprendizado supervisionado [Hertz et al, 1993]. Este aprendizado é utilizado onde as informações de saída não estão disponíveis, isto é, a resposta é avaliada em termos de certo ou errado apenas. A rede neural recebe um sinal de “feedback” de seu ambiente, sendo este sinal apenas avaliativo e não instrutivo. É um método de tentativa e erro. A rede não sabe, por exemplo, porque uma saída é errada e então tenta diferentes resposta até atingir a resposta certa [Hertz et al, 1993].
 

 

4.5 - Taxonomia das redes neurais

        Considerando os ítens anteriores, uma classificação das redes neurais mais utilizadas na prática pode ser vista na tabela 1 abaixo.
 
Estrutura Aprendizagem Redes
Direta

  
 

supervisionado  
 
 
 


não   
supervisionado
Adaline/Madaline (fç.limiar)  
MLP com “Backpropagation” (fç.sigmoidal)  
FLN - (fç. Trigonométrica)  
RBF - (fç. Gaussiana)  
AMN - (fç. Polinomial)  
 LVQ  
 “counterpropagation”  

matriz de aprendizagem  
Kohonen  
memória associativa 
Recorrente supervisionado 

não  
supervisionado

Cauchy “machine” 
Boltzamn “machine” 
“Brain-state-in-a-box”  


Hopfield  
ART  
BAM  
“Additive Grossberg” (AG) 
Tabela 1 - Taxonomia de redes neurais.
 
onde:
        MLP – perceptrons múltiplas camadas.
        FLN - redes de “links” funcionais.
        RBF - redes de função de base radial.
        AMN - rede de memória associativa.
        LQV - Aprendizagem do vetor de quantização.

        As redes de “counterpropagation” são consideradas como híbridas uma vez que combina o treinamento supervisionado com o não supervisionado. A idéia geral é haver uma camada que aprende de uma forma não supervisionada, seguida de uma (ou mais) camadas que são treinadas pelo algoritmo de “backpropagation” [Hertz et al, 1993].