La IA, entendida muy ampliamente como el modelado y la simulación de las actividades cognitivas (percepción, memoria, solución de problemas, etc.) complejas que caracterizan a los organismos avanzados, y en particular a los seres humanos, se separó casi desde su inicio en dos ramas bien diferenciadas: por un lado se trató de modelar la actividad racional mediante sistemas formales de reglas y manipulación simbólica, esta es la rama más conocida de la IA, que podríamos denominar simbólico-deductiva (se postulan una serie de reglas y el sistema resuelve los problemas realizando deducciones sobre las reglas existentes); por otro lado se desarrollaron modelos computacionales inspirados en las redes neuronales biológicas, inductivos, ya que extraen la información necesaria para resolver un problema de un conjunto de ejemplos, sin necesidad de indicarle las reglas necesarias para resolver dicho problema.
Si bien es mucho más conocida la aproximación simbólico-deductivo y su principal aplicación: los sistemas expertos (en general sistemas basados en conocimiento), existe un considerable y renacido interés por los modelos conexionistas. El progreso de las neurociencias nos está conduciendo a una comprensión cada vez mayor de la estructura física y lógica del cerebro; los avances tecnólogicos ofrecen recursos cada vez mayores para representar estructuras muy complejas, realizar cálculos a gran velocidad y en paralelo, apoyando y fomentando la investigación en este campo.
Podríamos situar el origen de los modelos conexionistas con la definición de la neurona formal dada por McCulloch y Pitts en 1943 como un dispositivo binario con varias entradas y salidas. Un psicólogo, D.O. Hebb, introdujo en 1949 dos ideas fundamentales (no demostradas todavía fehacientemente) que han influido de manera decisiva en el campo de las redes neuronales: la idea de que una percepción o un concepto se representa en el cerebro por un conjunto de neuronas activas simultáneamente; y la idea de que la memoria se localiza en las conexiones entre las neuronas (sinapsis). Las hipótesis de Hebb, basadas en investigaciones psicofisiológicas, presentan de manera intuitiva el modo en que las neuronas memorizan información, y se plasman sintéticamente en la famosa regla aprendizaje de Hebb (también conocida como regla del producto). Esta regla indica que las conexiones entre dos neuronas se refuerzan si ambas son activadas. Muchos de los algoritmos actuales proceden de los conceptos de este psicólogo.
Autor: Ricardo Zapata