¿QUE ES UN SISTEMA EXPERTO?
Los sistemas expertos forman parte de un firme y verdadero avance en inteligencia artificial. Los sistemas expertos pueden incorporar miles de reglas. Para una persona seria un experiencia casi "traumática" el realizar una búsqueda de reglas posibles al completado de un problema y concordar estas con las posibles consecuencias, mientras que se sigue en un papel los trazos de un árbol de búsqueda. Los sistemas expertos realizan amablemente esta tarea; mientras que la persona responde a las preguntas formuladas por el sistema experto, este busca recorriendo las ramas más interesantes del árbol, hasta dar con la respuesta afín al problema, o en su falta, la más parecida a esta. Los sistemas expertos tienen la ventaja frente a otro tipos de programas de Inteligencia Artificial, de proporcionar gran flexisivilidad a la hora de incorporar nuevos conocimientos. Para ello solo tenemos que introducir la nueva regla que deseemos hacer constar y…ya está, sin necesidad de cambiar el funcionamiento propio del programa. Los sistemas expertos son "autoexplicativos", al contrario que en los programas convencionales, en los que el conocimiento como tal está encriptado junto al propio programa en forma de lenguaje de ordenador. Los expertos de I.A. dicen que los sistemas expertos tienen un conocimiento declarativo, mientras que en los demás programas es procedural.
En 1965 Feigenbaum entra a formar parte
del departamento de informática de Stanford. Allí conoció a Joshua Lederberg,
el cual quería averiguar cual era la estructura de las moléculas orgánicas
completas. Si se quiere estudiar un compuesto químico, lo primero que tenemos
que hacer es averiguar su fórmula química. Este análisis nos dice cuantos átomos
de cada tipo hay en las moléculas. Las propiedades de una molécula completa
dependen de los enlaces químicos dentro de esta, y de cómo están colocados unos
átomos respecto a otros. Todas estas propiedades constituyen la estructura
molecular. Y hacer un mapa de la esta no resulta tan sencillo. El método
habitual de análisis consiste en dividir el problema en partes más pequeñas.
Los químicos rompen las moléculas que estudian en fragmentos ionizados y
procesan estos fragmentos en un "espectómetro de masa", este nos da
la proporción carga/masa de los fragmentos.
El conjunto de estas piezas de
información forma una imagen completa para reconstruir la molécula original. El
problema de Lederberg era que había demasiadas combinaciones. Cada fragmento
podía corresponder a varias subestructuras, pero solo una estructura molecular
global se ajustaba a todas las restricciones del problema. El descubrimiento de
esa estructura global exigía buscar en un árbol las posibilidades. Fue por esta
razón por la que pusieron al programa el nombre de DENDRAL, que significa en
griego "árbol". Antes de DENDRAL los químicos solo tenían una forma
de resolver el problema, y esta era tomar unas hipótesis relevantes como
soluciones posibles, y someterlas a prueba comparándolas con los datos.
La realización DENDRAL duró más de diez
años (desde 1965). Se le puede considerar el primer sistema experto.
MYCIN se trataba de un sistema experto
para el diagnóstico de enfermedades infecciosas. Desde los resultados de
análisis de sangre, cultivos bacterianos y demás datos, el programa era capaz
de determinar, o en lo menos, sugerir el microorganismo que estaba causando la
infección. Después de llegar a una conclusión, MYCIN prescribía una medicación
que se adaptaba perfectamente a las características del sujeto, tales como el
peso corporal de este. Después del reconocido éxito que tuvo MYCIN entre la
comunidad científica de I.A. e investigadores de medicina, los autores del
programa pusieron a disposición de otros investigadores una versión de MYCIN
que contenía el motor "inferencial" de este para que fueran los
propios usuarios los que insertasen al programa de información respecto a el
tema a tratar; se podría decir que esta versión "adaptada" del
original MYCIN, era el primer entorno de desarrollo de sistemas expertos.
Teiresias: profeta ciego del Edipo rey de
Sófocles, puede penetrar en acontecimientos ocultos al común de los mortales, y
posee una forma superior de conocimiento. El sistema experto llamado TEIRESIAS
no era capaz de estas "proezas" pero desde luego era un magnifico
nombre para un programa de estas características. El cometido de este S.E.
(Sistema Experto) no era otro que el de servir de interprete entre MYCIN y los
especialistas que lo manejaban, a la hora introducir nuevos conocimientos en su
base de datos. El especialista debía utilizar MYCIN de una forma normal, y
cuando este cometiera un error en un diagnostico (hecho producido por la falta
o fallo de información en el árbol de desarrollo de teorías) TEIRESIAS
corregiría dicho fallo destruyendo la regla si es falsa o ampliándola si es eso
lo que se necesita.
A finales de los sesenta la Canegie
Mellon preparaba el principio de la insertacion de la I.A. en el mundo real. El
programa empezó llamándose R1, nombre que provenía de un malísimo chiste del
creador del proyecto [aunque estoy en disposición de afirmar que este chiste es
lo peor de lo peor, ahí va: "Yo siempre había querido ser un ingeniero del
conocimiento, y ahora ya lo era", en inglés "…and now I R1" lo
que suena en ingles como "…and now I're one"], pero la Digital
Equipament Corporation, que era el usuario final de este programa, expresó su
preferencia por otro nombre con más sentido, como el que al final quedó
elegido: XCON (eXpert CONfigurer) [Configurador Experto]. Cuando fue exigida la
ayuda de McDermott, la DEC iba a lanzar al mercado una nueva serie de
ordenadores, los llamados VAX. Dado que todos los ordenadores tenían configuraciones
distintas entre sí, la VAX estaba previendo el enorme culo de botella (nombre
que se le da en informática a los bloqueos por colapso de información para
procesar que se dan en segmentos determinados) que se iba a formar, cuando
(como ya había pasado anteriormente con otra serie de ordenadores) los
ordenadores tuviesen fallos de configuración y hubiese que arreglar este
problema uno por uno, con el consiguiente gasto de tiempo y dinero que eso
suponía. Fue entonces cuando alarmados los directivos de la DEC pensaron en
ponen en marcha una solución ¡¡ya!!, contratando a John McDertmott. El cometido
del XCON seria, en definición: simple, se trataba de configurar todos los
ordenadores que saliesen de la DEC. El informe de viabilidad de McDermontt
expuso resultados prometedores, y en diciembre de 1978 se empezó a trabajar en
el proyecto.
En abril de 1979 el equipo de
investigación que lo había diseñado (con McDermott a la cabeza), pensó que ya
estaba preparado para salir y "conocer el mundo", fue entonces cuando
se hizo una prueba real, esperando resolver positivamente un 95% de las
configuraciones, este porcentaje tal alto anhelado por McDermontt y compañía se
quedó en un 20% al ser contrastado con la realidad; XCON volvió al laboratorio,
donde fue revisado y a finales de ese mismo año (1979) funcionó con resultados
positivos en la DEC.
En 1980 XCON se instauró totalmente en
DEC. Y en 1984, el XCOM había crecido hasta multiplicarse por diez. En 1986 la
compañía había invertido más de cincuenta años/hombre en el programa, pero se
estaba recuperando con creces de su inversión al ahorrarse cuarenta millones de
dólares al año.
80-85 LA REVOLUCIÓN DE LOS SISTEMAS EXPERTOS
XCON significó el pistoletazo de salida
para los sistemas expertos, convenciendo a las más importantes empresas a
invertir en programas de este tipo. Incluso para los más conservadores y los
radicales Anti-I.A., algo se hacia evidente, mientras que los costes de
desarrollo de los sistemas expertos se hacían cada vez más bajos, el salario de
los expertos humanos se hacia más alto. La formación de un futuro experto
costaba mucho dinero y años de esfuerzo, mientras que una vez creado un sistema
experto podía ser copiado y distribuido tantas veces como necesario fuese.
Además, el sistema experto nunca se cansa, no necesita dormir, no se distrae,
no se va a la competencia, ni se pone enfermo, ni se jubila, ni pide aumento de
sueldo…
Más tarde se crearon otros S.E (sistemas
expertos), como el DELTA, de la General Electric Company, para la reparación de
locomotoras diesel y eléctricas. "Aldo en Disco" para la reparación
de calderas hidroestáticas giratorias usadas para la eliminación de bacterias.
Muchas grandes empresas invirtieron en el
campo de la I.A. creando grupos especializados en esta, para que desarrollaran
aplicaciones para la empresa. Empresas como DEC, Xerox, Schlumberger-Doll y
Texas Instruments gastaron un total (mas 150 empresas más) de mil millones de
dólares en el desarrollo de la I.A.
A raiz de todos estos adelantos e
inversiones puestos en marcha desde la calle, es decir, fuera de los
laboratorios de las universidades, como era costumbre hasta la fecha…todo esto
provocó que la sociedad empezase a oír cosas sobre es tal "Inteligencia
Artificial", que llegaba a ocupar programas de televisión, y artículos en
revistas científicas de todo tipo. Edward Feigenbaum fundó la Teknowledge Inc,
pero esta empresa no fue la única sino que le acompañaron muchas más, como:
Carnegie Group, Symbolics, Lisp Machines Inc, Thinking Machines Corporation,
Cognitive Systems Inc…formando una inversión total de 300 millones de dólares.
Los productos más importantes que creaban estas nuevas compañías eran las
"máquinas Lisp", que se trataba de unos ordenadores que ejecutaban
programas LISP con la misma rapidez de un ordenador central. Y el otro producto
eran las "herramientas de desarrollo de sistemas expertos", también
llamados "shells" (conchas).
Este crecimiento, "desmesurado"
a los ojos de los investigadores de I.A. más veteranos, provocó un colapso en
la comunidad científica de I.A. haciendo que el primer congreso de la AAAI
(Asociación Americana de Inteligencia Artificial) que se realizó en Stanford,
en 1985, reuniese a más de mil investigadores. Y en la International Joint
Conference on Artificial Intelliegence (IJCAI) se llegó a las seis mil
personas. Todo estaba cambiado para esos investigadores de I.A. que estaban
acostumbrados a las "pequeñas" reuniones, casi familiares, en las que
se podían hacer charlas, en las que la ropa era totalmente informal…estas
conferencias eran entonces (1985) el centro de reunión de empresarios,
reporteros, científicos de otras ramas con curiosidad…
Pero la demanda por parte de las empresas
privadas de personal era mucho mayor a la oferta, esto hacia que los sueldos
aumentasen enormemente y obligaban a los estudiantes a dejar la universidad
cuanto antes. El MIT tenia en 1975 unos cuarenta investigadores y pasó a tener
doscientos a finales de los 80.
Las constantes mejoras y cambios en los
productos del DEC habían hecho que XCON se actualizara muy rápidamente, siendo
objeto de la introducción de más y más reglas de funcionamiento, hasta llegar
ha tener más de diez mil reglas, a partir de ese momento XCON no era mejor, sino
más grande y DEC tuvo que gastarse dos millones de dólares al año para
actualizar la base de conocimiento. Algo parecido ocurrió con el DELTA de la
General Electric. Hasta esa fecha nadie se dio cuenta de que los sistemas
expertos necesitaban un mantenimiento, y este constituye hoy en día una de las
actividades principales de la industria de los sistemas expertos.
En 1987 aparecieron los microordenadores
Apple y los compatibles IBM, con potencia parecida a la de las máquinas LISP, esto
hizo que no se necesitasen máquinas monotemáticas como estas últimas que además
eran muy caras. Llegaron nuevas compañías del software como Gold Hill Computers
y First Class Expert Systems, que transfirieron el software de I.A. a las
máquinas convencionales utilizando el lenguaje C, lo que acabó totalmente con
el LISP. Este ultimo hecho hizo que miles de personas perdieran el trabajo,
dado que estos negocios no se practicaban desde universidades, sino desde
empresas privadas.