Artículo
Nuevas tecnologías aplicadas al proceso virtual de enseñanza http://www.eidos.es/latino/Seminario/Articulos/NuevasTecnolog%C3%ADas/default.htmpor
Marino Posadas IntroducciónLa mecanismos físicos que hacen posible
cualquier proceso al que apliquemos el calificativo de virtual, se basan, actualmente,
en tres componentes bien definidos: El PC, la red de comunicaciones y el proveedor
de contenidos virtuales. Podemos asumirlo a una balanza cuyo fiel es el canal
de comunicación y cuyo objetivo es alcanzar el equilibrio. Pero, al contrario
de lo que sucede con la imagen estática de una balanza, los contenidos,
representados en esta metáfora por el contrapeso, son cada vez más
sofisticados y la demanda, representada aquí por el peso de los usuarios,
cada vez mayor. Ello, obliga a los diseñadores de sistemas de comunicación
a adecuar la potencia de sus medios a ese flujo constante de información.A
su vez, las mejoras en los medios de comunicación, hacen posible un aumento
de la oferta y consecuentemente, de la demanda. De esa forma, Internet es hoy
un sistema abierto, en constante evolución tecnológica. No está
demás, por tanto, que reflexionemos, siquiera someramente, sobre aquellos
aspectos de la investigación de alto nivel que pueden aplicarse a cualquiera
de estas facetas del proceso de enseñanza virtual y extrapolemos aquello
que –fundada y previsiblemente- nos van a permitir hacer en un futuro
inmediato. Las partes integrantesResumiéndolo en pocas palabras, aquello
que afecta al proceso de enseñanza en cuanto al modo en que lo percibe
el usuario, es lo que, genéricamente, entendemos por interfaz de usuario.
La interfaz de usuario habla con nosotros, nos presenta contenidos, espera una
respuesta o una solicitud de nuestra parte y actúa en consecuencia. Hasta
el momento, esa interfaz de usuario se compone, el 99% de los casos, de un conjunto
de ventanas sembradas de lo que llamamos controles, esto es, botones, cajas
de texto, menús desplegables, cajas de diálogo, etc. Y la situación
no varía excesivamente al utilizar páginas web como interfaz:
las páginas reproducen esa situación familiar, aunque no estén
–estrictamente hablando- formadas por controles.El apartado de comunicaciones,
se fundamenta en un hardware (los canales físicos de conexión),
y un software que lo maneja (protocolos de comunicación). De ambos también
se preocupan las nuevas tecnologías, y sobre ambos se está trabajando
en mejoras importantes, en algunos casos, de una magnitud tal, que posibilitarán
cambios impensables en las otras dos áreas del proceso cognitivo.El observador
eventual de este sistema de enseñanza, puede pensar que son éstos
dos primeros aspectos los más susceptibles de mejora o innovación
tecnológica, dado que –aparte del software usado en el suministro
de contenidos-, no parecen existir grandes diferencias entre este lado de la
balanza y la interfaz de usuario. Sin embargo, no es así en absoluto.
Hay notables trabajos de investigación sobre la gestión de proveedores
de contenidos y la optimización que requieren en su desarrollo. La Minería
de Datos (Data Mining), el Data Warehousing, las Técnicas de Ayuda en
Toma de Decisiones (OLAP), las Técnicas de Sondeo de Conocimientos y
finalmente, los contenidos interactivos y multimedia suponen también
un enorme cambio, porque permiten, por un lado, acceder a datos no evidentes
en un principio a partir de las masas de información, y por otro, suministrar
esa información en formatos a los que la tecnología no podía
acceder hasta hace bien poco.Esa comunión entre las posibilidades del
canal de comunicación y el contenido mismo, queda patente en la actualidad
para unos pocos afortunados que tienen acceso a una modalidad especial de Internet
llamada Internet2. El secreto de Internet2 es simple, la línea de comunicación
pasa de ser el cable telefónico estándar a una línea de
fibra óptica. Gracias a esa tecnología, se consiguen rendimientos
de transferencia del orden de varios megabytes por segundo y eso significa que
es posible hacer cosas como transmitir una operación desde el Hospital
General de Bethesda hasta la Universidad de Berkeley en tiempo real, muy alta
calidad, y pudiendo grabar todo el proceso para su reproducción posterior.Dado
que esa velocidad es incluso superior a la que se obtiene en una red local,
es posible ejecutar programas remotos, es decir que se encuentran en otros ordenadores
alejados del nuestro pero que viajan instantáneamente a la máquina
del usuario. Aparece aquí también un elemento económico
del que ya se habla: el alquiler de software. Una versión del pay-per-view
que podríamos denominar pay-per-use, o pago por utilización, y
que, sin duda aparecerá cuando esta tecnología esté accesible
al gran público. (Por el momento sólo se encuentran conectadas
las más importantes universidades y centros de investigación norteamericanos,
algunos centros de investigación europeos -como el CERN- y pocos más).
Los cambios en la Interfaz de UsuarioLa primera gran revolución parece
tener que ver con la movilidad del PC. Hasta ahora, el entorno más portable
de que disponíamos era –valga la redundancia- el ordenador portátil.
Pero desde hace dos años están apareciendo (sobre todo en EE.UU.)
unos ordenadores llamados wearables (que se llevan puestos). Estos wearables
son dispositivos que se adosan a la ropa y que en última instancia, permiten
incluso, a través de sistemas inalámbricos, conectarse a la red,
y por tanto a cualquier otro ordenador conectado. El usuario (en forma similar
a lo que hemos visto en ciertos filmes como Soldado Universal) dispone de un
dispositivo de visión virtual y lleva adosado en el antebrazo un teclado
manual, pero el futuro de estos dispositivos se basa en dos técnicas
relacionadas con el lenguaje hablado: el Reconocimiento del Habla (speech recognition)
y el Procesamiento del Lenguaje Natural. Uso de un ordenador tipo wearable Hay
que recordar que se trata de distintos objetivos: el reconocimiento del habla
sólo pretende identificar órdenes emitidas por el usuario y asociarlas
a instrucciones dadas al ordenador, eliminando así el uso del teclado
y el ratón. El procesamiento del lenguaje natural, pretende reconocer
tales órdenes dentro de contextos más complejos, como frases con
significado parecido, metáforas, etc. Se basan en la potencia de búsqueda
de voces en un diccionario especializado. Reconocimiento del habla (Speech Recognition)Las
próximas versiones de los sistemas operativos se anuncian con pleno soporte
de estas características y de hecho, ya hay varios programas que nos
permiten en la actualidad "dictar" al ordenador con un nivel de reconocimiento
del habla más que aceptable.La aplicación de los wearables en
la enseñanza virtual, no sólo permitirá desvincular al
alumno de una ubicación (su PC) sino que permitirá las clases
"in situ", es decir, un profesor virtual de pintura clásica
española podrá impartir directamente sus clases a alumnos que
estén visitando el Prado, pudiendo éstos solicitar todas las repeticiones
necesarias y explicaciones o preguntas adicionales que consideren importantes
en el proceso de aprendizaje. Mundos virtuales y AvataresPor su parte, algunos
de estos profesores, tampoco serán reales, sino virtuales, adoptando
la forma de un avatar. El avatar es un personaje virtual –y generalmente
antropomórfico- al que un profesor real le ha "inculcado" –nunca
mejor dicho- sus propias características y conocimientos. Se parecerá
al profesor real, hablará como el profesor real y tendrá acceso
a una inmensa base de datos de conocimientos de forma que dispondrá de
una memoria gigantesca y una gran capacidad de respuesta. Incluso, con el tiempo
será capaz de responder al estado emocional del usuario evaluando un
conjunto de constantes fisiológicas del mismo, y determinando cómo
debe ser el mecanismo de comunicación (lingüístico, y también
psicológico) con ése alumno dado en ése instante dado.Un
ejemplo de esto es Microsoft V-Chat. Se trata de un proyecto ya muy desarrollado
tendente a permitir que los usuarios puedan comunicarse entre sí utilizando
para ello un espacio virtual generado por el programa y asumiendo cada interlocutor
la forma de un avatar, que puede ser definido a gusto de cada uno para preservar
la privacidad. Estos avatares, que son en realidad objetos programables, poseen
una amplia gama de gestos predeterminados para permitir a los usuarios expresarse
con suficiente riqueza gestual. El espacio virtual además, se recrea
con motivos que tienen que ver con el tema del que es objeto la comunicación.Por
si esto fuera poco, las tecnologías del reconocimiento del habla inteligentes,
pretenden –mediante en uso de sistemas basados en lógica difusa-
conseguir que las palabras del usuario sean inteligibles en distintos entornos
en los que el wearable pueda estar actuando: calles abarrotadas, campos deportivos,
lugares con alto nivel de eco o reverberación, etc. Tecnología
de la visión y ciberimplantesMás allá incluso del reconocimiento
del habla, aparece la capacidad de manejar el ordenador mentalmente. Hace un
par de meses, veíamos cómo una serie de implantes aplicados a
una persona tetrapléjica, permitían que tras un breve aprendizaje,
ésta pudiera manejar el ordenador de forma "intencional", esto
es, pensando lo que quería que el cursor hiciese. Tras unos pocos días
de práctica, conseguía rendimientos similares a los de una persona
con plena capacidad física, abriendo un camino importantísimo
al acceso a ordenadores a este colectivo.Y no sólo es aplicable a personas
con discapacidad total sino a otras con discapacidades en el habla, o sencillamente
a aquellos que deseen manejar sistemas con pocos elementos de entrada en ambientes
especiales. Esto no parece tener una aplicación directa en la enseñanza
a distancia, pero sí permitirá el acceso a esa enseñanza
a personas que hasta la fecha no pueden hacerlo.Por otra parte, el envío
de información en el sentido alumno-profesor y no sólo profesor-alumno,
capacitará el acercamiento del profesor a la realidad física del
alumno, y la implantación de una Tele presencia real, en la que el profesor,
al conectarse con un alumno podrá "ver" lo que está
haciendo, igual que una clase real, y eventualmente, sugerirle opciones alternativas
o soluciones a sus problemas.Llevando estas ideas más allá, y
parafraseando a Eric Horvitz, del equipo de desarrollo de Tecnologías
de la Visión en Microsoft Research Center, "el futuro consiste en
un sistema que reconozca al usuario en toda su dimensión, no solamente
a través del teclado". El usuario se dirigirá a la máquina
mediante órdenes habladas e incluso mediante gestos preprogramados, que
serán reconocidos por los sistemas de audio y visión artificial
del ordenador. Esto implica un cambio radical en el sistema operativo, o como
se está propugnando en la actualidad, "una extensión de los
interfaces clásicos de forma que existan muchos modos de interacción
máquina-usuario y sea posible una personalización dependiendo
de un usuario concreto". Aula virtual con dos representaciones de un asistenteEsto
significa que los sistemas futuros deberán "aprender" las características
del usuario que los maneje y con el tiempo llegar a familiarizarse con él,
de forma que éste pueda programar diferentes secuencias de acciones mediante
un conjunto de frases específicas.Precisamente por ello, en los desarrollos
de laboratorio, se trabaja de forma separada, programando, por un lado, los
contenidos y por otro el modo de presentación, de manera que el programa
encargado de la fusión de ambos pueda, a requerimientos del usuario,
seleccionar la forma preferida por éste.Se trata en realidad de una forma
más avanzada de algo que ya existe y empieza a cobrar una importancia
cada vez mayor dentro de el diseño de sistemas de transferencia de información
por Internet: el estándar XML. La diferencia es que mediante XML, los
datos no viajan en un formato binario desde el proveedor al usuario sino en
texto plano (reconocible por cualquier plataforma) y tampoco lo hacen ligados
a una forma de presentación. Esa forma de presentación se define
separadamente, permitiendo que el usuario seleccione la más adecuada
a sus necesidades. Computación ubicuaPor Computación ubicua entendemos
la terminación del paradigma que presupone la presencia cercana del hombre
a la máquina para su interacción con ella. Ya existen proyectos
muy avanzados en este sentido (como EasyLiving) que se basan en estos conceptos.
No olvidemos, añade Steven Shafer del proyecto EasyLinving, que se trata
del primer paso para conseguir una auténtica Domótica: la ciencia
de la aplicación de la informática al control de las viviendas.
EL ordenador deberá de reconocer la presencia (incluso antes, la mera
aproximación) del usuario de la vivienda y actuar en consecuencia encendiendo
las luces y apagándolas a medida que éste se desplaza por la misma.
También atenderá a sus peticiones sobre el control de distintos
aspectos del funcionamiento del hogar (subir y bajar persianas, cerrar puertas,
controlar electrodomésticos, etc.). Del mismo modo se podrán programar
acciones sobre el hogar de la misma forma que ahora programamos el vídeo.
(Bueno, esperemos que de una forma algo más sencilla...).La Domótica
remota, a su vez, no será más que la extensión de estos
conceptos incluyendo el reconocimiento del habla (que incluirá el reconocimiento
de la huella digital única de voz que cada usuario habrá programado)
y que permitirá el control y comprobación de los estados de una
vivienda mediante una simple llamada al sistema, que reconocerá la voz
de su amo y obrará en consecuencia. Al menos, así lo espera Rajesh
Rao del Salk Institute en la Universidad de Washington, que dirige un programa
sobre la disciplina conocida como Computer Learning (Aprendizaje del ordenador)
Inteligencia Artificial y Razonamiento Aproximado El que un ordenador sea capaz
de aprender tiene mucho que ver con la inteligencia artificial. Es una de las
ramas de la informática en las que más esperanzas había
puestas allá por los años 80, y que –aparentemente- más
ha defraudado en sus expectativas reales. Eso no significa que se trate de una
vía muerta, ni mucho menos, y tampoco que no se hayan hecho progresos
desde entonces. Resumiendo al máximo, diremos que un programa de inteligencia
artificial, se basa en dos componentes fundamentales: una base de datos de conocimientos
y un motor de inferencia. La parte "inteligente" se encuentra asociada
–claro está- al motor de inferencia.Lo que pretende en un primer
estadio la inteligencia artificial, es construir programas que sean capaces
de "aprender" sobre un tema dado a medida que su funcionamiento crece.
Con el tiempo, el sistema se convierte en lo que se denomina un "sistema
experto". Para ello, van anotando en su base de datos todo aquello que
resulta de interés para tener una mayor capacidad de respuesta. El problema
reside en saber cómo determinar lo que se apunta, establecer probabilidades,
etc.Existen, además no pocas disquisiciones de carácter filosófico
acerca del futuro y posibilidades de la IA. Para los partidarios de la llamada
IA fuerte, como Marvin Minsky (Instituto Tecnológico de Massachussets),
si consiguiéramos transferir a un sistema toda la información
de un individuo, no habría diferencia entre el individuo y el sistema
transferido. Para los partidarios de la IA débil, con el físico
y premio Nóbel Roger Penrose (Universidad de Cambridge, Inglaterra) a
la cabeza, existen cosas en un ser humano que nunca podrán ser implantadas
en un sistema informático. Personalmente, me adhiero a las ideas de Penrose,
en contra del reduccionismo minskyano, pero reconozco que los avances actuales
en materia de algoritmos genéticos, lógica borrosa (o multivaluada,
o difusa) y redes neuronales, están haciendo cada vez más posible
la reproducción de ciertos "mecanismos de pensamiento" en algunos
programas de ordenador.Estas herramientas de cómputo, se agrupan en ocasiones
bajo el epígrafe de Razonamiento Aproximado, y tienen por objeto aproximar
la lógica de procesamiento del ordenador al modo de razonamiento de los
seres humanos.Los Algoritmos Genéticos son métodos adaptativos
que pueden usarse para resolver problemas de búsqueda y optimización.
Están basados en el proceso genético de los organismos vivos.
A lo largo de las generaciones, las poblaciones evolucionan en la naturaleza
de acuerdo con los principios de la selección natural y la supervivencia
de los más fuertes, postulados por Darwin. Por imitación de este
proceso, los Algoritmos Genéticos son capaces de ir creando soluciones
para problemas del mundo real. La evolución de dichas soluciones hacia
valores óptimos del problema depende en buena medida de una adecuada
codificación de las mismas.Por explicarlo brevemente, la idea reside
en que la solución óptima para un problema, muchas veces se encuentra
en algún tipo de híbrido entre las soluciones encontradas a priori
dentro de todas las soluciones posibles. Es como si la solución óptima
ya se encontrara –fragmentada- dentro del primer conjunto de soluciones
o aproximaciones posibles al problema. Los algoritmos genéticos, tratan
de llegar a esa solución optima a partir de decisiones inteligentes y
no mediante la fuerza bruta, evitando así tener que probar una a una
lo que en ocasiones resultan ser millones de resultados posibles.Otro cambio
importante en el modo de hacer software se deriva del concepto de Lógica
Difusa (o borrosa). Los sistemas difusos (fuzzy systems) se introducen para
manejar eficazmente conceptos vagos e imprecisos como los empleados en la vida
cotidiana, y que nuestro cerebro está acostumbrado a tratar. Por ejemplo,
en la realidad el agua no se presenta en tan solo dos estados, ‘caliente’
o ‘fría’, como diría la lógica booleana, sino
más bien ‘gélida’, ‘fría’, ‘templada’,
‘caliente’ o ‘ardiendo’. A partir de estos conceptos,
y como generalización de las reglas de la lógica booleana, base
de nuestros sistemas digitales, los sistemas borrosos llevan a cabo un tipo
de razonamiento aproximado semejante al desarrollado por el cerebro.La importancia
de ésta forma de razonamiento está siendo potenciada e incluso
cuenta en España con un organismo oficial, la Sociedad Española
de Lógica Difusa, quien en octubre del año pasado, realizaba una
reunión para planificar estrategias, organizada por la Universidad de
las Islas Baleares y el Consejo Superior de Investigaciones Científicas,
para promover una sociedad equivalente a nivel europeo. En el campo de las aplicaciones
prácticas, ya existen sistemas de control de centrales nucleares que
funcionan con lógica difusa, y en un marco más local, Francisco
Herrera, de la Universidad de Granada, un método para clasificar clientes
que está en estudio actual por una conocida caja de ahorros. Su sistema
es perfectamente extrapolable a la clasificación de alumnos, y lo que
es mejor, a las evaluaciones de exámenes, donde la lógica tradicional
sigue siendo uno de los caballos de batalla. Cuando un alumno suspende un examen
con una nota de 4,9, la pregunta es siempre la misma: ¿Realmente una
décima de punto establece una división clara entre los que conocen
un tema y los que no?.Las redes neuronales artificiales (artificial neural networks),
mediante un estilo de computación paralelo, distribuido y adaptativo,
son capaces de aprender a partir de ejemplos. Estos sistemas imitan esquemáticamente
la estructura hardware (neuronal) del cerebro para tratar de reproducir algunas
de sus capacidades. En la práctica, una red neuronal artificial puede
simularse mediante un programa de ordenador, o bien realizarse en circuitos
electrónicos específicos, dotados de cierto paralelismo de cómputo.Por
el momento, se trata de sistemas que pretenden ayudar a la toma de decisiones.
En España, existen ya un buen número de proyectos realizados por
universidades que ofrecen soluciones diversas basadas en éstas técnicas.
Se trata de iniciativas generalmente auspiciadas por entidades privadas.Pero
ya se está hablando de sistemas de enseñanza aplicados especialmente
a aquellas materias de gran dificultad, o que requieren un alto grado de explicación
para su comprensión total. Un sistema tal, podría –a partir
de la evaluación de los resultados de los alumnos- ir realizando ligeras
modificaciones en el sistema de exposición de los temas, hasta que apreciara
que a un modo de exposición concreto, se obtuviesen los mejores resultados
en la comprensión, sirviendo –paralelamente- como un valioso mecanismo
de investigación acerca de los modos de aprendizaje de ciertas materias.
Teoría del Caos y Geometría FractalCAOS es el acrónimo
de Comportamiento Anómalo de Organizaciones y Sistemas. El caos es un
modelo de gran potencia para estudiar sistemas que muestran una alta sensibilidad
a las condiciones iníciales. Así por ejemplo, el estudio de turbulencias
en dinámica de fluidos, el análisis de los comportamientos atmosférico
y económico, el estudio del comportamiento cardíaco se han visto
favorecidos por la introducción en ellos de los modelos de caos. El canal
de comunicaciónYa hemos anticipado algunos aspectos de la influencia
del canal de comunicación en la comunicación misma y el modo que
se recibe y emite por parte del usuario, así como de aquellas cosas que
posibilita un canal de comunicación rápido.En estos momentos,
el gran objetivo por parte de quienes quieren poner estos mecanismos a disposición
del público es el denominado "ancho de banda": conseguir una
auténtica autopista de la comunicación y no un camino vecinal
como estaba sucediendo hasta ahora.Los medios para lograrlo ya existen, pero
el problema de instalar esos servicios es que son caros y llevan tiempo. De
un par de años a esta parte, se han estado observando propuestas más
que curiosas para utilizar vías alternativas de comunicación,
que van desde la propia línea de red eléctrica, pasando por la
comunicación inalámbrica por satélite, y llegando incluso
a una idea propuesta por un grupo inglés y probada en una pequeña
ciudad cercana a Leeds consistente en utilizar las farolas como medio de creación
de una red urbana. Formatos de compresión y velocidad de transferenciaPero
el problema no reside únicamente en el hardware. Cuando la transmisión
es de texto plano, ahora obtenemos unas "ratios" de transferencia
aceptables. Lo difícil es transferir contenidos multimedia, debido a
que mediante el sistema de almacenamiento que utilizamos actualmente, se deben
transferir muchos megabytes de información para que el usuario reciba
un simple vídeo de 5 minutos de duración.Por ello se investiga
sobre formatos mejorados de audio y vídeo preparados expresamente para
su envío a través de la red. Los estándares propuestos
MPEG-4 y MPEG-7, tienen precisamente esa idea central.Prácticamente,
se espera que todo el software que viaje por la red lo haga de forma comprimida,
lo que requiere de un software especial, pero, también puede conseguirse
mediante un hardware de compresión diseñado de tal forma que permita
reducir en un factor de 10 el volumen de los ficheros que viajan por la red.
En esta disciplina, como en muchas otras, los investigadores, tanto del software
como del hardware, se ven obligados a trabajar de forma conjunta Optimación
del Acceso a información en Internet (Internet Information Retrieval)El
llamado Internet Information Retrieval, es un proyecto que, mediante el uso
de gran parte de las tecnologías mencionadas anteriormente, pretende
hacer viable el transporte de contenidos multimedia a través de la red,
incluso en condiciones precarias. Para ello, se han centrado en técnicas
de Aprendizaje Digital (Machine Learning), y acceso inteligente a la información
con técnicas basadas en XML y Minería de Datos, todo unido a las
ya citadas del procesamiento del lenguaje natural, e interfaces multimodales
de usuario. Seguridad y CriptografíaOtro problema serio que se ha planteado
desde el comienzo de la utilización masiva de Internet es la privacidad
de la información que viaja por la red. Aunque las técnicas criptográficas
han mejorado mucho y los servidores seguros permiten el envío y recepción
de información privada con un razonable nivel de protección, los
nuevos contenidos también deben de estar sujetos a los mismos criterios.Todas
las empresas productoras de software han comprendido esto a la perfección
y se han empeñado seriamente en la consecución de sistemas seguros
de información. Microsoft, modificó su estandar de Modelo de Objetos
de Componentes (COM) hacia un modelo distribuido (DCOM), introduciendo dos características
relacionadas con la seguridad: el uso de CRIPTOAPI (librerías de encriptación
basadas en algoritmos complejos), y Authenticode (un sistema de autenticación
digital de componentes).Si hacemos caso a lo que nos indican sus autores, un
PC actual puede generar claves de seguridad de tal nivel de complejidad, que
un superordenador tardaría cerca de un millón de años en
descifrarlas, y probablemente, transcurrido ese tiempo ya no sea necesario su
uso... Los ContenidosEl problema de la autoríaOtro de los retos actuales
se presenta cuando al plantear la autoría de cualquier sistema que implique
multimedia. Si el modo de plasmar la información que queremos mostrar
cambia a multimedia, es preciso que el autor tenga los conocimientos suficientes
acerca de la creación de sistemas multimedia o contrate la asesoría
de un experto. Pero, dada la cantidad ingente de trabajo por hacer, no existen
técnicos suficientes para ello. Debido a esto, se están desarrollando
sistemas que permitan a un autor, crear contenidos multimedia sin necesidad
de tener conocimientos especiales de informática.La iniciativa ActiveVRML
se presenta como un sistema de creación de contenidos de fácil
utilización y que pretende llegar a todos los usuarios, permitiéndoles
crear contenidos de una calidad mínima sin necesidad de conocimientos
previos. Desarrollo de software para la mejora de la educaciónDentro
de este apartado, destaca la iniciativa MURL (Multi-University Research Laboratory),
auspiciada conjuntamente por el Instituto Tecnológico de Massachussets,
las universidades de Stanford, Carnegie-Mellon y Washington y los centros de
investigación de Xerox en Palo Alto y de Microsoft. Consta de un programa
de trabajo muy exhaustivo de entre el que caben destacar las siguientes líneas
de investigación: Utilización de juegos de ordenador en el diseño
efectivo de medios educativosEl proyecto pretende aunar el gran tirón
de lo lúdico a través del ordenador con la enseñanza de
elementos técnicos mediante el ordenador. Para ello se han diseñado
juegos en los que el alumno es siempre el protagonista, pero que para su solución
requieren de conocimientos en una materia dada. Para impartir tales conocimientos,
una enciclopedia virtual concebida al efecto, introduce al alumno en estos conceptos,
y los ejercicios se presentan realmente como problemas que solucionan el paso
a un nivel siguiente del juego.Mediante estas técnicas el alumno se acostumbra
a "perder el miedo a la teoría", e incluso a considerarla necesaria
para la correcta solución del juego, y llegando a comprender su importancia
en proceso que aborda el aprendizaje justo en sentido contrario al tradicional:
se plantea el problema, y se sugiere la solución mediante un conocimiento.
Interacción humana con ordenadoresOtra área de gran desarrollo
se centra actualmente en lo que en EE.UU. se denomina HCI (Human-Computer Interaction).
La Universidad Carnegie-Mellon, aparte de distinguirse por sus lumbreras en
el campo de la economía (Herbert Simon y otros), desarrolla actualmente
un ambicioso programa de trabajo en este sentido compuesto de un número
muy elevado y a la vez interesante de líneas de investigación
relacionadas con HCI, entre los que me he permitido entresacar y comentar los
que más directamente afectan al proceso de la enseñanza a distancia.
Tutoría avanzada por ordenador (Advanced Computer Tutoring)Se trata de
una propuesta que se basa en un hecho real constatado y muy simple: la enseñanza
es mucho más divertida cuando llega a ser personalizada y se realiza
a través de ejemplos o ejercicios. El desarrollo implica investigaciones
en las áreas de la interfaz de usuario, estructuras de conocimiento en
la resolución de problemas, optimización de algoritmos para el
reconocimiento de planes de estudio, retroalimentación de contenidos
y tiempos, y transferencia de conocimientos y diferencias individuales en el
proceso de aprendizaje. Además se mejoran las curvas de aprendizaje,
dirigiendo las decisiones docentes en el sentido de mejorar aquellos aspectos
de mayor debilidad o complejidad.En un segundo estadio, se prevén trabajos
sobre integración del software de enseñanza con el software estándar
(algo que podría realizarse perfectamente a través de la programación
de interfaces mediante tecnología ActiveX o CORBA), escalabilidad de
tareas a grandes grupos de estudio, y colaboración y distribución
mediante el uso de redes de comunicaciones. Computación avanzada para
las Ciencias de la EducaciónSe basa en que ciertos aspectos del razonamiento
científico y técnico son difíciles de aprender mediante
la lectura de materiales de texto tradicionales y pueden ser sensiblemente mejorados
mediante el uso de entornos informáticos. Un ejemplo puede ser la comprensión
de procesos complejos que varían en el tiempo y la planificación
e investigación de tales mecanismos. Mediante el uso de textos, gráficos,
multimedia y simulaciones, la Computación avanzada para las Ciencias
de la Educación, pretende suministrar un entorno más atractivo
y auto explicativo de la realidad a aprender, utilizando cuando es necesario
simulaciones de procesos que ponen al alumno en antecedentes de lo que realmente
es el problema que se quiere resolver y cuáles son los pasos a dar para
conseguirlo. Grabación de audio y video de bajo costeLa grabación
de audio y video todavía es costosa en el estado actual de la tecnología.
Se trabaja en tecnologías para la automatización de grabaciones
sin presencia humana que produzcan registros de alta calidad utilizando tecnologías
de la visión y gestión microfónica grupal, junto a reglas
básicas de la cinematografía. Incluso se planea la construcción
de sistemas expertos basados en avatares, que representen todo lo que un director
de cine sabe, por ejemplo.Así, podríamos consulta via Internet
la opinión del avatar de Spielberg acerca de cuál es la mejor
manera de filmar un dia de campo, o una llegada a meta, o cuál es el
enfoque correcto para un aula virtual con más de 50 avatares simultáneos.
Navegación y Anotación MultimediaMientras todo el mundo sabe (...)
navegar a través de textos escritos, esto no es así cuando se
trata de contenidos multimedia. La riqueza multimedia de los medios actuales
y más aún la que está por llegar hacen precisa una navegación
menos intuitiva y más dirigida al contenido. Para ello, se están
desarrollando sistemas de compresión audio-video de alto rendimiento,
que generen automáticamente índices y extractos de los contenidos
más sobresalientes.En esta línea, se trabaja conjuntamente con
las técnicas de la llamada Anotación Multimedia, en la que el
usuario puede marcar ciertos contenidos multimedia, hacer y revisar sus anotaciones
sobre ellos, y realizar sugerencias en línea. A su vez, el diseñador
de contenidos puede revisar las sugerencias estadísticamente, disponiendo
así de una referencia sobre los niveles de aceptación de la interfaz
de usuario propuesta, la calidad de contenidos, y los índices de audiencia.
Microsoft está trabajando en la actualidad en un proyecto denominado
CAF (Common Annotation Framework), diseñado para permitir este tipo de
interactividad. Espacios sociales conectados, VideoconferenciaLíneas
de investigación que profundizan en el uso más efectivo de vídeo
y audio en tiempo real para interacciones formales e informales. Algunos de
los aspectos investigados incluyen técnicas para incrementar el grado
de presencia virtual de participantes geográficamente distantes, el impacto
de factores sociales y las prácticas actuales en la adopción de
estas tecnologías por parte los usuarios, diseños para la mejora
de intercambios de flujo entre colaboradores síncronos y asíncronos,
y requerimientos de infraestructura para su soporte. Análisis social
de comunidades virtualesEl análisis del comportamiento de comunidades
virtuales (áreas de chat, news, foros de discusión), también
es objeto actual de estudio e investigación. Existen consideración
psico-sociales que pueden extrapolarse a este tipo de comunidades y sus interacciones.
La reputación individual, la cantidad y calidad de las contribuciones
individuales, así como el tamaño y naturaleza de los grupos implicados
configuran un conjunto de metadatos que están siendo analizados por programas
como Netscan, que utilizan principios sociológicos y técnicas
de Minería de Datos para mejorar las dinámicas de éstos
grupos y las interfaces que utilizan con el objeto de catalizar estos espacios
sociales, incentivando estructuras que mejoren la cooperación competitiva
y mejoren la calidad de los contenidos, y por tanto el grado de satisfacción
de los usuarios.Estas consideraciones se unen, por otro lado a los llamados
Estudios del uso de la tecnología, para responder a preguntas sobre el
diseño de software: ¿Utiliza el usuario todos los recursos que
un programa pone a su alcance? ¿Los grupos grandes, usan de forma correcta
las técnicas como NetMeeting? ¿Cómo deben diseñarse
las presentaciones para su visión posterior? De todas estas consideraciones
se espera obtener un continuo "feedback" por parte del usuario, quien
se convierte de este modo en parte activa del proceso de creación de
contenidos. ConclusiónEl número de proyectos de investigación
relacionados con la temática que nos ocupa es tan alto que se necesitaría
un libro para citarlos todos y eso sin hacerlo en profundidad. Con esta revisión
sólo hemos pretendido concienciar del hecho de que –por muy avanzada
que parezca una idea- probablemente ya hay varios grupos de trabajo que la están
estudiando y abordando, y que en gran parte, es la propia red la que nos puede
poner al día sobre lo que se hace ahora, que será a fin de cuentas,
lo que usaremos mañana. BibliografíaBootstrapping Statistical
Processing into a Rule-based Natural Language ParserRichardson, Stephen D. July
1994 enDistributed visual reasoning for intelligent information retrieval on
the WebC. Lee and Y.-T. Chen"Interacting With Computers" Volumen 12,
Número 5, Abril 2000 , pág. 445-467Intelligent graphical user
interface design utilizing multiple fuzzy agentsA. Agah and K. Tanie"Interacting
With Computers" Volumen 12, Número 5, Abril 2000 , pág. 529-542An
Introduction to Natural Computation, Ballard, D. H., The MIT Press. 1997Técnicas
de razonamiento aproximado. L. Valverde, P.García y L. Godó.REF.
REVISTA/LIBRO:En Inteligencia Artificial: Conceptos, técnicas, aplicaciones.
Marcombo, 93-100. 1987.Versión reducida en CHI'99 Extended Abstracts,
274-275MSR Tech Report 99-66 (PDF)On Some Logical Connectives for Fuzzy Set
Theory. C. Alsina, E. Trillas y L. ValverdeREF. REVISTA/LIBRO: J. of Math. Analysis
and Applications 93, 1, 1983. 15-26. CLAVE: A Acerca del Autor:Marino Posadas
es MCSD (Experto en soluciones de desarrollo de Microsoft) y profesor del Área
de Formación de Grupo EIDOS. Además de ser un experto en la actual
tecnología DNA bajo la que se desarrollan muchas soluciones para comercio
electrónico en Internet, ejerce habitualmente como profesor virtual,
ya que se encarga de la tutoría de uno de los cursos virtuales de informática
que en la actualidad se encuentran en Almagesto, el Campus de Grupo EIDOS.