Artículo
Nuevas tecnologías aplicadas al proceso virtual de enseñanza http://www.eidos.es/latino/Seminario/Articulos/NuevasTecnolog%C3%ADas/default.htmpor Marino Posadas IntroducciónLa mecanismos físicos que hacen posible cualquier proceso al que apliquemos el calificativo de virtual, se basan, actualmente, en tres componentes bien definidos: El PC, la red de comunicaciones y el proveedor de contenidos virtuales. Podemos asumirlo a una balanza cuyo fiel es el canal de comunicación y cuyo objetivo es alcanzar el equilibrio. Pero, al contrario de lo que sucede con la imagen estática de una balanza, los contenidos, representados en esta metáfora por el contrapeso, son cada vez más sofisticados y la demanda, representada aquí por el peso de los usuarios, cada vez mayor. Ello, obliga a los diseñadores de sistemas de comunicación a adecuar la potencia de sus medios a ese flujo constante de información.A su vez, las mejoras en los medios de comunicación, hacen posible un aumento de la oferta y consecuentemente, de la demanda. De esa forma, Internet es hoy un sistema abierto, en constante evolución tecnológica. No está demás, por tanto, que reflexionemos, siquiera someramente, sobre aquellos aspectos de la investigación de alto nivel que pueden aplicarse a cualquiera de estas facetas del proceso de enseñanza virtual y extrapolemos aquello que –fundada y previsiblemente- nos van a permitir hacer en un futuro inmediato. Las partes integrantesResumiéndolo en pocas palabras, aquello que afecta al proceso de enseñanza en cuanto al modo en que lo percibe el usuario, es lo que, genéricamente, entendemos por interfaz de usuario. La interfaz de usuario habla con nosotros, nos presenta contenidos, espera una respuesta o una solicitud de nuestra parte y actúa en consecuencia. Hasta el momento, esa interfaz de usuario se compone, el 99% de los casos, de un conjunto de ventanas sembradas de lo que llamamos controles, esto es, botones, cajas de texto, menús desplegables, cajas de diálogo, etc. Y la situación no varía excesivamente al utilizar páginas web como interfaz: las páginas reproducen esa situación familiar, aunque no estén –estrictamente hablando- formadas por controles.El apartado de comunicaciones, se fundamenta en un hardware (los canales físicos de conexión), y un software que lo maneja (protocolos de comunicación). De ambos también se preocupan las nuevas tecnologías, y sobre ambos se está trabajando en mejoras importantes, en algunos casos, de una magnitud tal, que posibilitarán cambios impensables en las otras dos áreas del proceso cognitivo.El observador eventual de este sistema de enseñanza, puede pensar que son éstos dos primeros aspectos los más susceptibles de mejora o innovación tecnológica, dado que –aparte del software usado en el suministro de contenidos-, no parecen existir grandes diferencias entre este lado de la balanza y la interfaz de usuario. Sin embargo, no es así en absoluto. Hay notables trabajos de investigación sobre la gestión de proveedores de contenidos y la optimización que requieren en su desarrollo. La Minería de Datos (Data Mining), el Data Warehousing, las Técnicas de Ayuda en Toma de Decisiones (OLAP), las Técnicas de Sondeo de Conocimientos y finalmente, los contenidos interactivos y multimedia suponen también un enorme cambio, porque permiten, por un lado, acceder a datos no evidentes en un principio a partir de las masas de información, y por otro, suministrar esa información en formatos a los que la tecnología no podía acceder hasta hace bien poco.Esa comunión entre las posibilidades del canal de comunicación y el contenido mismo, queda patente en la actualidad para unos pocos afortunados que tienen acceso a una modalidad especial de Internet llamada Internet2. El secreto de Internet2 es simple, la línea de comunicación pasa de ser el cable telefónico estándar a una línea de fibra óptica. Gracias a esa tecnología, se consiguen rendimientos de transferencia del orden de varios megabytes por segundo y eso significa que es posible hacer cosas como transmitir una operación desde el Hospital General de Bethesda hasta la Universidad de Berkeley en tiempo real, muy alta calidad, y pudiendo grabar todo el proceso para su reproducción posterior.Dado que esa velocidad es incluso superior a la que se obtiene en una red local, es posible ejecutar programas remotos, es decir que se encuentran en otros ordenadores alejados del nuestro pero que viajan instantáneamente a la máquina del usuario. Aparece aquí también un elemento económico del que ya se habla: el alquiler de software. Una versión del pay-per-view que podríamos denominar pay-per-use, o pago por utilización, y que, sin duda aparecerá cuando esta tecnología esté accesible al gran público. (Por el momento sólo se encuentran conectadas las más importantes universidades y centros de investigación norteamericanos, algunos centros de investigación europeos -como el CERN- y pocos más). Los cambios en la Interfaz de UsuarioLa primera gran revolución parece tener que ver con la movilidad del PC. Hasta ahora, el entorno más portable de que disponíamos era –valga la redundancia- el ordenador portátil. Pero desde hace dos años están apareciendo (sobre todo en EE.UU.) unos ordenadores llamados wearables (que se llevan puestos). Estos wearables son dispositivos que se adosan a la ropa y que en última instancia, permiten incluso, a través de sistemas inalámbricos, conectarse a la red, y por tanto a cualquier otro ordenador conectado. El usuario (en forma similar a lo que hemos visto en ciertos filmes como Soldado Universal) dispone de un dispositivo de visión virtual y lleva adosado en el antebrazo un teclado manual, pero el futuro de estos dispositivos se basa en dos técnicas relacionadas con el lenguaje hablado: el Reconocimiento del Habla (speech recognition) y el Procesamiento del Lenguaje Natural. Uso de un ordenador tipo wearable Hay que recordar que se trata de distintos objetivos: el reconocimiento del habla sólo pretende identificar órdenes emitidas por el usuario y asociarlas a instrucciones dadas al ordenador, eliminando así el uso del teclado y el ratón. El procesamiento del lenguaje natural, pretende reconocer tales órdenes dentro de contextos más complejos, como frases con significado parecido, metáforas, etc. Se basan en la potencia de búsqueda de voces en un diccionario especializado. Reconocimiento del habla (Speech Recognition)Las próximas versiones de los sistemas operativos se anuncian con pleno soporte de estas características y de hecho, ya hay varios programas que nos permiten en la actualidad "dictar" al ordenador con un nivel de reconocimiento del habla más que aceptable.La aplicación de los wearables en la enseñanza virtual, no sólo permitirá desvincular al alumno de una ubicación (su PC) sino que permitirá las clases "in situ", es decir, un profesor virtual de pintura clásica española podrá impartir directamente sus clases a alumnos que estén visitando el Prado, pudiendo éstos solicitar todas las repeticiones necesarias y explicaciones o preguntas adicionales que consideren importantes en el proceso de aprendizaje. Mundos virtuales y AvataresPor su parte, algunos de estos profesores, tampoco serán reales, sino virtuales, adoptando la forma de un avatar. El avatar es un personaje virtual –y generalmente antropomórfico- al que un profesor real le ha "inculcado" –nunca mejor dicho- sus propias características y conocimientos. Se parecerá al profesor real, hablará como el profesor real y tendrá acceso a una inmensa base de datos de conocimientos de forma que dispondrá de una memoria gigantesca y una gran capacidad de respuesta. Incluso, con el tiempo será capaz de responder al estado emocional del usuario evaluando un conjunto de constantes fisiológicas del mismo, y determinando cómo debe ser el mecanismo de comunicación (lingüístico, y también psicológico) con ése alumno dado en ése instante dado.Un ejemplo de esto es Microsoft V-Chat. Se trata de un proyecto ya muy desarrollado tendente a permitir que los usuarios puedan comunicarse entre sí utilizando para ello un espacio virtual generado por el programa y asumiendo cada interlocutor la forma de un avatar, que puede ser definido a gusto de cada uno para preservar la privacidad. Estos avatares, que son en realidad objetos programables, poseen una amplia gama de gestos predeterminados para permitir a los usuarios expresarse con suficiente riqueza gestual. El espacio virtual además, se recrea con motivos que tienen que ver con el tema del que es objeto la comunicación.Por si esto fuera poco, las tecnologías del reconocimiento del habla inteligentes, pretenden –mediante en uso de sistemas basados en lógica difusa- conseguir que las palabras del usuario sean inteligibles en distintos entornos en los que el wearable pueda estar actuando: calles abarrotadas, campos deportivos, lugares con alto nivel de eco o reverberación, etc. Tecnología de la visión y ciberimplantesMás allá incluso del reconocimiento del habla, aparece la capacidad de manejar el ordenador mentalmente. Hace un par de meses, veíamos cómo una serie de implantes aplicados a una persona tetrapléjica, permitían que tras un breve aprendizaje, ésta pudiera manejar el ordenador de forma "intencional", esto es, pensando lo que quería que el cursor hiciese. Tras unos pocos días de práctica, conseguía rendimientos similares a los de una persona con plena capacidad física, abriendo un camino importantísimo al acceso a ordenadores a este colectivo.Y no sólo es aplicable a personas con discapacidad total sino a otras con discapacidades en el habla, o sencillamente a aquellos que deseen manejar sistemas con pocos elementos de entrada en ambientes especiales. Esto no parece tener una aplicación directa en la enseñanza a distancia, pero sí permitirá el acceso a esa enseñanza a personas que hasta la fecha no pueden hacerlo.Por otra parte, el envío de información en el sentido alumno-profesor y no sólo profesor-alumno, capacitará el acercamiento del profesor a la realidad física del alumno, y la implantación de una Tele presencia real, en la que el profesor, al conectarse con un alumno podrá "ver" lo que está haciendo, igual que una clase real, y eventualmente, sugerirle opciones alternativas o soluciones a sus problemas.Llevando estas ideas más allá, y parafraseando a Eric Horvitz, del equipo de desarrollo de Tecnologías de la Visión en Microsoft Research Center, "el futuro consiste en un sistema que reconozca al usuario en toda su dimensión, no solamente a través del teclado". El usuario se dirigirá a la máquina mediante órdenes habladas e incluso mediante gestos preprogramados, que serán reconocidos por los sistemas de audio y visión artificial del ordenador. Esto implica un cambio radical en el sistema operativo, o como se está propugnando en la actualidad, "una extensión de los interfaces clásicos de forma que existan muchos modos de interacción máquina-usuario y sea posible una personalización dependiendo de un usuario concreto". Aula virtual con dos representaciones de un asistenteEsto significa que los sistemas futuros deberán "aprender" las características del usuario que los maneje y con el tiempo llegar a familiarizarse con él, de forma que éste pueda programar diferentes secuencias de acciones mediante un conjunto de frases específicas.Precisamente por ello, en los desarrollos de laboratorio, se trabaja de forma separada, programando, por un lado, los contenidos y por otro el modo de presentación, de manera que el programa encargado de la fusión de ambos pueda, a requerimientos del usuario, seleccionar la forma preferida por éste.Se trata en realidad de una forma más avanzada de algo que ya existe y empieza a cobrar una importancia cada vez mayor dentro de el diseño de sistemas de transferencia de información por Internet: el estándar XML. La diferencia es que mediante XML, los datos no viajan en un formato binario desde el proveedor al usuario sino en texto plano (reconocible por cualquier plataforma) y tampoco lo hacen ligados a una forma de presentación. Esa forma de presentación se define separadamente, permitiendo que el usuario seleccione la más adecuada a sus necesidades. Computación ubicuaPor Computación ubicua entendemos la terminación del paradigma que presupone la presencia cercana del hombre a la máquina para su interacción con ella. Ya existen proyectos muy avanzados en este sentido (como EasyLiving) que se basan en estos conceptos. No olvidemos, añade Steven Shafer del proyecto EasyLinving, que se trata del primer paso para conseguir una auténtica Domótica: la ciencia de la aplicación de la informática al control de las viviendas. EL ordenador deberá de reconocer la presencia (incluso antes, la mera aproximación) del usuario de la vivienda y actuar en consecuencia encendiendo las luces y apagándolas a medida que éste se desplaza por la misma. También atenderá a sus peticiones sobre el control de distintos aspectos del funcionamiento del hogar (subir y bajar persianas, cerrar puertas, controlar electrodomésticos, etc.). Del mismo modo se podrán programar acciones sobre el hogar de la misma forma que ahora programamos el vídeo. (Bueno, esperemos que de una forma algo más sencilla...).La Domótica remota, a su vez, no será más que la extensión de estos conceptos incluyendo el reconocimiento del habla (que incluirá el reconocimiento de la huella digital única de voz que cada usuario habrá programado) y que permitirá el control y comprobación de los estados de una vivienda mediante una simple llamada al sistema, que reconocerá la voz de su amo y obrará en consecuencia. Al menos, así lo espera Rajesh Rao del Salk Institute en la Universidad de Washington, que dirige un programa sobre la disciplina conocida como Computer Learning (Aprendizaje del ordenador) Inteligencia Artificial y Razonamiento Aproximado El que un ordenador sea capaz de aprender tiene mucho que ver con la inteligencia artificial. Es una de las ramas de la informática en las que más esperanzas había puestas allá por los años 80, y que –aparentemente- más ha defraudado en sus expectativas reales. Eso no significa que se trate de una vía muerta, ni mucho menos, y tampoco que no se hayan hecho progresos desde entonces. Resumiendo al máximo, diremos que un programa de inteligencia artificial, se basa en dos componentes fundamentales: una base de datos de conocimientos y un motor de inferencia. La parte "inteligente" se encuentra asociada –claro está- al motor de inferencia.Lo que pretende en un primer estadio la inteligencia artificial, es construir programas que sean capaces de "aprender" sobre un tema dado a medida que su funcionamiento crece. Con el tiempo, el sistema se convierte en lo que se denomina un "sistema experto". Para ello, van anotando en su base de datos todo aquello que resulta de interés para tener una mayor capacidad de respuesta. El problema reside en saber cómo determinar lo que se apunta, establecer probabilidades, etc.Existen, además no pocas disquisiciones de carácter filosófico acerca del futuro y posibilidades de la IA. Para los partidarios de la llamada IA fuerte, como Marvin Minsky (Instituto Tecnológico de Massachussets), si consiguiéramos transferir a un sistema toda la información de un individuo, no habría diferencia entre el individuo y el sistema transferido. Para los partidarios de la IA débil, con el físico y premio Nóbel Roger Penrose (Universidad de Cambridge, Inglaterra) a la cabeza, existen cosas en un ser humano que nunca podrán ser implantadas en un sistema informático. Personalmente, me adhiero a las ideas de Penrose, en contra del reduccionismo minskyano, pero reconozco que los avances actuales en materia de algoritmos genéticos, lógica borrosa (o multivaluada, o difusa) y redes neuronales, están haciendo cada vez más posible la reproducción de ciertos "mecanismos de pensamiento" en algunos programas de ordenador.Estas herramientas de cómputo, se agrupan en ocasiones bajo el epígrafe de Razonamiento Aproximado, y tienen por objeto aproximar la lógica de procesamiento del ordenador al modo de razonamiento de los seres humanos.Los Algoritmos Genéticos son métodos adaptativos que pueden usarse para resolver problemas de búsqueda y optimización. Están basados en el proceso genético de los organismos vivos. A lo largo de las generaciones, las poblaciones evolucionan en la naturaleza de acuerdo con los principios de la selección natural y la supervivencia de los más fuertes, postulados por Darwin. Por imitación de este proceso, los Algoritmos Genéticos son capaces de ir creando soluciones para problemas del mundo real. La evolución de dichas soluciones hacia valores óptimos del problema depende en buena medida de una adecuada codificación de las mismas.Por explicarlo brevemente, la idea reside en que la solución óptima para un problema, muchas veces se encuentra en algún tipo de híbrido entre las soluciones encontradas a priori dentro de todas las soluciones posibles. Es como si la solución óptima ya se encontrara –fragmentada- dentro del primer conjunto de soluciones o aproximaciones posibles al problema. Los algoritmos genéticos, tratan de llegar a esa solución optima a partir de decisiones inteligentes y no mediante la fuerza bruta, evitando así tener que probar una a una lo que en ocasiones resultan ser millones de resultados posibles.Otro cambio importante en el modo de hacer software se deriva del concepto de Lógica Difusa (o borrosa). Los sistemas difusos (fuzzy systems) se introducen para manejar eficazmente conceptos vagos e imprecisos como los empleados en la vida cotidiana, y que nuestro cerebro está acostumbrado a tratar. Por ejemplo, en la realidad el agua no se presenta en tan solo dos estados, ‘caliente’ o ‘fría’, como diría la lógica booleana, sino más bien ‘gélida’, ‘fría’, ‘templada’, ‘caliente’ o ‘ardiendo’. A partir de estos conceptos, y como generalización de las reglas de la lógica booleana, base de nuestros sistemas digitales, los sistemas borrosos llevan a cabo un tipo de razonamiento aproximado semejante al desarrollado por el cerebro.La importancia de ésta forma de razonamiento está siendo potenciada e incluso cuenta en España con un organismo oficial, la Sociedad Española de Lógica Difusa, quien en octubre del año pasado, realizaba una reunión para planificar estrategias, organizada por la Universidad de las Islas Baleares y el Consejo Superior de Investigaciones Científicas, para promover una sociedad equivalente a nivel europeo. En el campo de las aplicaciones prácticas, ya existen sistemas de control de centrales nucleares que funcionan con lógica difusa, y en un marco más local, Francisco Herrera, de la Universidad de Granada, un método para clasificar clientes que está en estudio actual por una conocida caja de ahorros. Su sistema es perfectamente extrapolable a la clasificación de alumnos, y lo que es mejor, a las evaluaciones de exámenes, donde la lógica tradicional sigue siendo uno de los caballos de batalla. Cuando un alumno suspende un examen con una nota de 4,9, la pregunta es siempre la misma: ¿Realmente una décima de punto establece una división clara entre los que conocen un tema y los que no?.Las redes neuronales artificiales (artificial neural networks), mediante un estilo de computación paralelo, distribuido y adaptativo, son capaces de aprender a partir de ejemplos. Estos sistemas imitan esquemáticamente la estructura hardware (neuronal) del cerebro para tratar de reproducir algunas de sus capacidades. En la práctica, una red neuronal artificial puede simularse mediante un programa de ordenador, o bien realizarse en circuitos electrónicos específicos, dotados de cierto paralelismo de cómputo.Por el momento, se trata de sistemas que pretenden ayudar a la toma de decisiones. En España, existen ya un buen número de proyectos realizados por universidades que ofrecen soluciones diversas basadas en éstas técnicas. Se trata de iniciativas generalmente auspiciadas por entidades privadas.Pero ya se está hablando de sistemas de enseñanza aplicados especialmente a aquellas materias de gran dificultad, o que requieren un alto grado de explicación para su comprensión total. Un sistema tal, podría –a partir de la evaluación de los resultados de los alumnos- ir realizando ligeras modificaciones en el sistema de exposición de los temas, hasta que apreciara que a un modo de exposición concreto, se obtuviesen los mejores resultados en la comprensión, sirviendo –paralelamente- como un valioso mecanismo de investigación acerca de los modos de aprendizaje de ciertas materias. Teoría del Caos y Geometría FractalCAOS es el acrónimo de Comportamiento Anómalo de Organizaciones y Sistemas. El caos es un modelo de gran potencia para estudiar sistemas que muestran una alta sensibilidad a las condiciones iníciales. Así por ejemplo, el estudio de turbulencias en dinámica de fluidos, el análisis de los comportamientos atmosférico y económico, el estudio del comportamiento cardíaco se han visto favorecidos por la introducción en ellos de los modelos de caos. El canal de comunicaciónYa hemos anticipado algunos aspectos de la influencia del canal de comunicación en la comunicación misma y el modo que se recibe y emite por parte del usuario, así como de aquellas cosas que posibilita un canal de comunicación rápido.En estos momentos, el gran objetivo por parte de quienes quieren poner estos mecanismos a disposición del público es el denominado "ancho de banda": conseguir una auténtica autopista de la comunicación y no un camino vecinal como estaba sucediendo hasta ahora.Los medios para lograrlo ya existen, pero el problema de instalar esos servicios es que son caros y llevan tiempo. De un par de años a esta parte, se han estado observando propuestas más que curiosas para utilizar vías alternativas de comunicación, que van desde la propia línea de red eléctrica, pasando por la comunicación inalámbrica por satélite, y llegando incluso a una idea propuesta por un grupo inglés y probada en una pequeña ciudad cercana a Leeds consistente en utilizar las farolas como medio de creación de una red urbana. Formatos de compresión y velocidad de transferenciaPero el problema no reside únicamente en el hardware. Cuando la transmisión es de texto plano, ahora obtenemos unas "ratios" de transferencia aceptables. Lo difícil es transferir contenidos multimedia, debido a que mediante el sistema de almacenamiento que utilizamos actualmente, se deben transferir muchos megabytes de información para que el usuario reciba un simple vídeo de 5 minutos de duración.Por ello se investiga sobre formatos mejorados de audio y vídeo preparados expresamente para su envío a través de la red. Los estándares propuestos MPEG-4 y MPEG-7, tienen precisamente esa idea central.Prácticamente, se espera que todo el software que viaje por la red lo haga de forma comprimida, lo que requiere de un software especial, pero, también puede conseguirse mediante un hardware de compresión diseñado de tal forma que permita reducir en un factor de 10 el volumen de los ficheros que viajan por la red. En esta disciplina, como en muchas otras, los investigadores, tanto del software como del hardware, se ven obligados a trabajar de forma conjunta Optimación del Acceso a información en Internet (Internet Information Retrieval)El llamado Internet Information Retrieval, es un proyecto que, mediante el uso de gran parte de las tecnologías mencionadas anteriormente, pretende hacer viable el transporte de contenidos multimedia a través de la red, incluso en condiciones precarias. Para ello, se han centrado en técnicas de Aprendizaje Digital (Machine Learning), y acceso inteligente a la información con técnicas basadas en XML y Minería de Datos, todo unido a las ya citadas del procesamiento del lenguaje natural, e interfaces multimodales de usuario. Seguridad y CriptografíaOtro problema serio que se ha planteado desde el comienzo de la utilización masiva de Internet es la privacidad de la información que viaja por la red. Aunque las técnicas criptográficas han mejorado mucho y los servidores seguros permiten el envío y recepción de información privada con un razonable nivel de protección, los nuevos contenidos también deben de estar sujetos a los mismos criterios.Todas las empresas productoras de software han comprendido esto a la perfección y se han empeñado seriamente en la consecución de sistemas seguros de información. Microsoft, modificó su estandar de Modelo de Objetos de Componentes (COM) hacia un modelo distribuido (DCOM), introduciendo dos características relacionadas con la seguridad: el uso de CRIPTOAPI (librerías de encriptación basadas en algoritmos complejos), y Authenticode (un sistema de autenticación digital de componentes).Si hacemos caso a lo que nos indican sus autores, un PC actual puede generar claves de seguridad de tal nivel de complejidad, que un superordenador tardaría cerca de un millón de años en descifrarlas, y probablemente, transcurrido ese tiempo ya no sea necesario su uso... Los ContenidosEl problema de la autoríaOtro de los retos actuales se presenta cuando al plantear la autoría de cualquier sistema que implique multimedia. Si el modo de plasmar la información que queremos mostrar cambia a multimedia, es preciso que el autor tenga los conocimientos suficientes acerca de la creación de sistemas multimedia o contrate la asesoría de un experto. Pero, dada la cantidad ingente de trabajo por hacer, no existen técnicos suficientes para ello. Debido a esto, se están desarrollando sistemas que permitan a un autor, crear contenidos multimedia sin necesidad de tener conocimientos especiales de informática.La iniciativa ActiveVRML se presenta como un sistema de creación de contenidos de fácil utilización y que pretende llegar a todos los usuarios, permitiéndoles crear contenidos de una calidad mínima sin necesidad de conocimientos previos. Desarrollo de software para la mejora de la educaciónDentro de este apartado, destaca la iniciativa MURL (Multi-University Research Laboratory), auspiciada conjuntamente por el Instituto Tecnológico de Massachussets, las universidades de Stanford, Carnegie-Mellon y Washington y los centros de investigación de Xerox en Palo Alto y de Microsoft. Consta de un programa de trabajo muy exhaustivo de entre el que caben destacar las siguientes líneas de investigación: Utilización de juegos de ordenador en el diseño efectivo de medios educativosEl proyecto pretende aunar el gran tirón de lo lúdico a través del ordenador con la enseñanza de elementos técnicos mediante el ordenador. Para ello se han diseñado juegos en los que el alumno es siempre el protagonista, pero que para su solución requieren de conocimientos en una materia dada. Para impartir tales conocimientos, una enciclopedia virtual concebida al efecto, introduce al alumno en estos conceptos, y los ejercicios se presentan realmente como problemas que solucionan el paso a un nivel siguiente del juego.Mediante estas técnicas el alumno se acostumbra a "perder el miedo a la teoría", e incluso a considerarla necesaria para la correcta solución del juego, y llegando a comprender su importancia en proceso que aborda el aprendizaje justo en sentido contrario al tradicional: se plantea el problema, y se sugiere la solución mediante un conocimiento. Interacción humana con ordenadoresOtra área de gran desarrollo se centra actualmente en lo que en EE.UU. se denomina HCI (Human-Computer Interaction). La Universidad Carnegie-Mellon, aparte de distinguirse por sus lumbreras en el campo de la economía (Herbert Simon y otros), desarrolla actualmente un ambicioso programa de trabajo en este sentido compuesto de un número muy elevado y a la vez interesante de líneas de investigación relacionadas con HCI, entre los que me he permitido entresacar y comentar los que más directamente afectan al proceso de la enseñanza a distancia. Tutoría avanzada por ordenador (Advanced Computer Tutoring)Se trata de una propuesta que se basa en un hecho real constatado y muy simple: la enseñanza es mucho más divertida cuando llega a ser personalizada y se realiza a través de ejemplos o ejercicios. El desarrollo implica investigaciones en las áreas de la interfaz de usuario, estructuras de conocimiento en la resolución de problemas, optimización de algoritmos para el reconocimiento de planes de estudio, retroalimentación de contenidos y tiempos, y transferencia de conocimientos y diferencias individuales en el proceso de aprendizaje. Además se mejoran las curvas de aprendizaje, dirigiendo las decisiones docentes en el sentido de mejorar aquellos aspectos de mayor debilidad o complejidad.En un segundo estadio, se prevén trabajos sobre integración del software de enseñanza con el software estándar (algo que podría realizarse perfectamente a través de la programación de interfaces mediante tecnología ActiveX o CORBA), escalabilidad de tareas a grandes grupos de estudio, y colaboración y distribución mediante el uso de redes de comunicaciones. Computación avanzada para las Ciencias de la EducaciónSe basa en que ciertos aspectos del razonamiento científico y técnico son difíciles de aprender mediante la lectura de materiales de texto tradicionales y pueden ser sensiblemente mejorados mediante el uso de entornos informáticos. Un ejemplo puede ser la comprensión de procesos complejos que varían en el tiempo y la planificación e investigación de tales mecanismos. Mediante el uso de textos, gráficos, multimedia y simulaciones, la Computación avanzada para las Ciencias de la Educación, pretende suministrar un entorno más atractivo y auto explicativo de la realidad a aprender, utilizando cuando es necesario simulaciones de procesos que ponen al alumno en antecedentes de lo que realmente es el problema que se quiere resolver y cuáles son los pasos a dar para conseguirlo. Grabación de audio y video de bajo costeLa grabación de audio y video todavía es costosa en el estado actual de la tecnología. Se trabaja en tecnologías para la automatización de grabaciones sin presencia humana que produzcan registros de alta calidad utilizando tecnologías de la visión y gestión microfónica grupal, junto a reglas básicas de la cinematografía. Incluso se planea la construcción de sistemas expertos basados en avatares, que representen todo lo que un director de cine sabe, por ejemplo.Así, podríamos consulta via Internet la opinión del avatar de Spielberg acerca de cuál es la mejor manera de filmar un dia de campo, o una llegada a meta, o cuál es el enfoque correcto para un aula virtual con más de 50 avatares simultáneos. Navegación y Anotación MultimediaMientras todo el mundo sabe (...) navegar a través de textos escritos, esto no es así cuando se trata de contenidos multimedia. La riqueza multimedia de los medios actuales y más aún la que está por llegar hacen precisa una navegación menos intuitiva y más dirigida al contenido. Para ello, se están desarrollando sistemas de compresión audio-video de alto rendimiento, que generen automáticamente índices y extractos de los contenidos más sobresalientes.En esta línea, se trabaja conjuntamente con las técnicas de la llamada Anotación Multimedia, en la que el usuario puede marcar ciertos contenidos multimedia, hacer y revisar sus anotaciones sobre ellos, y realizar sugerencias en línea. A su vez, el diseñador de contenidos puede revisar las sugerencias estadísticamente, disponiendo así de una referencia sobre los niveles de aceptación de la interfaz de usuario propuesta, la calidad de contenidos, y los índices de audiencia. Microsoft está trabajando en la actualidad en un proyecto denominado CAF (Common Annotation Framework), diseñado para permitir este tipo de interactividad. Espacios sociales conectados, VideoconferenciaLíneas de investigación que profundizan en el uso más efectivo de vídeo y audio en tiempo real para interacciones formales e informales. Algunos de los aspectos investigados incluyen técnicas para incrementar el grado de presencia virtual de participantes geográficamente distantes, el impacto de factores sociales y las prácticas actuales en la adopción de estas tecnologías por parte los usuarios, diseños para la mejora de intercambios de flujo entre colaboradores síncronos y asíncronos, y requerimientos de infraestructura para su soporte. Análisis social de comunidades virtualesEl análisis del comportamiento de comunidades virtuales (áreas de chat, news, foros de discusión), también es objeto actual de estudio e investigación. Existen consideración psico-sociales que pueden extrapolarse a este tipo de comunidades y sus interacciones. La reputación individual, la cantidad y calidad de las contribuciones individuales, así como el tamaño y naturaleza de los grupos implicados configuran un conjunto de metadatos que están siendo analizados por programas como Netscan, que utilizan principios sociológicos y técnicas de Minería de Datos para mejorar las dinámicas de éstos grupos y las interfaces que utilizan con el objeto de catalizar estos espacios sociales, incentivando estructuras que mejoren la cooperación competitiva y mejoren la calidad de los contenidos, y por tanto el grado de satisfacción de los usuarios.Estas consideraciones se unen, por otro lado a los llamados Estudios del uso de la tecnología, para responder a preguntas sobre el diseño de software: ¿Utiliza el usuario todos los recursos que un programa pone a su alcance? ¿Los grupos grandes, usan de forma correcta las técnicas como NetMeeting? ¿Cómo deben diseñarse las presentaciones para su visión posterior? De todas estas consideraciones se espera obtener un continuo "feedback" por parte del usuario, quien se convierte de este modo en parte activa del proceso de creación de contenidos. ConclusiónEl número de proyectos de investigación relacionados con la temática que nos ocupa es tan alto que se necesitaría un libro para citarlos todos y eso sin hacerlo en profundidad. Con esta revisión sólo hemos pretendido concienciar del hecho de que –por muy avanzada que parezca una idea- probablemente ya hay varios grupos de trabajo que la están estudiando y abordando, y que en gran parte, es la propia red la que nos puede poner al día sobre lo que se hace ahora, que será a fin de cuentas, lo que usaremos mañana. BibliografíaBootstrapping Statistical Processing into a Rule-based Natural Language ParserRichardson, Stephen D. July 1994 enDistributed visual reasoning for intelligent information retrieval on the WebC. Lee and Y.-T. Chen"Interacting With Computers" Volumen 12, Número 5, Abril 2000 , pág. 445-467Intelligent graphical user interface design utilizing multiple fuzzy agentsA. Agah and K. Tanie"Interacting With Computers" Volumen 12, Número 5, Abril 2000 , pág. 529-542An Introduction to Natural Computation, Ballard, D. H., The MIT Press. 1997Técnicas de razonamiento aproximado. L. Valverde, P.García y L. Godó.REF. REVISTA/LIBRO:En Inteligencia Artificial: Conceptos, técnicas, aplicaciones. Marcombo, 93-100. 1987.Versión reducida en CHI'99 Extended Abstracts, 274-275MSR Tech Report 99-66 (PDF)On Some Logical Connectives for Fuzzy Set Theory. C. Alsina, E. Trillas y L. ValverdeREF. REVISTA/LIBRO: J. of Math. Analysis and Applications 93, 1, 1983. 15-26. CLAVE: A Acerca del Autor:Marino Posadas es MCSD (Experto en soluciones de desarrollo de Microsoft) y profesor del Área de Formación de Grupo EIDOS. Además de ser un experto en la actual tecnología DNA bajo la que se desarrollan muchas soluciones para comercio electrónico en Internet, ejerce habitualmente como profesor virtual, ya que se encarga de la tutoría de uno de los cursos virtuales de informática que en la actualidad se encuentran en Almagesto, el Campus de Grupo EIDOS.