|
|
El Búho
Revista Electrónica de
la Asociación Andaluza de Filosofía. D.
L: CA-834/97. ISSN 1138-3569. |
·
¿Qué es la complejidad?
·
¿Cómo se estudia? ¿Cuáles
son los límites de las simulaciones de los fenómenos complejos mediante
ordenador?
·
¿Por qué aparece el
pensamiento complejo?
·
¿Cuáles son las fuentes del
pensamiento complejo?
En el
contexto social del organismo o de los
tejidos que lo componen, las
células interaccionan mediante la emisión y reconocimiento de señales. Estas
interacciones implican la existencia de receptores que reconocen específicamente las diferentes señales externas a la célula y la generación de otras señales en el interior de la célula que conectan la información procedente
del exterior con procesos como la
extracción de energía del ambiente, el recambio de los componentes de la célula,
su supervivencia ó muerte y su reproducción. El estudio de los sistemas que llevan a
cabo la transmisión se señales desde el exterior celular al interior han
mostrado que se pueden dar fenómenos de convergencia o de divergencia y que por
tanto, no existe un “cableado” específico que conecte cada señal extracelular
con determinados procesos en el interior de la célula. Sino que, los mencionados
“cables” están interconectados entre sí, de modo que la arquitectura en red de
las comunicaciones dentro de la célula puede generar un modelo mucho más
informativo de las propiedades de la célula que la conexión mediante vías
independientes.
El
abordaje analítico del estudio de la señalización celular tiene como objeto diseccionar cada una
estas vías e identificar sus
componentes. Dado que las vías de señalización intracelular forman redes en las
que se procesan señales en paralelo con interacciones múltiples, se puede
tener una imagen de este proceso utilizando modelos computacionales
desarrollados para estudiar las conexiones en red de
sistemas neuronales.
Redes
de señalización en la célula3,4
Los receptores reconocen dos
tipos de señales extracelulares (estímulos, input)
Moléculas
de la matriz (cemento) intercelular
(A1,A2 y A3)
Factores
de crecimiento (B1,B2 y B3))
A1 y
A2 son dos señales que activan con
diferente intensidad a la enzima 1.
A3
inhibe a la enzima 1 y a la
enzima 2.
B1,B2
y B3 activan con diferente
intensidad a la enzima 2
Por
último, la enzima 3 es activada por
las enzimas 1 y 2 y cataliza la fosforilación de una
proteína que regula la expresión de genes de proteínas reguladoras de la
proliferación celular.
En
esta red la enzima 1 tiene actividad máxima cuando la célula detecta las
moléculas A1 y A2 si A3 está
ausente, mientras que la enzima 2 es activa cuando las moléculas B1, B2 y B3 están presentes y A3 está
ausente. La enzima 3 será completamente activa y
estimulará la proliferación celular cuando las enzimas 1 y 2 están activas simultáneamente y eso ocurre cuando la
célula reconoce A1, A2, B1,B2,B3 y está ausente A3.
La
complejidad en las vías de señalización deriva del número de elementos que la componen, de
las conexiones entre los componentes y de la relación espacial entre ellos.
Además, las redes de señalización en los sistemas biológicos tienen
ramificaciones condicionales, ensamblaje dinámico, translocación, degradación,
además de la compartimentalización
y la regionalización de las interacciones en el interior de la célula. Cada una
de estas actividades tienen lugar simultáneamente y cada componente participa en
varias actividades diferentes.
Un
abordaje para su estudio es
comenzar con una visión conceptualmente simple de la señalización y añadir datos para introducir nuevos
niveles de complejidad. De modo que la complejidad podrá ser estudiada por
métodos computacionales en el momento en el que se identifiquen y parametricen
los componentes de los sistemas.
Actualmente, el advenimiento
de la informática y de ciertas técnicas matemáticas no lineales ayudan a los
científicos modernos a la comprensión de los fenómenos caóticos, complejos y
emergentes. Se puede simular la realidad y crear modelos de sistemas complejos
como grandes moléculas, sistemas caóticos, redes neuronales, el cuerpo y el
cerebro humano ó el crecimiento demográfico. Además, su capacidad de cálculo
permite procesar información demasiado compleja para la mente humana. A partir
de conjuntos de instrucciones matemáticas, el ordenador puede elaborar modelos
complicados y como los autómatas celulares de von Neumann, “Life” del matemático
Conway o el conjunto de Mandelbrot que contiene los fractales, objetos
matemáticos cuyas propiedades están presentes en fenómenos de la
naturaleza.
Pero
una cosa es observar que un
fenómeno se ajusta a un modelo -por
ejemplo, un patrón fractal en la naturaleza- y otra cosa distinta es determinar
la causa de dicho patrón.
Dicho con otras palabras,
el hallazgo de que un conjunto de reglas matemáticas seguidas por un
ordenador dan origen a patrones sumamente complicados no implica necesariamente
que existan unas reglas simples que subyazcan a fenómenos del mundo que son
complicados.
Los estudiosos de la
complejidad y el caos afirman que las reglas simples que subyacen la naturaleza
como la mecánica cuántica, la relatividad general, la selección natural o la
genética mendeliana son insuficientes para explicar la complejidad.
¿Qué
es la complejidad? [1]
A comienzos de los 90 el físico Seth
Lloyd recopiló 31 descripciones de complejidad que se inspiran en la
termodinámica, la teoría de la información y la informática e incluye conceptos como la
entropía, el azar y la información[2].
De
todas ellas, la que parece que ha tenido mayor consenso entre los que estudian
experimentalmente esta propiedad de los sistemas en la naturaleza es la de “Fenómenos al borde del caos” (Packard y
Langton a finales de los años 80). Así, los expertos de la complejidad se
intentan desmarcar del caos: éste es
según Yorke una serie de fenómenos que evolucionan de una manera predeciblemente
impredecible, demostrando sensibilidad hacia las condiciones, la conducta
aperiódica y la recurrencia de ciertos patrones diferentes en la escala espacial
y temporal. Por tanto, un sistema
complejo se encuentra a caballo
entre una conducta altamente periódica y otra caótica
Aunque
los investigadores de la complejidad
no se ponen de acuerdo en lo que están estudiando, sí coinciden en cómo
deberían estudiarlo: con ordenadores.
Por
ejemplo, Langton se ocupa de recrear la vida en el ordenador. Según él, el método
científico clásico proporciona una comprensión limitida de los fenómenos que
surgen merced a los accidentes históricos. Esto se puede superar mediante la
combinación diferente de los componentes básicos de la vida para explorar lo que
podría haber sucedido hipotéticamente o pudo suceder de hecho. Se puede simular
informáticamente el principio de la vida
modificando las condiciones y explorando las consecuencias. La vida artificial de Langton pretende estudiar qué
aspectos de nuestra historia fueron inevitables y qué otros fueron contingentes.
Esta simulación podía seguir considerándose vida, ya que ésta se caracteriza como conjunto de entidades capaces de comer,
reproducirse y evolucionar más que por las cosas de las que están hechas.
¿Cuáles son los límites de
las simulaciones de los fenómenos complejos mediante ordenador?
Esta
cuestión ha sido abordada por un
grupo multidisciplinario encabezado por la historiadora y geofísica Naomi Oreskes et al. en un trabajo publicado en Science en febrero
de 1994 [3]. El argumento de los autores del artículo
es que la verificación y validación de
modelos numéricos de sistemas naturales es imposible. Ya que las propuestas
que pueden verificarse son las que
versan sobre la lógica ó la matemática. Estos sistemas son cerrados en cuanto
que sus componentes se basan en axiomas que son verdaderos por definición pura.
Los sistemas naturales son abiertos
y nuestro conocimiento es incompleto y aproximativo. Los datos son significantes
cargados de conocimiento incompleto de un fenómeno natural. Estas inferencias y
suposiciones se pueden justificar y a veces estimar la incertidumbre sobre la
base de la experiencia. Pero el grado de validez de nuestras suposiciones
no puede ser estimado nunca a priori. Incluso cuando una simulación remeda ó
predice un fenómeno real, el modelo no está aún verificado. Un modelo, al igual que una novela, puede
resonar con la naturaleza, pero no es una cosa real.
Los modelos numéricos
funcionan mejor en unos casos que otros. Funcionan bien en astronomía y en la
física de partículas porque los objetos y las fuerzas relevantes se conforman a
sus definiciones relevantes con total precisión.
Las
matemáticas ayudan a los físicos a definir lo que sería de otra manera
indefinible. Así, un quark es un constructo matemático. Las teorías matemáticas
son menos convincentes cuando se aplican a fenómenos más concretos y complejos
como los sistemas biológicos. Por eso tienen menos capacidad vaticinadora.
¿Existen teorías de la
complejidad?
A
partir de la Segunda Guerra Mundial se han desarrollado tres teorías que
persiguen este ideal: la Teoría de la Cibernética, la Teoría de la Información y
la Teoría de la Catástrofe.
Norbert
Wiener publicó en 1948 “Cybernetics.
Control and Communication in the Animal and the Machine”. Según
él las maquinas y los fenómenos biológicos
procesan y actúan en base a información empleando mecanismos como
retroalimentaciones y filtros que distinguen entre señales y ruido.
Relacionada
con ella se encuentra la teoría de la información de Claude Shanon (1948) que inventó una
definición matemática de la información basada en la entropía.
Por último, la teoría de la
catástrofe de René Thom
desarrollada como un formalismo
puramente matemático que podía ayudar a ver con claridad una gama de
fenómenos que mostraban una conducta discontínua. Las ecuaciones de esta
teoría muestran cómo un sistema aparentemente ordenado
puede sufrir cambios abruptos y catastróficos y podría explicar los terremotos, la aparición de la vida,
la metamorfosis o el hundimiento de una civilización.
A
finales de los 80 Per Bak lanzó la
teoría del estado crítico autoorganizado. Según él, fenómenos de la
naturaleza como la evolución de las
especies, el conocimiento humano o la economía, se resisten a la ciencia
reduccionista. Su sistema de estudio es el montón de arena. En el estado
crítico, la adición de un grano de arena puede desencadenar una avalancha. La frecuencia de sus avalanchas es
inversamente proporcional a una potencia de su tamaño (ley de la potencia).
Los terremotos, la extinción de las especies, las fluctuaciones del mercado de
valores muestran, según Bak esta pauta de conducta. Crítica: el modelo de Bak no ofrece una
buena descripción ni siquiera de un montón de arena. Son pocos los montones de
arena que se ajustan a la ley de la potencia.
Philip Anderson, premio Nobel de
Física por sus estudios
sobre Física de la materia,
sostiene en un ensayo titulado “Más es diferente”[4] publicado en la
revista Science que la física de partículas tiene una
capacidad limitada para explicar el mundo. Según él, la realidad tiene una
estructura jerárquica propia con niveles hasta cierto punto independientes de
los niveles superior e inferior y en cada fase se necesitan principios,
conceptos y acaba afirmando que “La Psicología no es Biología aplicada y la
Biología no es química aplicada”.
En la
otra vertiente de la complejidad se instala el fundador de la teoría de los quark
y premio Nobel de Física, Murray Gell-Mann. Fue uno de lo primeros
científicos de renombre en subirse al carro de la complejidad y publicó en 1994 “The quark and the
Jaguar” en el que desarrolla el concepto
de jerarquía en las teorías
científicas. En lo alto están las
que se aplican en el universo por todas partes. Otras leyes se aplican sólo aquí
en la tierra y los fenómenos que describen entrañan una gran cantidad de
aleatoriedad y de contingencia histórica.
Así, en la evolución biológica hay gran número de accidentes que podrían
haber ocurrido de una forma diferente y producido formas de vida diferentes,
condicionadas naturalmente por presiones de selección..
Propuso
que el término complejidad fuese sustituida por el neologismo pléctica que es la
base de la complejidad y de la simplicidad y particularmente la manera en que
pasamos de las leyes fundamentales simples que rigen la conducta de toda la
materia al tejido complejo que vemos alrededor .
Según él, se puede remontar uno en la
cadena de la explicación desde la física de la partículas hasta la biología,
pero en la práctica sólo se puede
hacer en raras ocasiones porque los
fenómenos biológicos son producto de circunstancias fortuitas, históricas y
contingentes.
Para
él no hay necesidad de buscar una ley de la naturaleza que explicara por qué el
universo ha generado orden a pesar del deslizamiento universal hacia el
desorden, ya que el universo crea
accidentes congelados que son estructuras complejas, pero el universo
degenerará al final ajustándose al
segundo principio
termodinámico.
¿Qué han aportado los estudios sobre la complejidad?
Los
estudiosos de la complejidad han delineado con precisión los límites del método
reduccionista; además, han creado metáforas poderosas, pero no nos han dicho
nada del mundo que sea concreto y sorprendente.
La
complejidad está siendo abordada desde el ámbito de las matemáticas puras y de
la informática teórica; otros desarrollando nuevas técnicas computacionales para
ampliar el alcance de las predicciones metereológicas y simular el funcionamiento de sistemas
complejos. Pero las simulaciones por ordenador representan una metarrealidad; al
proporcionar mayor capacidad de simulación
de un fenómeno natural podrían estar acelerando el fin de la ciencia
empírica.
¿Por qué aparece el
pensamiento complejo?
El
conocimiento científico moderno tiene por objeto el disipar la aparente
complejidad de los fenómenos a fin de revelar el orden simple al que obedecen. A
lo largo de los últimos tres siglos se han adquirido conocimientos sobre el
mundo basados en los métodos de verificación empírica y lógica. También han progresado los errores derivados del modo mutilador de
organización del conocimiento incapaz de reconocer y aprehender la complejidad
de lo real
El conocimiento científico
moderno opera mediante la selección de datos significativos y rechazo de los no
significativos: separa (distingue) y une (asocia), jerarquiza y centraliza. Estas operaciones son comandadas por
paradigmas.
El paradigma científico por excelencia es
el de simplificación, que está regido por los principios de disyunción, reducción y abstracción y formulado por Descartes, que separó el sujeto
pensante y la cosa extensa , separando así
la filosofía de la ciencia.
Este
paradigma ha permitido los enormes progresos del conocimiento científico y de la
reflexión filosófica desde el siglo XVII.
Al disgregar conciencia y
ciencia, el conocimiento generado no está hecho para ser reflexionado sino para
ser utilizado con ignorancia. Los sabios no controlan las consecuencias de sus
descubrimientos ni controlan el sentido ni la naturaleza de la
investigación.
La
necesidad del pensamiento complejo surge a lo largo de un camino en el que
aparecen los límites, las insuficiencias y las carencias del pensamiento
simplificador.
La
complejidad no sería algo definible de manera simple para tomar el lugar de la
simplicidad. La complejidad es una palabra problema y no una palabra solución
El
pensamiento complejo intenta articular dominios disciplinarios quebrados por el
pensamiento disgregador y aspira al conocimiento multidimensional pero no aspira
al conocimiento complejo. Uno de los axiomas de la complejidad es la imposibilidad de una omnisciencia. Por
eso, el pensamiento complejo está
animado por una tensión permanente
entre la aspiración a un saber no parcelado y el reconocimiento de lo
inacabado e incompleto de todo conocimiento.
Aunque ya Gaston Bachelard propuso en su libro “El
nuevo espíritu científico” que lo
simple no existe, sólo lo
simplificado, la ciencia
moderna ha construído su objeto extrayéndolo de su ambiente complejo para
ponerlo en situaciones experimentales no complejas. Así, la ciencia no es el estudio del
universo simple sino una simplificación heurística para extraer ciertas
propiedades y ver ciertas leyes. No es de extrañar por tanto, que el estudio de la complejidad ha sido poco desarrollado por filósofos como Popper, Kuhn, Lakatos o
Feyerabend interesados en el
estudio del fenómeno científico.
¿Cuáles son las fuentes del
pensamiento complejo?
Las
fuentes inspiradoras del concepto
de complejidad son para E.
Morin[5] la Teoría de Sistemas, la Teoría de la
Información, la Cibernética, y el concepto de Auto-organización. Por otra parte,
para I. Prigogine[6], la Termodinámica introdujo en la Física
y en la Química los conceptos de inestabilidad, desequilibrio, desorganización e
irreversibilidad y evolución.
Prigogine
vaticina que con el pensamiento complejo la humanidad llegará al fin de las
certidumbres y considera que las teorías vagas, imprecisas e impotentes son más
significativas que las teorías exactas, precisas y poderosas de Newton o
Einstein.
Gracias
a las aportaciones de estas
teorías, el concepto de complejidad se liberó entonces del sentido banal de
confusión y complicación para reunir orden con desorden y organización y en su
seno, lo uno y lo diverso.
La
Teoría de los Sistemas de von Bertalanffy revela dos direcciones: un sistemismo
innovador que lleva en sí un principio de complejidad, ya que concibe al sistema
como una unidad compleja que no se reduce a la suma de sus partes constitutivas
y como una noción ambigua que se ha de estudiar desde un nivel
transdisciplinario.y un sistemismo analítico que transforma el sistemismo en su contrario, es decir, en
operaciones reduccionistas.
El concepto de que los seres vivos pueden
ser considerados como sistemas
termodinámicos abiertos muestra que la comprensión de los
sistemas se debe encontrar no sólo en el sistema sino también en su relación con
el ambiente.
El
concepto de sistemas abiertos tiene valor paradigmático y ha sido aplicado al
estudio de las interacciones entre
los mundos animado e inanimado en
nuestro planeta aunque el modelaje computacional haya conducido a una
elección arbitraria de parámetros y variables y a un cálculo cuando menos
pseudoexacto.
La Teoría de la Información se ha
extrapolado en el dominio
biológico. El ADN es un mensaje que orienta y programa el funcionamiento de la
célula. La reproducción sería entendida como una copia del mensaje y la mutación como un ruido provocador de
error en la constitución del nuevo mensaje. La célula puede ser entonces
cibernetizada y el elemento clave de esa explicación se encuentra en la
información.
Quizá falte por desarrollarse una teoría general de las organizaciones
que revele los principios de organización comunes en los seres vivientes ( la
autoorganización). Como antecedente, Von Neumman describió las diferencias entre la máquina
artefacto organizada y la máquina viviente autorganizadora. Los componentes de
la máquina artificial son
extremadamente fiables, pero la máquina en su conjunto es mucho menos
fiable que sus componentes aislados y sólo puede ser reparada por una intervención externa al
sistema. Los componentes de la máquina viviente son, por el contrario, muy poco
confiables ya que se degradan rápidamente. En un organismo, tanto las
moléculas como las células se renuevan constantemente, pero el
organismo permanece idéntico a sí mismo (el conjunto es fiable mientras que sus constituyentes lo son menos).
Por
tanto, hay una diferencia de naturaleza entre ambos tipos de sistemas y también
hay un lazo consustancial entre desorganización (entropía) y autoorganización,
ya que el fenómeno de
desorganización prosigue su curso en lo viviente y está asociado de manera
inseparable al fenómeno de la reorganización. Este fundamento de la
autoorganización no depende de la
lógica que se aplica a las cosas mecánicas y postula una lógica de la
complejidad.
La
cibernética reconoció la complejidad para rodearla poniéndola en una caja negra,
lo que permitía estudiar los resultados de funcionamiento del sistema en función
de sus entradas.
El
problema teórico de la complejidad
consiste en entrar en la caja negra y considerar la complejidad lógica y
organizacional. No sólo hay que renovar la concepción del objeto sino que hay
que revertir las perspectivas epistemológicas del sujeto, en este caso del
observador científico.
Ya que, lo propiamente científico era
eliminar la imprecisión, la ambigüedad y la contradicción y hay que aceptar una
imprecisión cierta como está ocurriendo en las matemáticas al abordar los conjuntos
imprecisos.
Este
pensamiento complejo debiera aportar los principios de los que emergiera el
nuevo paradigma de la complejidad.
Morin propone estos principios para ayudarnos a pensar la complejidad:
El dialógico: dos lógicas como estabilidad / inestabilidad y
orden / desorden, que son
necesarias la una para la otra
El de recursividad organizacional: todo lo
que es producido reentra sobre lo que lo ha producido (ejemplo los individuos al ser producidos somos
productores del proceso que va a continuar). Esta idea recursiva rompe con la
idea lineal de causa/efecto.
El principio hologramático: no sólo la parte está
en el todo sino que el todo está en la parte ( Ejemplo, en el mundo biológico,
cada célula de nuestro organismo contiene la totalidad de la información
genética de ese organismo)
En la
Naturaleza hay tendencias de complejización creciente, lo que nos permite
determinar modelos de baja complejidad, mediana complejidad y alta complejidad
en función de desarrollos de la auto-organización (autonomía, individualidad,
riqueza de relación con el medio
ambiente, aptitud para el aprendizaje, inventiva, creatividad) y al cerebro humano como fenómeno de muy alta
complejidad .
Para
finalizar, transcribo una frase del libro “El azar y la necesidad. Ensayo
sobre la filosofía natural de la biología moderna”[7] de Jacques Monod que refleja el planteamiento complejo del
fenómeno vital:
“Una
teoría universal que contuviera la
relatividad, la teoría cuántica y la teoría de las partículas elementales y que
contemplara la evolución del Universo a partir de unas condiciones iniciales, no
podría contener a la biosfera como un fenómeno deducible de los primeros
principios. La biosfera constituye
una clase de objetos ó fenómenos compatible con los primeros principios, pero no
deducibles de ellos principios, por tanto, esencialmente imprevisible”.
[1] Los
límites conocimiento científico en
el declive de la era científica .John Horgan, Ed. Paidós,1998.
[2] En la actualidad esta lista incluye cuarenta y
cinco definiciones. Información (Shannon); entropía (Gibbs y Boltzman),
complejidad algorítmica; contenido e información algorítmica (Chaitin,
Solomonoff y Kolgorov); información de Fisher, entropía de Renyi; longitud de
código autodelimititador ( Huffman y Shannon-Fano); longitud de código corrector
de errores ( Hamming); información de Chernoff; longitud de descripción mínima
(Rissanen); número de parámetros o grados de libertad, o de dimensiones;
complejidad de Lempel-Ziv; información mutua o capacidad de canal , información mutua algorítmica;
correlación, información almacenada (Shaw); información condicional; contenido
de información algorítmica condicional; entropía métrica; dimensión fractal;
autosimilaridad; complejidad estocástica (Rissanen); sofisticación (Koppel y
Atlan); tamaño de máquina topológica (Crutchfield); complejidad efectiva o ideal
(Gell-Mann), complejidad jerárquica (Simon); diversidad de subgráfico de árbol
(Huberman y Hogg); complejidad computacional de tiempo; complejidad basada en la
información (Traub); complejidadhomogénea (Teich y Mahler); profundidad lógica
(Bennet); profundidad termodinámica (Lloyd y Pagels); Complejidad gramatical (
posición de la jerarquía de Chomsky); información de Kullbach-Liebler);
distinguibilidad (Wooters, Caves y Fisher); discrimininalidad (Zureck);
distancia de Hamming; orden de largo alcance; autoorganización, sistemas
complejos de adaptación; filo o borde del caos.
[3] “Verification, validation, and confirmation of
numerical modelssn the earth Sciences” Oreskes, N. Et al Science, 4 de febrero
de 1994, Págs. 641-646
[4]
P.Andersson “More is
different” , Science 4 de agosto de
1972 Pág. 393
[5] “Introducción al pensamiento complejo” E.Morin,
Ed. Gedisa,1998
[6] “La nueva alianza. Metamorfosis de la ciencia” I.
Prigogine e I.Stengers Alianza Ed.,1997
[7] J.Monod. en
“El azar y la necesidad..Ensayo sobre la filosofía natural de la biología
moderna”. Págs 48-49 Tusquets ed,1993
[1] Complejo,adjetivo: dícese de lo que se compone de
elementos diversos (Diccionario de la Real Academia Española de la Lengua)
[2]
Complejidad, sustantivo:Calidad de complejo (Diccionario de la Real
Academia de la Española de la Lengua)
3,4Alberts
B. et al Biología Molecular de la
Célula, ed Omega, 1996
Weng,
G. Et al, Science 284 92-98 (1999)