Edgar
Morín, basado en la teoría de la información y de
los sistemas, la cibernética y en los procesos de auto organización
biológica, construye un método que intenta estar a la altura del desafío
de la complejidad. Según Morín estamos en la prehistoria del espíritu
humano y solo el pensamiento complejo nos permitirá civilizar nuestro
conocimiento.
Hay tres principios sobre
los cuales construye Morín lo que podría ser el paradigma de la
complejidad: el principio de recursividad
organizacional, el principio dialógico y el principio hologramático.
FUENTES:
A partir de la cibernética,
la teoría de los sistemas, la teoría de la información, la auto
organización en biología y el orden a partir del ruido (Von Foerster),
Edgar Morín construye un paradigma de la complejidad, un método: el
pensamiento complejo.
IDEAS:
Naturaleza humana
multidimensional, lógica generativa, dialéctica y arborescente.
Auto-eco-organización: el todo esta en el interior de la parte que esta
en el interior del todo (ejemplo del cerrojillo)
EI universo es un cocktail
de orden desorden y organización. A partir de la Auto-eco-organización que va incluyendo todos los aspectos el
sujeto emerge al tiempo con el mundo y así sujeto y objeto aparecen como
dos emergencias inseparables de la relación sistema auto organizador-ecosistema.
AI hacer de nuevo su entrada en la
ciencia los elementos que habían sido puestos entre paréntesis
(aleatoriedad, información en el ambiente y sujeto con su creatividad) Morín
pone las herramientas para ver esos fenómenos integrados, porque pone el
énfasis ya no en sustancias sino en emergencias, interacciones. Se puede
superar la tragedia del pensamiento (incertidumbre) con un meta nivel
La teoría de Sistemas
(von Bertalanffy, 1901-1972) fue, para Edgar Morín, un punto de partida,
y la conocida frase de Aristóteles “El todo es más que la suma de las
partes”, una clave esencial. Él constata, en efecto, como von
Bertalanffy, que “entidades (de un cierto orden) integran entidades (de
órdenes superiores)”.
Sólo que para él hay más... La complejidad no es sólo la forma anidada en
que se estructura el mundo, forma que la concepción sistémica percibía ya
con claridad. La Realidad Compleja, que se identifica con la realidad
toda, cuenta además con otros rasgos característicos.
LAS CIENCIAS DE
LA COMPLEJIDAD
La Teoría
General de Sistemas se enmarca dentro de las Ciencias de la Complejidad.
Como desarrollos prácticos de esta teoría tenemos el System Thinking o
Pensamiento Sistémico como forma de estructurar nuestro conocimiento del
sistema, y el System
Dynamics o Dinámica de Sistemas para
formalizar en un modelo de simulación
nuestra percepción de la realidad
y simular el impacto de diferentes alternativas.
Antecedentes históricos
En este capítulo se expone la
génesis y los aspectos más relevantes de las
Ciencias de la Complejidad. Estas
tienen una gestación relativamente reciente ya
que se atribuyen sus orígenes a la
década de los 80. Podemos hallar algunas de sus raíces en lo más antiguo
de nuestra civilización, la antigua Grecia, para continuar con la Francia
de la Ilustración, y llegar en un vertiginoso salto hasta en siglo XX en
los Estados Unidos y Europa.
Así pues es posible iniciar el
viaje histórico de la mano de Aristóteles que en su “Me
tafísica” nos ofrece muchas e
interesantes ideas sobre la complejidad y la posible existencia de una
ciencia que se ocupe de ella, cuando considera que: “Aquí no sucede lo
que con
lalínea, cuyas divisiones no
acaban; el pensamiento tiene necesidad de puntos de
parada”. Y más adelante en su
explicación de la ciencia más adecuada para abordarla, al exponer que:
“Ninguno de los que se ocupan de las ciencias parciales, ni el geómetra,
ni el aritmético intenta demostrar ni la verdad ni la falsedad de los
axiomas. Los físicos son los únicos que han pretendido
Abrazar en una sola ciencia toda la
naturaleza”. También podemos hallar algunas
referencias en Platón, donde la
idea de complejidad está vinculada a su concepción del mundo como un
todo, con un orden, organización
y estructura donde todas las partes se hallan en
Armonía con las demás.
Por último este
mundo armónico se trasforma en un mundo en movimiento de nuevo de la mano
de Aristóteles, cuando indica que: “Si la totalidad del cuerpo esta ahora
en este orden y más tarde en otra, y si forma parte de una totalidad,
entonces no será el mundo el que se genere y se destruya, sino solamente
la disposición de sus partes”. Dejamos la antigua Grecia y tomamos el
“Discours de la Méthode” del filósofo francés René Descartes que para
abordar la complejidad nos propone la necesidad de segmentar el problema
en tantos elementos como sea posible, aplicando en definitiva un enfoque
reduccionista. Con ello se pretende abordar la complejidad reduciéndola a
un conjunto de elementos y procesos tan simples como sea posible. Como
concreción del enfoque reduccionista aparece el método analítico cuyo
principio fundamental es “El todo es igual a la suma de las partes”.
Este enfoque ha propiciado la
fragmentación de las ciencias en ámbitos cada vez
más especializados y aislados.
Sus resultados han sido excelentes en el diseño de máquinas, y por lo
tanto podemos considerarlo como uno de los pilares del progreso de los
últimos siglos. Estos éxitos se han logrado en el diseño de máquinas, que
son sistemas que podemos estudiar prácticamente aislados del entorno
exterior y con
un número de elementos o partes y procesos
muy limitado, y en esencia fáciles de medir y analizar.
El estudio de los seres vivos, las complejas sociedades actuales,
los conflictos entre desarrollo y medio ambiente, requieren un enfoque
sin duda muy diferente, que sea capaz de abordar las múltiples relaciones
que existen entre los elementos y la diversidad de procesos que se
generan. Seguimos con otro francés, ya en el siglo pasado, a quien se
considera como precursor de los postulados del caos. Henry Pioncaré,
fundador de la topología algebraica, escribió: “Pequeñas diferencias en
las condiciones iniciales engendran otras muy grandes en las situaciones
resultantes, y el mínimo error en identificar las primeras ocasionaría un
enorme error en identificar las últimas”. Abandonamos la Francia de Poincaré
y nos detenemos en la Alemania de su contemporáneo George Cantor con su
Teoría de Conjuntos de 1885. Esta teoría fue consolidada por el inglés
George Boole. Está teoría nació tras los trabajos de Cantor de las series
trigonométricas. El primer apunte de esta teoría aparece en un artículo
de la revista Crelle donde Cantor consideraba dos clases diferentes de
infinitos (hasta entonces se consideraba que todos los infinitos tenían
el mismo tamaño), los que se tienen una correspondencia de uno a uno con
los números naturales, es decir los que se pueden numerar y los que no se
pueden. En base a esto se introduce la idea de equivalencia de conjuntos,
según la que dos conjuntos son equivalentes si se pueden poner en
correspondencia de uno a uno.
Esta teoría
define por primera vez piezas fundamentales de lo que posteriormente
sería la Teoría de General de Sistemas, así aparece el concepto de
conjunto de donde después nacerá el sistema, como una colección de
cualquier tipo de objetos considerada como un todo, una multiplicidad
vista como unidad; una entidad completa bien determinada. Los objetos que
forman al conjunto son nombrados elementos del conjunto. Así pues todo
conjunto es una colección de objetos, pero no toda colección de objetos
es un conjunto. Esta afirmación es importante, porque no toda agrupación
de elementos es un conjunto o un sistema. De esta forma, el ser elemento
de es una relación binaria entre dos objetos de la Teoría de Conjuntos.
La importancia de la Teoría de Conjuntos radica en que a partir de ella
se puede reconstruir toda la matemática.
Si bien el
planteamiento es correcto y útil, presenta algunas paradojas. Una de
ellas es la Paradoja de Rusell según la que algunos conjuntos no son
miembros de si mismos. Así por ejemplo un conjunto de personas, como un
equipo de fútbol, no es una persona. Poco después apareció el Teorema de
Göedel que justifica que ningún sistema axiomático puede producir todos
los teoremas de la Teoría de los Números, y por lo tanto la deducción de
la matemática por la lógica será siempre incompleta.
Precisamente
las proposiciones incompletas son las que son autoreferencias, como la
paradoja de Rusell, que se vuelve en contra de su propio autor al
permitir explicar los fallos de su propia teoría. Podemos ver en estas
autoreferencias una fuente de limitaciones que vamos a tener siempre al
intentar aplicar la lógica a los conceptos matemáticos. Y en la vida real
las autoreferencias son cada vez más frecuentes, y por lo tanto las
paradojas también los son. Tengamos en cuenta que aplicamos la lógica
para construir los modelos mentales que comentamos en el primer capítulo
del libro, y por lo tanto es normal la aparición de paradojas que nos
confunden.
El principio
holístico definido por Smuts hacia 1930, rompe con la visión
reduccionista de Descartes y establece en cambio que “El todo no es igual
a la suma de las partes”, lo cual ha sido generalmente interpretado como
“El todo es más que la suma de las partes”.
En el ámbito
empresarial es conveniente pensar que el todo es a veces “más” y con
mucha frecuencia “menos” que la suma de las partes.
En los años 40
tenemos a Von Newman autor de la Teoría de Autómatas investigando el
origen de la vida, y a Von Bertalanffy que expone la Teoría General de
Sistemas como un intento de unificación de las teorías anteriores sobre
sistemas cada una de un ámbito diferente. Según esta teoría las
propiedades de los sistemas no pueden ser descritos de forma
significativa en base al análisis de sus elementos separados. La
comprensión de los sistemas solo es posible cuando se estudian los
sistemas globalmente, involucrando todas las interdependencias de los
subsistemas. La Teoría General de Sistemas se fundamenta en tres
principios: - Los sistemas existen dentro de sistemas. - Los sistemas son
abiertos. - Las funciones de un sistema dependen de su estructura.
Podemos citar
también en los años 40 a la Teoría de la Información de Claude Shannon.
Explica el proceso de transformación de la información a través de la
Fuente, que es el componente que determina el tipo de mensaje que se
transmitirá y su grado de complejidad, el Transmisor, que es el medio
técnico que transforma el mensaje originado por la fuente en señales
apropiadas, Canal, como medio que transporta las señales en el espacio,
Receptor, que es el recurso técnico que transforma las señales recibidas,
y Destino, como componente al cual está dirigido el mensaje, incluyendo
el Ruido como aspecto significativo entendido como las distorsiones
originadas en forma externa al proceso de comunicación. Los problemas que
plantea Shannon, tienen que ver con la cantidad de información, la
capacidad del canal de comunicación, el proceso de codificación que puede
utilizarse para cambiar el mensaje en una señal y los efectos del ruido.
En los sistemas encontramos elementos relacionados entre si tanto por
canales físicos, como una mano lo está a su brazo, como por canales de
información, como un semáforo indica si debemos o no cruzar una calle. En
realidad estos últimos son los más frecuentes en el mundo real.
A principios de
los años 50 Nober Wiener y Arthur Rosenblueth aplican los conceptos de la
realimentación y el control, en un nuevo concepto, la Cibernética, con
aplicaciones tecnológicas pero con una vocación de abordar las ciencias
biológicas y sociales. En el capítulo siguiente se amplia este concepto.
La Teoría de Juegos en los años 60 de John von Neumann realiza una
interesante aportación al servir de base en la toma de decisiones en un
entorno no definido. El objetivo de esta teoría no es el análisis de las
probabilidades o de los elementos aleatorios sino del comportamiento
estratégico de los jugadores. Son muy frecuentes las situaciones en las
que el resultado final depende de las decisiones de diferentes elementos
o jugadores. Por ello se dice de un comportamiento sigue una estrategia
cuando se adopta teniendo en cuenta la influencia conjunta sobre el
resultado propio y ajeno de las decisiones propias y ajenas. En esta
teoría se plantea la existencia de dos clases de juegos. Si los jugadores
pueden comunicarse entre ellos y negociar los resultados se tratará de
juegos cooperativos, en los que las decisiones se centran en el análisis
de las posibles coaliciones y su estabilidad. En cambio en los juegos no
cooperativos los jugadores no pueden llegar a acuerdos previos; es el
caso de los juegos conocidos el dilema del prisionero o el modelo del
halcón y la paloma.
Hacemos otra
parada un poco más adelante en la Sinergética, del griego cooperación,
alumbrada por Hermann Haken de los años 70, que estudia el proceso de
formación de las estructuras de los sistemas, al disminuir sus grados de
libertad de un sistema inestable hasta hacerlo estable, mediante la
aparición de un parámetro que esclaviza los grados de libertad del
sistema, que es el llamado principio esclavizador. En este aspecto este
concepto coincide con el paradigma de la Teoría de los Sistemas
Disipativos de Prigogine. En resumen, podemos considerar a la Sinergética
como un campo de investigación interdisciplinario que trata de la
cooperación espontánea de diferentes subsistemas dentro de un sistema. Es
útil para estudiar propiedades de los sistemas complejos que no se hallan
en sus etapas iniciales pero sí como consecuencia de la cooperación de
las partes. Aparecen así nuevas estructuras que podrían ser temporales,
espaciales o funcionales.
A lo largo de
este camino se fueron asentando conceptos nuevos como el de homeostasis,
aportación de Canon, o capacidad de los seres vivos para mantener sus
constantes vitales dentro de unos límites que los hacen viables a través
de procesos de retroalimentación. Mide la proporción entre el valor de
los cambios del entorno y el valor de los cambios en la estructura del
sistema, de forma que un sistema con un alto índice de homeostasis
implica que el sistema transforma de forma significativa su estructura
ante cambios del entorno.
El concepto de
equifinalidad de Von Bertalanffy que ilustra como muchos sistemas
llegarán al mismo estado final sea cual sea el estado inicial y las
condiciones externas. Y también el concepto de isomorfismo, que se deriva
de la existencia de analogías entre el funcionamiento de los sistemas
biológicos y los automáticos. Todo esto sirve de base para la aparición
en los años 80 de las Ciencias de la Complejidad, como un conjunto de disciplinas
con unos pocos rasgos distintivos: la vocación interdisciplinaria como
contraposición a las diferentes disciplinas científicas y el holismo como
visión de la globalidad frente a la especialización del reduccionismo.
Desarrollos
posteriores
Teoría de las
Catástrofes
Aparece en los
años 90 de la mano del francés René Thom, y del danés Erik Christopher
Zeeman, es según sus propios autores, una teoría eminentemente
cualitativa, que sólo pretende obtener un orden de comprensión en el
desorden de la discontinuidad. Un ejemplo puede ser el del cambio en la
forma de un puente, el cual mientras se va acumulando peso sobre el mismo
comienza a deformarse en una forma relativamente uniforme hasta que una
vez superado cierto peso crítico el puente se cae. Su objetivo es
representar discontinuidades observables en sistemas dinámicos. Su
utilidad como instrumento de predicción de puntos de quiebra o ruptura es
muy discutible. No obstante sirve para el estudio de crisis financieras,
como fue en su día el “efecto Tequila” en base al conocimiento de la
secuencia seguida por las variaciones de los elementos del sistema. Esta
teoría fue duramente criticada por Gina Kolata en la revista Science como
"vagamente formulado, basado en hipótesis falsas y que llevan a pocas
predicciones que no fueran triviales".
Teoría de las
Estructuras Disipativas Creada por el Premio Nobel belga Ilya Prigogine,
ofrece una nueva visión de los fenómenos irreversibles, en especial en el
campo de la termodinámica. Un aspecto importante de este autor es señalar
que el caos desemboca en estructuras ordenadas. El caos primigenio del
Big Bang a desembocado en estructuras ordenadas: átomos, estrellas, vida.
Se dice que un sistema es disipativo cuando pierde energía, o esta se
degrada en forma de calor, y por lo tanto aumenta la entropía total del
sistema. Según la Segunda Ley de la Termodinámica los sistemas aislados
aumentan de forma natural su entropía hasta estabilizarse en su máximo
valor en entropía o desorden. Así el hielo se convierte de forma natural
en agua, y el agua en vapor. Este es su punto de equilibrio, aquel en el
que la entropía deja de aumentar.
La aportación
de Ilya Prigogine es establecer que los sistemas disipativos pueden
estabilizarse en parámetros que no representan el estado de máxima
entropía, ya que no son sistemas aislados y por lo tanto no rige la
Segunda Ley de la Termodinámica. Así nos encontramos que los sistemas más
comunes en el mundo real son sistemas abiertos, no aislados. Estos
sistemas intercambian energía con su entorno. En estos sistemas en vez de
la tendencia hacia un punto de equilibrio tradicional de máxima entropía
podemos observar como permanecen en estados de “no-equilibrio” o “lejos
del equilibrio”. Prigogine propone que en los sistemas complejos no lineales
de hecho existen subsistemas fluctuantes los cuales en ocasiones se
combinan y amplifican dando lugar a bifurcaciones, o atractores,
repulsores o autoorganizaciones.
Las
características que debe reunir un sistema complejo para que se produzca
este proceso de estabilidad lejos del equilibrio son: en primer lugar que
el sistema debe ser abierto, es decir que debe de tener elementos capaces
de captar la energía del exterior así como elementos para expulsar la
energía en otras formas. Además, el sistema debe tener una complejidad
interna que le permita ser estable en un amplio rango de condiciones
externas, de estructuras como para ser estable en más de un en tercer
lugar el sistema debe de tener procesos de retroalimentación. Así en
resumen la existencia de un flujo de energía que entra en un sistema le
permite estabilizar sus parámetros con un nivel más elevado de energía
libre y un nivel más bajo de entropía. Y así, tal y como Prigogine
indicaba y como muchos años después confirmó con sus experimentos el
biólogo Morowitz en 1978, cuando un flujo de energía circula a través de
un sistema fuera de equilibrio, organiza sus estructuras y componentes de
forma tal que le permite tomar, utilizar y almacenar cantidades
crecientes de energía libre.
El nombre de estructura
disipativa recoge la idea de que se trata de un sistema que de forma
estable puede hallarse lejos de su punto teórico de equilibrio, debido a
que la energía que disipa al exterior es igual que la energía que recibe.
Si bien esto
puede parecer una teoría alejada de la realidad puede explicar porqué no
se cumplen las teorías económicas clásicas, y determinados países pueden
acumular grandes déficits públicos y de balanza de capitales sin que por
ello el valor de su divisa se resienta. O la existencia de altas tasas de
paro de forma estructural en muchas economías. O también la existencia de
conflictos internacionales durante un largo periodo de años.
Teoría de las Bifurcaciones
Podemos
considerar que al nacer somos ambidextros, no obstante cuando tomamos por
primera vez un objeto con la mano estamos entrando en una bifurcación ya
que nos especializamos en el uso de una mano en detrimento de la otra, de
forma que las siguientes veces que hemos de tomar un objeto volvemos a
utilizar la misma mano que utilizamos en la primera ocasión. Es posible
que exista la misma probabilidad de usar la primera vez una u otra mano,
pero hemos de usar una de ellas para tomar el objeto, y la elección
inicial marcará de forma irreversible nuestro futuro.
Desde el punto
de vista matemático Poincaré asigna a las bifurcaciones el origen de un
nuevo significado al caos, definiendolo como una clase de orden compleja,
sensitiva e impredecible. Esta teoría viene a explicar como se modifica
el comportamiento de los sistemas en determinadas circunstancias, de
forma tal que en vez de seguir una trayectoria temporal hacia un
determinado atractor (objetivo) éste es sustituido por otro de forma
brusca. Así, si el sistema seguía una determinada senda de crecimiento o
desarrollo, en un determinado punto la modifica por otra que lo dirige
hacia un objetivo completamente diferente. No importa que la trayectoria
que seguía hasta este momento fuese uniforme o bien tuviese oscilaciones
más o menos regulares, en determinado punto el sistema modifica de forma
radical su dirección, propósito u objetivo.
La nueva
trayectoria que sigue el sistema puede ser tan estable como la anterior o
bien llevarle a un colapso. En este ultimo caso hablamos de bifurcaciones
catastróficas. No ha cambiado la estructura del sistema, sino que llegado
a un punto crítico del mismo, modifica su trayectoria hacia un nuevo
atractor. Un aspecto significativo de este comportamiento es la ausencia
de señales de aviso o de alarma que nos informen de la proximidad de una
bifurcación en base a la historia del sistema. Tampoco los cambios en el
entorno nos pueden anticipar la llegada a una bifurcación, ya que las
mismas circunstancias del entorno observadas en el momento de la
bifurcación pueden haberse dado en etapas anteriores del sistema sin
repercusiones.
Atractores
extraños : Los fractales
También en esta
rápida secuencia podemos añadir al descubrimiento de los fractales de
Benoit Mandelbrot, que explica algunas de las formas recurrentes de los
seres vivos. Estas formas tienen como propiedades esenciales la auto
similitud de la estructura, la complejidad infinita en un espacio finito
y mostrar como causas simples pueden producir resultados complejos. Mandelbrot además diseño una
nueva física, una nueva geometría, no euclidiana: la geometría fractal.
El caos determinista: El efecto mariposa
En el mundo que
conocemos la causa y el efecto mantienen siempre una cierta proporción
que responde a las leyes de la física. A medida que ejerzo más presión
sobre el acelerador el vehículo adquiere más velocidad, y a mayor giro
del volante mayor es el cambio de trayectoria. El esfuerzo que necesito
hacer para mover un objeto es proporcional a su peso.
El matemático y
después meteorólogo americano Edward Lorenz observó que en su simulador
del mundo para el cálculo del tiempo atmosférico previsto, una pequeña
variación en los valores iniciales mostraba como resultado unos
pronósticos del estado del tiempo totalmente diferentes, observando que
pequeñas variaciones en los datos de partida generaban una gran
dispersión de los escenarios finales. Como ocurre tantas veces en la
ciencia, las ideas de Poincaré se rescataban. Sin duda el pensador
francés se había anticipado a su tiempo.
De una forma
muy grafica se explica con el término acuñado por Lorenz: “el efecto
mariposa” en el cual la simulación del clima en Mongolia se tornó
absolutamente impredecible en función del ínfimo efecto de una simple
mariposa monarca agitando sus alas a lo largo de la costa de California
del Sur.
Estas
situaciones tienen cuatro características esenciales: - Son entornos que
presentan una gran sensibilidad a las condiciones iniciales, y existen
retroalimentaciones. - Se pueden describir matemáticamente con ecuaciones
diferenciales no lineales. - Son disipativas, es decir requieren aportes
externos de energía. - Se pierde una pequeña parte de la información en
cada una de las etapas del proceso, de forma que no es posible conocer
las condiciones iniciales tras un tiempo.
Esta estructura
recibe el nombre de caos determinista lo cual puede parecer una
contradicción en los términos. Con ella quiere darse a entender que la
perdida de la información que caracteriza al caos no se debe a
circunstancias aleatorias sino a las precisas leyes deterministas de la
física clásica. Por todo ello Lorenz con sus trabajos sobre el caos
determinista nos ofrece una nueva visión del Universo. Como contrapunto a
esta visión de Lorenz de que el caos genera en ocasiones situaciones
imprevisibles, lo cual es real, tiene especial interés la visión de
Prigogine de que el caos finaliza en estructuras ordenadas como se
indicaba antes. Podemos considerar ciertas a ambas apreciaciones, y será
la estructura del sistema la provoque un comportamiento u otro. Así como
veremos posteriormente cuando un sistema se halle regulado por un bucle
positivo nos encontraremos con el efecto mariposa, en cambio cuando se
halle regulado por un bucle negativo veremos como se cumplen los
postulados de Prigogine.
El efecto
mariposa puede verse reflejado en el mundo empresarial en las
imprevisibles consecuencias que puede tener encargar un pedido a un
proveedor en ver de hacerlo a otro. Por el contrario podemos ver
reflejados los postulados de Progogine en el momento de abrir las puertas
unos grandes almacenes el primer día de rebajas. Al cabo de unos minutos
cada cliente se habrá dirigido al departamento donde tiene más interés:
deporte, ropa, calzado, etc.
Desarrollos
actuales
Todos estos
pasos de la historia reciente han aparecido como natural respuesta a las
cada vez más patentes limitaciones del método científico basado
exclusivamente en un enfoque reduccionista para abordar la complejidad de
los problemas actuales, debido a que ya no es posible realizar
experimentos porque existe un alto número de variables que intervienen
sobre las que no siempre tenemos un exhaustivo conocimiento, y también
por la posibilidad de que existan e intervengan factores que nos son
desconocidos al trabajar en entornos o sistemas abiertos, difíciles de
acotar. A la vez se han planteado nuevas preguntas, derivadas de la
necesidad de comprender la esencia que convierte al todo en algo
diferente de la suma de sus partes, es decir de la necesidad de
comprender la aparición de las propiedades emergentes que posee el
sistema en su conjunto, y que no son específicas de ninguno de sus
elementos o componentes.
En realidad
fueron los biólogos quieres primero aplicaron estos conocimientos ya que
el estudio de lo seres vivos había quedado marginado de la ciencia, por
trabajar con sujetos difíciles de cuantificar (¿cuanto pesa un corazón
vivo?) y porque las pruebas son reproducibles con mucha dificultad. Su
disciplina científica presenta la aparición de propiedades emergentes en
los respectivos niveles de estudio: célula, individuo, grupo, y especie
que no se pueden explicar únicamente en base a las propiedades físicas de
los miembros del nivel inferior que lo componen.
Todo este largo
camino se pudo empezar a concretar en multitud de aplicaciones prácticas
con la aparición a finales del siglo pasado de potentes ordenadores (los
injustamente denigrados IBM) y accesibles soportes de software (el
demonizado Windows) que nos permiten aplicar todos estos principios,
leyes y teorías a un ámbito cotidiano, como es la resolución de problemas
en los ámbitos donde la complejidad no es la excepción sino la norma: la
biología, la ecología, la economía, las ciencias sociales, y a la
empresa.
Actualmente
podemos hallar las aplicaciones prácticas agrupadas en diferentes
disciplinas:
Ingeniería de Sistemas
Gestión de Sistemas
Investigación Operativa
Dinámica de
Sistemas en función del tipo de problemas que se deban resolver.
Podemos decir
que las características comunes de este conjunto de disciplinas son:
- Análisis de
la estructura del sistema, es decir de los elementos y las relaciones.
- Visión
abierta de los sistemas, de forma que no pueden percibirse de forma
aislada del entorno.
- Relevancia
especial de los elementos no materiales que se hallan en la estructura de
los sistemas.
- Utilización
del ordenador como instrumento de trabajo, en vez de ecuaciones
matemáticas, para la creación de modelos y la simulación de alternativas.
Juan Martín
García
Edgar Morín (Pensamiento Complejo)
fuente y mas referencias:
|
No hay comentarios:
Publicar un comentario