Ricardo García Jiménez
Universidad Tecnológica de la Mixteca
rgarcia2000_mx_1@hotmail.comResumen:
En la actualidad existe la necesidad creciente de optar por un pensamiento más integral y sistémico, en vez de conservar el tradicional pensamiento lineal, mecánico, reduccionista, clasificador y causal. Por ende, en el presente artículo se pretende desarrollar un análisis epistemológico, el cual propone optar por una forma de des-aprendizaje y aprendizaje de las estructuras mentales que han sido formados para percibir una realidad reducida. Se opta por enfoques influenciados por el pensamiento complejo, los cuales conducen al desarrollo de nuevas actitudes para abordar la realidad desde una perspectiva sistémica y holística. La presente reflexión está basada y sustentada en los aportes que hacen diversos autores a lo largo de la historia de la ciencia, donde el impulso a asumir diferentes paradigmas de la ciencia no convencionales son otra manera de abordar la realidad. Los modelos que parten del pensamiento complejo se han estado abriendo paso entre la comunidad científica, filosófica y los pensadores en las áreas humanísticas, para sustentarse como una opción diferente que pueda dar cuenta de la realidad y de los objetos que en ella existe.
Palabras clave: Pensamiento complejo, pensamiento lineal, epistemología reflexiva.
Abstract:
At present there is a growing need to opt for a more comprehensive and co-Sistemi, instead of preserving the traditional linear, mechanical, reductionist, causal thinking and thinking classifier. Therefore, in this article we will develop an epistemological analysis, which proposes opting for a form of unlearning and learning mental structures that have been trained to perceive reality reduced. It chooses influenced by the pen-cessing complex, which lead to the development of new attitudes to approach reality from a systemic and holistic perspective approaches. This reflection is based and supported by the contributions made by various authors throughout the history of science, where the impulses to ASU-mir different paradigms of science are another unconventional approach reality. The models are based on the complex thought has been making its way between scientific, philosophical and the communi ty-thinkers in the humanities areas, to sustain a different option that can account for the reality and the objects in it exists.
Keywords: Complex thinking, linear thinking, reflective epistemology.
Para citar este artículo puede uitlizar el siguiente formato:
Ricardo García Jiménez (2015): *“La irrupción de los Neo-Paradigmas” (Un extracto del presente documento fue presentado en VII Coloquio Internacional de Pensamiento Complejo realizado en San Cristóbal de las Casas los días 15 al 17 de Octubre de 2014 en la Universidad Autónoma de Chiapas bajo el título “Las otras opciones al pensamiento lineal” en coautoría con García Jarquín, B., Doctorante del programa de Ingeniería de Sistemas y Morales Matamoros, O., Profesor-Investigador. ESIME-IPN. Zacatenco, México DF. El trabajo aquí expuesto es una versión extendida del autor), Revista Contribuciones a las Ciencias Sociales, n. 29 (julio-septiembre 2015). En línea: http://www.eumed.net/rev/cccss/2015/03/pensamiento-lineal.html
A más de cuatro siglos de que René Descartes e Isaac Newton edificaran la visión del universo mecánico1 , donde la búsqueda de la partícula elemental, sostén último del “arjé” (principio) de la “fysis” (naturaleza) parece aún no concluir. Muchos hombres de ciencia y filósofos abatidos por la falta de una explicación mucho más satisfactoria de la realidad y sus fenómenos, han comenzado aceptar la posibilidad explicaciones diferentes a partir de otro tipo de modelos que conciban la realidad desde otra perspectiva mucho más flexible; es en la década de los años noventa del siglo XX cuando emerger paradigmas 2 alternativos e interdisciplinarios mucho más complejos que intentan referir y esclarecer el origen del orden, el desorden y la reorganización del cosmos (García, 2014a).
Las teorías simplificadoras que dan cuenta de una realidad física desagregada se edificó sobre losprincipios básicos de interpretación analítica-sintética, aspectos que nos indicaban que la realidad y los objetos que ella existen tenían que ser entendidos como la simple suma de las partes, así como la descripción de la exterioridad de los objetos eran las únicas vías suficientes para comprender el Todo. Esta posición ha ido derrumbándose ante la aparición del mundo cuántico que cimbró la explicación del mundo por la física tradicional.
La irrupción de las nuevas propuestas como la Teoría de la Mecánica Cuántica supone la complementariedad de diferentes entidades (magnitudes) pero hermanadas dentro de un mismo espacio como por ejemplo la posición y velocidad de partículas subatómicas para señalar que la realidad física es algo más complejo que la simple suma de las partes.
Fue el fisco alemán Werner Karl Heisenberg quien dio otra explicación alternativa para comprender que la realidad física descrita por el simple reduccionismo a través del cálculo y las medidas algebraicas y descriptivas, imposibilita el conocimiento simultáneo de ambas magnitudes como son la posición y velocidad de un electrón con precisión absoluta.
Por lo tanto, el Principio de Determinación no puede cumplirse como regla universal ante la existencia cierto tipo de fenómenos en espacios o dimensiones específicas que poseen propiedades diferentes dependiendo la dimensión donde se encuentren. Y por el contrario, el Principio de Indeterminación de Heisenberg crea la existencia de magnitudes complementarias inadmisibles de descomponer y precisar de manera simultánea, lo analítico aquí no tiene sentido. En la Teoría de la Mecánica Cuántica la presencia de una envoltura complementaria, corpuscular y ondulatoria de un sistema, depende del artificio (ángulo) escogido para su observación. Al contrario, la Física Clásica conjeturaba que la onda y la partícula personificaban dos retratos distintos mutuamente excluyentes.
Hoy el universo físico es entendido como una enorme red de relaciones, donde ya nada puede explicarse desde de sí mismo, autónomo y separado de las demás cosas que existen en la realidad.
Actualmente el entorno natural es descrito a través de la metáfora del efecto mariposa,cuya descripción resumida especifica que cuando una mariposa aletea en el Mar de China puede causar una tormenta en New York 3. Hemos pasado de una concepción estática de elementos aislados -el átomo como una bola de billar- a una descripción dinámica que nos habla de una red o patrón de interacciones multidimensionales de unos objetos relacionados con otros objetos (García 2014a).
La metamorfosis conceptual que percibe el universo como un gran sistema que contienen una red de redes, se encuentran ordenado en grados de complejidad4 , viene escoltada con la implementación de una nueva imagen que expone al universo como un armazón de relaciones entre los individuos y las cosas y viceversa, en la que sujetos y objetos son envueltos por un ambiente que incide en ellos y viceversa; observamos que la red que enlaza los nodos o agentes y relaciones se puede igualar a una gran telaraña (García 2014a).
Actualmente para apropiarnos de la realidad se necesita de un conocimiento mucho más profundo, mismo que pueda vincularse con diferentes dimensiones o campos de conocimiento; pero éstos a su vez necesitan de una antroposociología, misma que necesita articularse con otros campos del conocimiento como la ecología y estos a su vez con ciencias de la naturaleza (física, química, biología) y en definitiva esta articulación de distintas áreas del saber demanda una organización en sucesión en la conformación de una estructura del conocimiento mucho más complejo que lo simplemente observado y analizado desde un campo único del saber (Morin, 1981).
El anti método, la anti teoría o la anti epistemología que se sugiere en la literatura de lo sistémico y la complejidad viene precedida por las obras de grandes pensadores como Edgar Morin (1981, 1983, 1988); Thomas Kuhn (2006); Gilles Lipovetsky (1989); I. Prigogine (1983); Karl Pribran (1980, 1995); David Bohm (1998, 2003); Fritjof Capra (1985,1998, 2000); Ken Wilber (1987, 1988, 1991, 2001) y muchos otros estudiosos que tienden a inducirnos de manera abierta en asumir una forma de des-aprendizaje de aquellos conocimientos que han sido formados en nosotros bajo una precepción de la realidad mediante el esquema simplificador (relacional, reduccionista, analítico y mecanicista). Lo que estos y otros pensadores sugieren es el desarrollo de un conocimiento que pueda adquirir el sujeto cognoscente a través de esquemas sistémicos y holísticos mucho más laxos.
Ahora bien, este conocimiento, paradigma y actitud que es la complejidad se abre paso entre la comunidad científica para sustentarse como una opción que descubra nuevas vías que expliquen la realidad y los objetos que en ella existe, pero de una forma contraria a la fragmentación, exclusión de los objetos y fenómenos que hace el pensamiento simplificador.
Es así que reflexiones como las realizadas por gentes como Edgar Morín, Gilles Lipovetsky, I. Prigogine, David Bohm y otros teóricos sugieren la reconexión de las distintas áreas del conocimiento que en la actualidad siguen apareciendo como disgregadas unas en relación con las otras, donde cada uno de esos campos del conocimiento explican a su modo y a su forma la realidad o los fenómenos mediante un discurso parcial, desagregado y excluyente; la propuesta de los nuevos epistemólogos es rehacer un discurso integrador y renovado que ayude a interpretar la realidad desde otros ángulos alternos.
De acuerdo a García (2014b) en su artículo titulado “Hacia un nuevo modelo epistemológico. ¿La necesidad de un contra método?”, se sugiere el asumir una posición epistemológica sustentada sobre el empleo del pensamiento complejo en vez utilizar solamente el tradicional pensamiento reduccionista-lineal. El autor citado, y apoyándose de la invitación que realiza Edgar Morín sugiere mantener un diálogo frente a los hechos y no sólo a partir de asumir una postura analítica descriptiva de los objetos que nos lleva construir conocimientos segmentados.
Para ello, la comprensión y revaloración de los elementos de todo proceso epistemológico requiere que el observador deba ser reinterpretado (asumirse a sí mismo) ya no bajo el modelo simplificador que reduce la objetividad y subjetividad sólo a un mundo fenoménico a través de teorías racionalistas como resultado del saber abstraído y conceptualizado que se ubica en el plano de la interpretación lineal de las cosas y de la realidad misma (Morín, 1981).
Esta dificultad que se le presenta al sujeto cognoscente para dar el siguiente paso y asumir otro modelo epistemológico supone actualmente seguir adoptando la existencia de una realidad fragmentada en oposición a la entendida por el modelo sistémico.
Pero esta situación puede engañarnos cuando se piensa que concebir el mundo a partir de tomar cada una de las partes de un todo sin suponer la existencia de ese todo que se enlaza a su vez a otros todos que están envueltos en ambientes y contextos complejos que son moldeados por la interacción de objetos-sujetos y sujetos-objetos respecto a otras dimensiones.
Asumir la interpretación y explicación de la realidad y de los objetos existentes en ella desde otro ángulo, no es sólo encontrar sistemas por dondequiera como si se tratara de objetos (sistémicos) muy parecidos a los guijarros que reposan en el fondo de un estanque de agua.
La inmediatez sensible en la que se basa el entendimiento básico que se tiene de los objetos genera ilusiones que no se tratan sólo de entes pensados. Pueden ser interpretadas como simples aprehensiones de imágenes que se instauran en nuestras mentes sin que sean filtradas y cuestionadas por nuestra propia racionalidad para validar su objetivad al ser captadas.
Pero esto no es así. En la realidad el sujeto cognoscente se pregunta sobre esa realidad en forma aparentemente dialéctica auto-produciéndose en una mutua retroalimentación. Pero en cada cuestionamiento se necesita de esa realidad que la valide mediante una serie de preguntas bien formuladas, y cada realidad da lugar a un cuestionamiento mucho más profundo. De ahí que su imposibilidad en la asertividad en este primer momento en el acto de observar5 .
El proceso mismo de aprehender consiste pues en ese ajuste epistemológico que lleva a preguntar y confrontar la realidad y al objeto en un torbellino incesante pregunta-confrontación y confrontación-pregunta (Arnold, s/f).
Hay que indicar que el mundo actual transita hacia niveles de creciente complejidad cada vez más evidentes por el número de factores que intervienen en la vida social y el contacto que estos fenómenos tienen con las relaciones que entablan con el medio físico que los envuelve.
Por lo tanto, el número de variables que entran en acción y las múltiples relaciones que se crean entre sí, demandan para su descripción y comprensión de un enfoque transdisciplinario e interdisciplinario, integrador y sistémico que permita explicar ese nuevo orden que se nos presenta como imposible de comprender.
Es así que la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) en los últimos 25 años, viene exhortando a la comunidad internacional de la importancia que tiene el cambio del modelo epistemológico educativo que las distintas universidades del mundo tienen que asumir para propiciar un cambio en el desarrollo para la construcción de un nuevo conocimiento (Ciret-Unesco, 1997, 2000; Unesco, 1998).
Entre estas propuestas que la UNESCO propone:
Las exhortaciones anteriores por parte de la UNESCO, llevan a la comunidad internacional de académicos e investigadores a una reflexión del estado que guarda la ciencia, sus marcos conceptuales, teorías y métodos, para trazar un nuevo modelo de conocimiento con mayores alcances que busquen explicaciones y resoluciones conjuntas no importando el campo de especialidad.
Para ello se requiere redefinir aspectos tan significativos como el papel del sujeto cognoscente y las formas de cómo éste abordará los problemas y la manera como se nos presenta la realidad ante un mundo de creciente complejidad.
Fue en la década de los años de 1950 que el principio básico de la ciencia, que se sustentaba sobre la base del reduccionismo, empezó a trazar un cambio en sus formas de abordar la realidad; antes de esta fecha fueron pocos los campos del conocimiento que en sus corpus teóricos y estrategias epistemológicas incorporaron perspectivas y explicaciones no lineales, como fueron los casos de la Teoría de la Mecánica Cuántica, la Gestalt y la Teoría General de Sistemas que empezaron a sugerir nuevas vías para la comprensión de ciertos fenómenos que no respondían a las explicaciones clásicas de la lógica causa-efecto.
Es una frase de Edgar Morin la que resume de manera muy convincente la importancia de asumir un cambio en el modelo epistemológico:
“En el curso de los años cincuenta fue Karl Ludwig von Bertalanffy quien elabora una Teoría General de los Sistemas que por fin abre la problemática sistémica. Esta teoría se expandió por todas partes, con fortuna diversa, en el curso de los años sesenta. Aunque comporta aspectos radicalmente renovadores, la Teoría General de los Sistemas jamás ha intentado la teoría general; ha omitido profundizar en su propio fundamento, reflexionar el concepto de sistema.” (Morin, 1981).
Es con Morin que el concepto de sistema (lo no lineal, lo no reduccionista, lo no analítico) obtiene una evocación ontológica sin parangón y se aleja de la utilización descriptiva ligera que se ha hecho del término sistema, cuando explica que “los sistemas están en todas partes, el sistema no está en ninguna parte de la ciencia.” (Morin, 1981).
Desde esta perspectiva se comienza a tomar distancia de la concepción clásica de sistema que la considera, al igual de las ciencias tradicionales, como algo dado en la realidad e independiente del sujeto cognoscente, excluyendo al sujeto del análisis sistémico y eliminando su tarea de precisar su objeto de estudio.
Hay que indicar que el modelo científico tradicional que se desarrolló después del renacimiento fue la base del progreso científico y tecnológico que conquistó la explicación del mundo; esfuerzo que repuntó hacia inicios del siglo XIX con la revolución tecnológica-industrial y el avance en las ciencias sociales con el despliegue del pensamiento positivista de Augusto Comte.
No obstante, el estallido de los conocimientos y la creación de distintas disciplinas que fueron especializándose, propició el cuestionamiento de los alcances de la epistemología tradicional, pero esta tropezó con la alta complejización de la sociedad que encausó el surgimiento de nuevos fenómenos que la ciencia convencional no puedo explicar con sus teorías y métodos reduccionistas.
Hay que indicar que el problema de la aprehensión y comprensión de la realidad para formar los saberes por medio del modelo simplificador es mucho más profundo de lo que uno pudiera suponer. Su origen y su interrogante sobre su viabilidad llega en la actualidad a cuestionar las estructuras y configuraciones de cómo se ha edificado el pensamiento humano, mismas que nos llevan a preguntarnos cómo opera nuestra mente, así como cuáles son los procesos que sigue nuestra razón en el modo de conceptualizar y dar sentido a las realidades ante lo que realmente existe.
Estas incógnitas replantean la existencia de una heterogeneidad en el desarrollo de nuestras facultades físicas y mentales, mismas que son las que nos posibilitan o limitan la aprehensión de la realidad que vienen aparejado con un imprinting 6 que ha sido insaculado durante el desarrollo de nuestras vidas.
La epistemología tradicional enfrenta ahora los modos y formas de cómo entender la realidad, se cuestiona sobre nuestra estructura lógica para ordenar y dar sentido a los objetos; se exige así mismo una actitud crítica y todo ello bajo el riesgo de dejar sin rumbo y sentido a nuestros conocimientos que aspiran a ser objetivos y universales, es decir, en la búsqueda por encontrar otras formas de pensar la realidad y los objetos contenidos en ella. Este cuestionarse posee el riesgo de alejarse de los llamados conocimientos “científicos”.
Por consiguiente, el conocimiento adquirido no es sólo un reflejo de lo que percibimos; el conocimiento es el resultado de un entramado mucho más complejo que, ciertamente, puede involucrar la interacción de los estímulos sensoriales (vista, oído, gusto, etc.) junto a un contenido de residuos existente de nuestra memoria (filogenético y ontogenético), donde procesos de ordenación y organización conceptual lógica y todo nuestro mundo de valores, como también intereses, sentimientos, miedos, etc., son lo que dan forma al pensamiento humano.
Esto nos lleva a suponer que el pensamiento humano es el resultado emergente7 de la conjunción de nuestras facultades intrínsecas mentales, así como del contacto social y natural que envuelve al sujeto que conoce.
Advertimos que ha sido sobre la idea de un modelo reduccionista-mecanicista que se fundamenta el progreso y la cultura de la civilización moderna que se traduce en saberes especializados y segmentados en campos del conocimiento elaborando síntesis teóricas de las realidades que estudia, ya sea por medio de analogías, metáforas o implantando modelos, e incluso, auténticas teorías descriptivas.
Pero recordemos que la visión atomística de la realidad tiene su génesis en una larga tradición en la construcción del pensamiento racional que comenzó desde la Grecia Clásica con la racionalización de la realidad cuando se abandona el mito como forma explicativa de los fenómenos que acontecen en la misma naturaleza.
Al igual que para Platón, Aristóteles señalaba que conocer supondría estar en condiciones de dar cuenta de la esencia del objeto conocido. De ahí que el conocimiento era propiamente lo universal, de la forma (o de la Idea), según infería Platón. Pero para Aristóteles la forma se halla en la esencia, no es una entidad subsistente, por lo que es absolutamente necesario para poder entender la forma la aprehensión haber captado previamente, a través de la sensibilidad, la sustancia del objeto.
Las discrepancias entre Platón y Aristóteles son amplias, tanto al valor asignado al conocimiento sensible, como a la actividad misma del entendimiento que ha de ser necesariamente discursiva. De forma definitiva Aristóteles niega abiertamente el innatismo del conocimiento, y nos lo muestra como la consecuencia de un aprendizaje, es decir, por la combinación racional de los elementos naturales de la sensación, mediante la experiencia. Sin embargo, ambos filósofos coinciden en la consideración de que el verdadero conocimiento tiene que ser universal, y no de la simple aprehensión de los objetos singulares.
Pero fue con René Descartes, en su obra el Discurso del Método, quien trató de crear una serie de reglas que ayudarían a objetivar la realidad en normas que se resumen en:
Estos indicios apuntan a la construcción de vías de apropiación y descripción de un conocimiento objetivo, donde pensadores como Isaac Newton lo pudieron expresar y formalizar a través de su famosa Ley de la Gravitación Universal que se reduce en una sola expresión matemática que describe la interacción gravitatoria entre distintos cuerpos con masa8 , la cual, resumía el trabajo otros grandes pensadores de la talla de Copérnico, Kepler, Galileo, Tycho Brahe y muchos más; La Gravitación Universal es el más puro ejemplo del reduccionismo de su tiempo.
Resaltemos que el método científico tradicional ha continuado desarrollándose desde inicios del siglo XVI hasta el día de hoy mediante una lógica lineal unidireccional, vinculándose a un eje deductivo como inductivo para objetivar las cosas y obtener un grado de certeza sobre ellas.
Vemos que la línea deductiva ha seguido siendo usada principalmente en las ciencias formales (lógica y matemática), como también la aplicación de las matemáticas (aritmética, álgebra y geometría), en leyes y principios que se han desarrollado en el campo de las ciencias naturales, especialmente dentro de la física y la química, siendo estos los medios y el baluarte que juzgan el conocimiento objetivo y rechaza el subjetivo.
El razonamiento deductivo, como expresión simplificadora del conocimiento, parte de lo general a lo particular y retoma principios que la lógica (como una rama de la filosofía) se ha manifestado como necesario para comprender la realidad, dentro de esos principios destacando los siguientes aspectos: el principio de identidad, de no contradicción, del tercero excluido, postulados que ayudan a diferenciar los objetos de estudio.
Asimismo los postulados euclidianos y los sistemas de axiomas, existentes en la geometría coadyuvan a mesurar y esbozar las formas que se presentan invisibles ante nuestros sentidos, como también lo realiza la aritmética y el álgebra. Esta lógica encausa a la mente humana para ver que un determinado teorema o proposición ha quedado demostrado.
Por otra parte, la lógica inductiva sigue el mismo camino pero de forma contraria que la deducción; comienza sus razonamientos ubicando particularidades y tratando de generalizarlas hacia la construcción de una conclusión universal. Por ejemplo: en el bosque que observo puedo concluir que todas hojas de los árboles son verdes. Pero no es así, porque puede haber hojas amarillas o rojas.
Por eso, la comprobación de una muestra del universo nunca nos dará una certeza absoluta de lo que se afirma. Por ello se recurre a niveles de confiabilidad y de error de estimación de las muestras que van entre el 1% al 5% de error aceptado. Esta situación posibilitó la existencia de campos del conocimiento como la estadística y la probabilidad que no emiten resultados absolutos sino posibles.
Algunas características que distinguen al pensamiento racional simplificador del complejo son que el primero posee una capacidad de producción de ideas y/o conceptos que buscan la asociación o vinculación entre los objetos pensados y los factores que le anteceden a los fenómenos. Esa actividad mental coligada al procesamiento mental comprende necesariamente la transmisión de información de forma económica (reduccionismo).
El pensamiento racional crea conceptos, emite juicios, otorga soluciones que permiten la toma decisiones para dar respuesta a la explicación de los problemas existentes de cada momento histórico.
La mejor expresión del pensamiento racional es la formulación de teorías contenidas como corpus explicativos en el seno de la llamada ciencia.
Por lo tanto, el pensamiento racional además despliega una forma de organizar y jerarquización de los conceptos por categorías entre aquellas que son representaciones de objetos del mundo empírico y aquellas otras que son productos de la más pura abstracción9 .
Lo que se viene sugiriendo entre líneas en este apartado es el inminente choque entre el modelo simplificador de causa-efecto y el surgimiento de una propuesta no determinista y multicausal en la explicación de la realidad como se dio en los inicios del Siglo XX. Científicos de la talla de Albert Einstein, férreo defensor del modelo de causa y efecto imperante en la ciencia de ese momento, indicaba que era impensable dejar la explicación de la realidad del universo a una intervención divina, afirmando tajantemente que “Dios no juega a los dados”.
En efecto Einstein señaló enfáticamente que quien esté convencido de que todos los acontecimientos del mundo se rigen por los principios de la causalidad, no pueden aceptar de modo alguno la idea de que un ser “divino” intervenga en la organización del mundo.
Para Einstein, no existe propiamente el libre albedrío humano, sino que toda conducta, aún la humana, responde a una causa específica (determinismo). Es así que dentro de la cosmovisión de Einstein no se pude aceptar la existencia de otras formas de explicación de la realidad debido a su postura rígida sobre el determinismo del mundo, la existencia de otro tipo de explicaciones no convencionales lo llevo a que en los últimos años de su vida sus ideas y propuestas fueran relegadas a un segundo plano.
Pues fue dentro de estos mismos campos del conocimiento como la física teórica que experimentó una revolución paradigmática con el surgimiento de la mecánica cuántica10 .
Cuando Werner Heisenberg y Erwin Schrödinger apuntalan en el año de 1925 a una de las primeras rupturas teóricas del determinismo einsteniano a través de la mecánica cuántica, Einstein reaccionó vivamente con un claro rechazo a dicha propuesta, donde sus interrogantes se centraron en cuestionar: ¿ya no podrá predecirse con certeza (determinística), sino sólo con probabilidad (estadística) lo que hará un quanto de luz que se comporta, de forma paradójica como partícula, y como onda? ¿Únicamente se podrá determinar lo que hará “por término medio”, probablemente?
Einstein no acepto esta interpretación y explicación de la realidad, pese a que Max Born y Pascual Jordán proporcionaron la interpretación estadística a la propuesta de Heisenberg y Schrodinger.
Para el gran pensador que fue Einstein la probabilidad meramente estadística era una imprecisión inaceptable y el principio de indeterminación de Heisenberg contradecía la fe de Einstein que tenía sobre el mundo mecanicista (Talbot, 1995).
Hay que señalar que la creación del concepto (elemento básico de toda construcción teórica) se encuentra sujetada a un contexto de experiencia personal de la propia realidad que es vivida por el sujeto cognoscente, donde la práctica individual o colectiva (cultural, social, etc.) es de gran importancia para la formación del lenguaje que coadyuva a explicar o describir el objeto de conocimiento.
Y es este, el lenguaje, sobre todo el referido a la propia lengua, el que limita o amplia la posibilidad de construcción del leguaje, pues mediante ello el conocimiento tiene la posibilidad de ser trasmitido mediante una expresión oral, hablada o escrita y, por tanto, es comunicable.
Los conceptos son una copia de los objetos contenidos en el seno de esa realidad; pero la conceptualización involucra también un riesgo porque al simbolizar algún objeto o situación deja fuera del molde conceptual una infinidad de situaciones, contextos, evolución histórica y otros aspectos que no pueden contenerse en el mismo concepto11 .
Por ejemplo, en el cuadro de René Magritte “Esto no es una pipa” (traducido del título original en francés: “Ceci n’est pas une pipe“) comunica, en primera instancia, la oposición entre una imagen y su inscripción. La obra exhibe la imagen de una pipa (utensilio para fumar) seguida de la frase “Esto no es una pipa”. La imagen refleja evidentemente la representación de una pipa, pero en cambio su leyenda, el texto asociado a la imagen, niega tal realidad aniquilando con esta afirmación lo observado.
Un dibujo tan sencillo no necesita de una expresión que lo aclare, sin embargo, está ahí y no para descifrar lo indudable, sino para crear una contradicción con un trasfondo que invita al observador a descubrir el porqué de tal enigmática creación, a destejer la compleja maraña que con tanta agudeza elaboró Magritte.
Lo que se cuestiona ante estas formas de pensamientos saturados de una alta abstracción racional es la viabilidad de otro tipo de epistemología o contra-método que posibilite inducirnos en una especie de perplejidad y una recurrencia de preguntas que ayuden al sujeto cognoscente asumir otras formas de ver, entender y explicar la realidad.
Es por medio de una nueva revaloración de la realidad, a través de cuestionamientos imperativos, que se intente cimbrar la idea monopólica de los referentes teóricos y la pretensión del poder explicativo absolutista que posee la ciencia tradicional que comenzó a ser contradicha por su limitada capacidad explicativa; el propio sujeto cognoscente se pregunta sobre el uso que se le dan a los conceptos, ya que estos dejan fuera de sí la mayor parte de las cualidades de la realidad y/o de los objetos a estudiar, ello nos hace observar que los modelos explicativos o paradigmas transitan por un estado de permanente crisis pues se encuentran despegados de la realidad y de los objetos que intenta explicar.
Podemos señalar paradójicamente que la misma realidad se resiste a verse reflejada en una escueta esquematización de gran simplicidad y excesiva explicación mecánica como son los conceptos que se acuñan para describir ciertas características o propiedades que poseen los objetos examinados.
Surge así la importancia de superar la dualidad entre lo inteligible y lo sensible, entre el entendimiento y los sentidos; manifestaciones que serán los antecedentes primitivos del pensamiento simplificador, pero que en una superación de estas dualidades dialécticas, surge el principio dialógico12 que coadyuvará a explicar desde otra manera de razonamiento superado de esa confrontación de y entre los opuestos, como del conflicto entre totalidad y el reduccionismo, espíritu y materia, como la reducción de la observación de los objetos y su efecto producto de su interacción.
Podemos inducir entonces que la mayor flaqueza del pensamiento lineal es su irrealidad, es decir, su distancia de la realidad concreta, fundamentalmente si se trata de dar cuenta de fenómenos dentro de las ciencias humanas, donde no se puede reducir únicamente a una variable independiente, una dependiente y una relación de causalidad para la explicación del mismo fenómeno; no, sino que siempre entran en juego un número indeterminado de variables que no son lineales, ni unidireccionales, ni causales, sino variables que interactúan mutuamente entre las cuales podemos encontrar: causales, condicionantes, de contexto, soporte, propiedad, contradicción, etc.
Es por esta y otras situaciones que el carácter epistémico de la ciencia, en todos sus campos particulares de conocimiento, comienzan a transitar hacia nuevos modelos de explicación e interpretación de la realidad, que a pesar de la existencia de una fuerte actitud ortodoxa por no dejar los modelos causales y reduccionistas por parte de los profetas dogmáticos, lo cierto es que se comienza mostrarse otros modelos de explicación de la realidad y sus objetos mediante un alejamiento de las teorías y términos acuñados que no dan respuestas más convincente de los fenómenos. Desde hace un par de lustros, todos los campos del conocimiento comienzan tomar otros rumbos.
En la encrucijada actual que vive la ciencia tradicional, las reflexiones de Thomas Kuhn cobran gran sentido cuando señala que varios especialistas inmersos en distintos campos del quehacer científico, continúan formulando una serie de supuestos para explicar las causas o fines de un fenómeno bajo esquemas muy ortodoxos, pero estas enunciaciones están fuertemente influenciadas por un conocimiento a priori o por la tendencia general para usar una teoría de moda para dar salida a un problema. Situación que sesgan la explicación del mismo fenómeno o entrampa la explicación de los hechos de diferentes modos sin dar cuenta de que es posible otra interpretación.
Cuando surge la existencia de una anomalía o insuficiencia de la ciencia al explicar un fenómeno u objeto a estudio, producto de una epistemología o metodología tradicional mal utilizada, generaría un replanteamiento radical del uso del método y sus teorías, pero a pesar de lo que la “ciencia normal” pueda argumentar para dar una salida a este inconveniente, ello desembocaría lo que T. Kuhn llamó “Crisis de los Paradigmas”; lo que posteriormente traería una revolución científica por la aparición de nuevas propuestas metodológicas y teóricas (Kuhn, 2006).
Si aceptamos que un paradigma nos remite a un curso de pensamiento y acciones que propone distintas normas, ritmos y sentidos para lograr una explicación o predicción del fenómeno, esta disposición pueden estar sujetas a reglas lógicas y mecánicas, que bajo cierta unidad de correspondencia conceptual hacia las variables que posibilitan el surgimiento del problema, puede que se trate de formas teórico-prácticas consolidadas de aproximación a la realidad mediante esquematizaciones analíticas y mecanicistas muy rígidas.
Kuhn (2006) señaló que con la irrupción de un nuevo paradigma que cuestione a la explicación reinante, es casi seguro que se acumulen puntos a su favor, ¡claro! si exhibe una posibilidad de crear métodos, conceptos y categorías teóricas que se puedan vincular con otros campos del conocimiento. Estos replanteamientos traen consigo un listado de temáticas o problemas existentes que en la realidad merecen ser indagados en los terrenos de las ciencias.
Con la aparición de disciplinas científicas alternativas se proponen crear nuevas perspectivas y consideraciones que den cuenta de la realidad y de temas o fenómenos no convencionales, esto tiene un doble riesgo: a) ser rechazado tajantemente por no ceñirse a los cánones de la ciencia tradicional, b) ser aceptada medianamente como una seudo-ciencia. Pero que en ambos casos serian el desprecio por nuevas formas de ver y entender la realidad.
Podemos afirmar que desde la última década del siglo XX, hemos sido testigos del nacimiento de parámetros de observación y composición conceptual de la realidad que puede llegar a multiplicarse en nuevas hipótesis para configurar nuevos paradigmas alternativos que aborden temas u objetos “diferentes”.
Es importante comentar que algunos de estos temas, problemas y/o fenómenos de estudio son nuevamente retomados luego de haber sido satanizados, subestimados o descartados durante mucho tiempo por los poseedores y sumos sacerdotes que han usufructuado los paradigmas de la ciencia tradicional.
Hoy estos mismos temas o problemas podrían aparecer como novedosos cuando se observan con ojos renovados ante el agotamiento de explicaciones convencionales, temas y problemas que al estudiarlos nutren de otros conocimientos.
Se considera que las nuevas ciencias o paradigmas alternativos deberán replantean la necesidad de abordar temáticas y problemas desde cuestionamiento fundamentales comenzando con criticar la tarea que poseen:
Todos y cada uno de los puntos antes citados coinciden en cambiar la noción que se tienen de la estructura y las funciones de los elementos que intervienen en toda teoría del conocimiento.
El panorama presentado hasta este momento nos conlleva también a considerar la existencia de una metamorfosis que sufren los paradigmas tradicionales ante el surgimiento de modelos alternativos para contar con un acervo de saberes renovados y vinculados a una realidad.
Observamos que el pensamiento científico racional tradicional está siendo fuertemente cuestionado por seguir entrampado en:
Es bajo las anteriores controversias que pensadores como Thomas Kuhn, Edgar Morin, Gilles Lipovetsky, I. Prigogine, Fritjof Capra entre otros epistemólogos cuestionan la vigencia y utilidad de los paradigmas clásicos, donde su viabilidad y rectificaciones que se han intentado hacer para seguir siendo vigentes delimita de raíz sus explicación teórica y conceptual muchos de los fenómenos que continuamente están cambiando.
Hoy se exige nuevos programas mucho más amplios y de fondo que oriente y reúna la indagación científica multidisciplinaria, sin formas paradigmáticas cerradas, lineales y reduccionistas, lo que posibilitaría el surgimiento de nuevos paradigmas.
Como ya se argumentó líneas más arriba el surgimiento de nuevos paradigmas que recojan la exigencia de una nueva racionalidad que contemple factores heterogéneos, abiertos y complejos, así como su capacidad de integración a diversos campos del conocimiento es la tendencia de los nuevos tiempos.
Algunas de estas formulaciones alternativas se han desarrollado en las últimas cuatro décadas del Siglo XX y la primera década del Siglo XXI bajo diferentes nombres como:
Estas y otras propuestas alternativas o contra métodos son los espacios donde pueden acontecer situaciones inéditas en más de un sentido pues son los lugares donde se crean las perplejidades creativas, más cuando surgen líneas de fuerte seducción y promesas que se contraponen aquellas mentes domesticadas que han sido guiadas por los modelos tradicionales.
Así fue cómo surgió, por ejemplo, propuesta como la Sociobiología de Edward Wilson que desarrolló modelos genéticos que surgen de la intersección de campos del conocimiento como la neurociencia, la cibernética, la filosofía, biología y otras ciencias sociales.
Wilson refirió en su teoría que el número de ejemplares de seres vivos que existen en una isla es la consecuencia de un equilibrio sistémico dinámico entre las especies de inmigrantes, los que colonizan y las especies nativas, en función del área o superficie de la isla y el ambiente del lugar. Posteriormente, sobre la base de Wilson se desarrollaron teorías complementarias como la de Gilbert (1980) y el equilibrio biogeografíco en una isla del océano pacifico.
En otros campos del conocimiento las críticas y propuestas complementarias que redefinieron el rumbo y la dirección que alcanzan las nuevas expresiones teóricas como las de Richard Dawkins 13, el cual señala que son los genes (y no los individuos) los agentes sobre los que opera el procesos de la evolución de las especies. Dawkins redefine la teoría de Charles Darwin complementándola al indicar que el gen como unidad informativa heredable es la que produce uno o diferentes efectos concretos para mejorar los organismos, en tanto pueda coexistir otra unidad de información que cause efectos distintos (opuestos), denominada alelo, sin interesar si se trata de un quimérico gen aislado o de varios genes cooperativos; inclusive es indistinto si un gen encaja en un cromosoma completo o con una fracción del mismo.
El egoísmo genético que propone Dawkins funda una alegoría con la que explica que la probabilidad de que un gen prospere depende de su capacidad de adecuación al medio (homeostasis, morfogénesis, morfostasis). Los organismos son artefactos de conservación para los genes.
Esta interpretación de los organismos biológicos, posteriormente es corregida por Stenl, aumentado por Lawrence Kohlberg y desbiologizada en cierta medida por Edgar Morin llevan al diseño de la propuesta a una alta complejidad como las teorías del intercambio inter-sistémico.
Ante este nuevo panorama, donde el surgimiento de nuevos paradigmas como el propuesto por físico y químico ruso, ganador del premio nobel en química en 1997, I. Prigogine, que mediante su Teoría de las Estructuras Disipativas 14, se vinculó con una cauda de campos de conocimientos diversos, donde sus descubrimientos están susurrando y enviando señales a otros campos científicos para acerarse a sus propuestas teóricas y conceptuales, sobre todo en las ciencias sociales, para que estos puedan hacer uso y retomen muchos de sus principios e ideas que bien pueden ser aplicadas a la explicación de sistemas sociales con ciertas características como la complejidad y la teoría de sistemas dinámicos como líneas argumentativas.
Así también, por ejemplo, Erick Jantsch y su paradigma de la coevolución15 (evolucionismo cooperativo) es otro de los teóricos que aporta elementos nuevos para la explicación de fenómenos en áreas como las ciencias naturales y sociales contrario a una lógica no lineal.
Niels Bohr y Heisscnberg, después de Einstein, nos han enseñado la importancia que tiene el trabajo colaborativo para romper con las fronteras de los campos segmentados del conocimiento e invitarnos a trabajar en estudios interdisciplinarios para crear nuevas explicaciones aun en campos tan rígidos como la física teórica.
De igual forma en la hipótesis de la sincronicidad propuestas Carl Gustav Jung, Wolfgang Pauli, Xavier Dariex, Charles Robert Richet, Joseph Banks Rhine, se discute sobre la posibilidad de un orden subyacente al que conocemos, un orden a-causal, que da cuenta de fenómenos empíricos no concebibles convencionalmente.
El punto común de estos teóricos es señalar la importancia que tiene que las leyes naturales tienden a buscar verdades medibles estadísticamente hablando, válidas ante magnitudes macro-físicas pero no microfísicas. Ello implica un principio de explicación diferente al causal (causa-efecto).
Cabe bosquejar si en términos muy generales, existe o no una posibilidad de concebir la realidad de manera objetiva, o si esta es una realidad de sucesos acausales. Para ello se ha de afrontar el mundo de la casualidad y causalidad y tratar de separar la causalidad de la acausalidad (Ver figura 01).
Por ende, la acausalidad para varios de estos autores se espera cuando parece impensable la ruptura del orden lógico y mecánico de la causalidad. Ante la casualidad sólo resulta viable la evaluación numérica o el método estadístico para la descripción de algún hecho determinable. Pero las agrupaciones de casualidades han de ser consideradas casuales mientras no se extralimiten de las fronteras de la probabilidad para ser medibles. Si fuera así, es decir, que se salieran de todo patrón de medición y determinación se demostrará la existencia de un principio acausal.
Otra de las propuestas paradigmáticas que rompen moderadamente con la explicación lineal de la realidad la realizó el físico estadounidense David Bohm a través del desarrollo de los modelos especulares, el enfoque holográfico y de las propuestas acerca de un universo ininterrumpido, ordenado holísticamente, donde el todo se refleja en la partes. En una totalidad y el orden implicado que subyace.
Para D. Bohm cuando se estudia la relatividad y la física cuántica se halla un punto de unión y enlace que hace que estas dos dimensiones puedan coincidir en algunos de sus principios y leyes que los rigen. Tanto una como la otra concuerda en la exigencia de observar el mundo como un todo perpetuo, en el cual, todas las partes del universo, incluyendo el observador y sus herramientas, se combinan y se acoplan en una totalidad (Bohm, 1998).
David Bohm consideró que en realidad todo está ordenado según una disposición preestablecida. De este orden nosotros podemos conocer a través de nuestros sentidos e instrumentos el orden que él llama Explicado. Sin embargo, coexiste a éste orden otro orden que él llama orden Implicado. Lo llama así porque considera que esta plegado sobre sí mismo y mientras no se despliegue no podemos conocerlo. La suma de las dos dimensiones formaría lo que considera como Totalidad (Bohm, 1998).
Bohm, en colaboración con el reconocido neuro-psicólogo de la universidad de Stanford, Karl H. Pribram, desarrollaron el modelo Holonómico del Funcionamiento Cerebral, una propuesta de la cognición humana que es radicalmente diferente de las ideas convencionales que se han desarrollado sobre la mente. Bohm y Pribram trabajaron en la idea de que el cerebro trabaja de manera muy parecida a un holograma, de acuerdo con los axiomas matemáticos y principios de la física cuántica y las características de patrones de onda.
Ambos conjeturaron que la razón, por partículas subatómicas, se despliega porque en un nivel más profundo de la realidad, estas partículas no son individuales, sino son extensiones o emanaciones de la misma ola-forma de patrones holonómicos. Pribram y Bohm coinciden en señalar que una especie de “super holograma” contiene toda la información sobre el pasado, presente y futuro de la realidad, al igual que un disco compacto que contiene todavía información espacial que puede ser leído o decodificado por un rayo láser. Puesto que las partículas existentes en nuestra estructura mental subatómica se han asociado como movimientos de olas, que se pueden ver durante los ciclos de onda para entrar y salir de singularidades de percepción y procesamiento (K. Wilber, et al., 1982).
La Holonomía es la función cerebral que se alcanza a nivel cuántico en el cerebro. Estas formas de onda se incorporan y extienden por toda la matriz de un sistema neural que permiten nuevos patrones que se producen a través de la transmutación de las ondas cuánticas en partículas y de nuevo en ondas, viceversa, ad infinitum. La idea de una “mente cuántica” todavía es objeto de debate entre los filósofos y eruditos, un conjunto de teorías que inundan el plano de la ideología funcionamiento del cerebro (K. Wilber, et al., 1982).
Otra propuesta que rompe con todo convencionalismo científico es la Teoría de la Causación Formativa o Resonancia Mórfica de Rupert Sheldrake, quien plantea que en cualquier sistema inorgánico o humano se hereda una memoria colectiva que explica la transmisión del conocimiento por vía no material.
Sheldrake toma una perspectivas muy particular asumiendo algunas ideas de la corriente organicista y como del holismo clásico, apoyado por la Teoría General de Sistemas de Von Bertalanffy para cuestionar de forma tajante la visión mecanicista que da por manifestado cualquier conducta de los seres vivos se entiende a partir del estudio de las partes que las constituyen, y posterior reducir los principios a leyes químicas y físicas.
Sheldrake plantea la teoría de los campos morfogenéticos, la cual auxilian a entender como los organismos toman sus formas y conductas particulares.
“Morfo viene de la palabra griega morphe, que significa forma. Los campos morfogenéticos son campos de forma; campos, patrones o estructuras de orden. Estos campos organizan no solo los campos de organismos vivos sino también de cristales y moléculas. Cada tipo de molécula, cada proteína por ejemplo, tiene su propio campo mórfico - un campo de hemoglobina, un campo de insulina, etc. De igual manera cada tipo de cristal, cada tipo de organismo, cada tipo de instinto o patrón de comportamiento tiene su campo mórfico. Estos campos son los que ordenan la naturaleza. Hay muchos tipos de campos porque hay muchos tipos de cosas y patrones en la naturaleza...” (Sheldrake, 1983)
El aporte de Sheldrake ha sido en reunir conceptos diversos sobre los campos morfogenéticos y formularlos en una teoría comprobable. Los campos morfogenéticos o campos mórficos llevan información, no energía, y son utilizables a través del espacio y del tiempo sin pérdida alguna de intensidad después de haber sido creados. Son espacios no físicos que ejercitan un peso sobre sistemas que presentan algún tipo de auto-organización inherente.
Al respecto Rupert Sheldrake señala:
“La teoría de la causación formativa se centra en como las cosas toman sus formas o patrones de organización. Así que cubre la formación de galaxias, átomos, cristales, moléculas, plantas, animales, células, sociedades. Cubre todas las cosas que tienen formas, patrones o estructuras o propiedades auto-organizativas. Todas estas cosas se organizan por sí mismas. Un átomo no tiene que ser creado por algún agente externo, se organiza solo. Una molécula y un cristal no son organizados por los seres humanos pieza por pieza sino que cristaliza espontáneamente. Los animales crecen espontáneamente. Todos estos elementos son diferentes de las máquinas, que son artificialmente ensambladas por seres humanos.
Esta teoría trata sistemas naturales auto-organizados y el origen de las formas. Y asumo que la causa de las formas es la influencia de campos organizativos, campos formativos, que llamo campos mórficos.
El rasgo principal es que la forma de las sociedades, ideas, cristales y moléculas dependen de la manera en que tipos similares han sido organizados en el pasado. Hay una especia de memoria integrada en los campos mórficos de cada cosa auto-organizada. Concibo las regularidades de la naturaleza como hábitos más que cosas gobernadas por leyes matemáticas eternas que existen de alguna forma fuera de la naturaleza” (Sheldrake, 1990).
La postura de Sheldrake es clara, coloca la rutina o actos repetitivos del sistema natural y la duplicación de los procesos evolutivos en un enlace de dos fenómenos reveladores: la sincronicidad y la interconectividad. La sincroniciad, por ejemplo, es un evento que sucede fuera del tiempo y del espacio como en otra dimensión y presupone un significado que es a priori de la conciencia humana. Cómo se van repitiendo los procesos de la naturaleza, lo trata de exponer la teoría de los Campos Morfogénios y de la Resonancia Mórfica.
De acuerdo con las propuestas y nuevos paradigmas anteriormente presentados, estos pueden estar insertados el alguno de los nuevos campos del conocimiento presentados en la figura 02, esquema que muestra una nuevas rede conceptual y metodologías que convergen hacia modelos científicos mucho más complejos debido a la transdisciplinariedad, multidisciplinariedad y la interdisciplinariedad.
Finalmente habría que reconocer a los investigadores y pensadores que han asumido una actitud rebelde y opuesta a los esquemas reinantes de los modelos paradigmáticos simplificadores, es de admirar que a pesar de jugarse el prestigio dentro del mundo de la academia y la investigación muchos de estos rebeldes del conocimiento han puesto en marcha los nuevos paradigmas, sus teorías, conceptos, métodos que replantean otra forma de explicar y describir a la realidad y sus problemas particulares.
El final del siglo XX y los inicios de este milenio han estado marcados por un continuo proceso de creación de nuevos campos de conocimiento interdisciplinarios, que no han sido solamente bajo la lógica unilineal, causal, analítico o reduccionista, sino que como han señalado en su momento gentes como Thomas Kuhn y Edgar Morin, las nuevas propuestas no han sorteado la explicación de la naturaleza compleja del trabajo científico, sino resaltar la injerencia que posee la sinrazón de lo humano, los subjetivo y el pensamiento complejo y de sistemas para encontrar nuevos abrevadores del conocimiento.
Quizá la característica más importante de estos nuevos paradigmas de la ciencia es reafirmar la necesidad de una autocrítica hacia las teorías reinantes, dado que se advierte la insuficiencia de la razón técnica e instrumental que encarcela en una jaula de hierro, como manifestara Max Weber, al sujeto cognoscente.
De ahí como citara Isaiah Berlín:
“El primer paso para el entendimiento de los hombres es la iluminación consciente del modelo o los modelos que dominan y penetran su pensamiento y su acción... la segunda tarea es el análisis del modelo mismo, y esto obliga al analista a aceptarlo, modificarlo o rechazarlo y, en el último caso, a proveer en su lugar un modelo más adecuado”.
Lo que se está manifestando con estas ideas presentadas a lo largo del presente documento es hacer una revalorización y restablecer las señales alternativas de los sentidos sociales, las huellas del conocimiento social que todos y cada uno de los campos del conocimiento poseen y deben apuntalar para orientar el nuevo quehacer científico.
Lo aquí sugerido no es la debacle de la era de la razón, a pesar de las criticas insidiosas de algunos ingenuos que señalan que los Nuevos Paradigmas viene a sustituir a la razón; no, sino que deliberamos que ya no son tiempos de exclusiones, propuestas lineales o edificaciones mono-causales. Se considera que es tiempo de colaborar con distintas formas y modos de pensar aceptando la diversidad cultural, la diversidad humana y las afectividades, imaginarios y creatividades que sepan convivir con la realidad mediante la razón y el pensamiento no lineal.
Los nuevos paradigmas no vienen a sustituir, sino a complementar desde otra perspectiva lo ya dicho, lo ya escrito.
Bibliografía.
1 El mecanicismo es la doctrina según la cual toda realidad natural tiene una estructura semejante a una máquina, es decir, descomponer los fenómenos físicos en un juego de unidades elementales nos llevan a desarmar lo complejo y reducirlo a lo simple, el todo a la parte, lo cualitativo a lo cuantitativo. Partes que se relacionan unas con otras como engranes de una gran máquina. Como idea filosófica, el mecanicismo afirma que toda realidad debe ser concebida según los patrones provistos por la mecánica, esto es, descifrarla sobre la base de los principios de materia y movimiento. Hay que indicar que el mecanicismo renuncia al carácter ontológico para adoptar la forma epistemológica. Es decir, no se trataba de aseverar que el universo es una máquina, ni tan sólo una máquina considerablemente compleja, sino simplemente de explicarlo a partir de leyes mecánicas de la regularidad del movimiento sin presuponer por ello el carácter mecánico de lo real. Esto permitió concebir a un mecanicismo metodológico que posibilitara constituir una única ciencia basada en los preceptos de la mecánica.
2 La noción y significado de paradigma se retoma de la definición de Thomas Kuhn cuando refiere que: " […] los paradigmas son como realizaciones científicas universalmente reconocidas que, durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad científica." (Kuhn, 2006). Los modelos paradigmáticos son configuraciones ideales de tipo metafísico y epistemológica, que suministran el contexto que forman los diferentes modelos teóricos, presentando las normas de asociación de las diferentes teorías que dan cuenta de un fenómeno definido.
3 Edward Lorenz, meteorólogo, estudió la comportamiento de la atmósfera, profundizando en encontrar un patrón matemático a través del cual le asintiera vaticinar el cambio de las masas de aire mediante variables elementales (periodo del tiempo, la velocidad y la temperatura del aire) para poder medir la trasformación atmosférica que se muestra de forma caótica. Y fue mediante simulaciones en computadora que observó que pequeñas variaciones en los datos de partida (algo tan simple como utilizar 3 ó 6 decimales) llevaban a grandes diferencias en las predicciones del modelo. Es así que cualquier pequeña alteración, o error, en las condiciones iniciales del sistema puede tener dominio sobre la consecuencia final. Esto remitió a Lorenz a determinar que se hacía muy dificultoso hacer pronósticos climatológicos a largo plazo (Martínez Fidel, Eloy Ortiz et. al. ;2009).
4 La complejidad debe concebirse como un armazón de sucesos, acciones, interacciones, eventualidades y vacíos presentes que forman el universo fenoménico. La complejidad se presenta a nuestro entender como aquello que es enmarañado, desordenado, confuso y que presenta un punto de incertidumbre. En oposición a lo complejo esta lo escueto que es lo previsible, lo descifrable, sencillo de observar y exponer.
5 Es importante señalar que una observación y un observador tiene el propósito de hacer una distinción que indica algo y, al hacerlo, lo distingue de todos los demás objetos (Spencer-Brown 1979). Pero si lo señalado es otro sujeto, dispone una observación de segundo orden que no solamente consiste en indicar y distinguir al otro observador, sino también en diferenciar la operación de dicho observador desde sus esquemas de distinción que lo llevan a observar los objetos de cierto modo. El observador de segundo orden prestar atención a lo que el otro ve y también a lo que no puede ver: sus propios modelos de distinción. Es decir, para vislumbrar observadores, los observadores de segundo orden también emplean modelos de distinción que no pueden advertir. Esta es la condición de toda observación: “… puede observar su entorno social y no social, puede observarse a sí misma y puede observar a otros observadores observando. Para hacerlo, sin embargo, requiere contar con esquemas de distinción que le permitan separar (distinguir) lo observado de lo no indicado. Puede, además, distinguir si lo observado es atribuible a su entorno (heterobservación) o al propio sistema observador (autobservación).” (Maturana & Varela 1984). Es también provechoso insistir en que todo observador, de primer o segundo orden, sólo distingue lo que sus modelos de discriminación le permiten ver y no puede ver a partir de sus esquemas de distinción. (Maturana & Varela 1984).
6 Es una marca (molde) que impone la cultura familiar en primer lugar, social después, y que se mantiene en la vida adulta. El imprinting se construye desde la infancia por estabilidad selectiva de las sinapsis, donde las inscripciones primeras van a marcar invariablemente la mente individual del sujeto en su modo de conocer y de actuar. A ello se agrega y hermana el aprendizaje que separa ipso facto otros modos de saber y de pensar.
7 La teoría de la emergencia refiere a aquellas cualidades o procesos que posee los sistemas no reducibles a sus partes que lo constituyen. El concepto de emergencia se engrana con los términos de autoorganización y sobrevivencia que son esgrimidos en la Teoría General de Sistemas, y se explican por antonomasia a los conceptos de reduccionismo y dualismo.
8 Newton dedujo que la fuerza con que se atraen dos cuerpos de diferente masa depende del valor de sus masas y del cuadrado de la distancia que los separa. Observa que dicha fuerza actúa de tal forma que es como si toda la masa de cada uno de los cuerpos estuviese concentrada únicamente en su centro, es decir, dichos objetos fuesen únicamente un punto, lo cual admite disminuir la complejidad de las interacciones entre entidades complejas. La Ley de la Gravitación Universal establece que la fuerza ejercida entre dos cuerpos de masas separados una distancia es proporcional al producto de sus masas e inversamente proporcional al cuadrado de la distancia.
Es decir, cuanto más masivos sean los cuerpos y más cercanos se encuentren, con mayor fuerza se atraerán.
9 Porfirio de Batanea de Siria o Tiro (232 - 304) fue un filósofo neoplatónico que describió cómo las cualidades atribuidas a las cosas permiten ser clasificadas, quebrantado con el concepto filosófico de substancia como una relación de género/especie. De esta manera, puede integrar la lógica aristotélica al neoplatonismo, fundamentalmente la doctrina de las categorías del ser explicadas en los términos de las entidades. El Árbol de Porfirio enseña la ordenación que el filósofo dio a las substancias. En este árbol, los términos van de lo universal a lo particular y con él comenzó el nominalismo que se podría decir que es el precedente de las actuales clasificaciones taxonómicas.
10 Ante la imposibilidad de la localización precisa de las partículas subatómicas, se descubrió que las partículas poseen también una naturaleza similar a la de las ondas, lo cual significa, entre otras cosas, que a veces resulta muy difícil hablar de ellas como si existieran en alguna localización única y precisa. Esta situación fue expuesta por primera vez por el físico alemán Werner Heisenberg, uno de los fundadores de la teoría cuántica, en su hoy famosos principio de la incerteza o indeterminación. Este principio se refiere específicamente a la idea de trayectoria. Por ejemplo, cuando un cañón dispara una bala tanto la física clásica como nuestro sentido común nos dicen que es posible, en algún momento dado, medir tanto la velocidad de la bala como su posición a fin de trazar su recorrido mientras se traslada por el espacio. Este recorrido es la trayectoria de la bala. Lo que Heisenberg señaló es que resulta imposible hacer otro tanto con una partícula subatómica como un electrón. Mediante un procedimiento experimental podemos determinar su velocidad, o momento. Mediante otro método experimental, podemos determinar su posición. Pero nunca podemos efectuar simultáneamente ambas mediciones. En consecuencia, nos es posible saber que en cierto instante un electrón parte de una fuente, y podemos saber que muy poco después incide en una placa fotográfica. Pero es imposible saber es cómo llegó desde la fuente hasta la placa. Por lo tanto, y tal como lo postula el principio de incerteza de Heisenberg, carece por completo de sentido decir que una partícula posee una trayectoria, o un recorrido hecho de puntos continuamente conectados entre sí en el espacio (Talbot, 1995).
11 La abstracción (del latín abstrahere, “separar”) es una operación mental destinada a aislar y desgranar una serie de propiedades, atributos o cualidades del objeto. En el proceso de reflexión mental sobre éstas propiedades que posee el objeto se discrimina aquellas que pueden ser superfluas al objeto dejando solo las que constituyen la esencia del objeto. La primaria reflexión sobre la abstracción corresponde a Aristóteles, que incorporó el vocablo aphaireis que se transcribió al latín como abstractio. Aristóteles supone que toda idea universal se cimenta en datos empíricos. Así, la idea (o concepto) de silla, por ejemplo, procede del proceso de comparación entre de diversos objetos (muebles) que comparten entre si características parecidas que podemos "abstraer" y quedarnos con lo que tienen en común. Aquello que hace que una silla sea una silla no es que sea o tenga cuatro patas, de madera, verde, amarilla o roja, sino que abstraemos de estos objetos su color, su forma, el material del cual están hechas y nos quedamos con la idea o el concepto esencial de silla. Dicho de en pocas palabras, el concepto procede del proceso mental de abstracción (Abbagnano, 1991).
12 El principio dialógico según Edgar Morin (1981) puede ser explicado como la vinculación compleja (complementaria/concurrente/antagonista) de elementos necesarios para la supervivencia, el funcionamiento y el desarrollo de un fenómeno de tipo sistémico. El principio dialógico nos habilita a conservar la dualidad en el interior de la unidad del sistema. En palabras del propio Morin el principio dialógico es: “Orden y desorden son dos enemigos: uno suprime al otro pero, al mismo tiempo, en ciertos casos, colaboran y producen la organización y la complejidad. El principio dialógico nos permite mantener la dualidad en el seno de la unidad. Asocia dos términos a la vez complementarios y antagonistas”. (Morin, 1990:106)
13 Dawkins en su libro El Fenotipo Extendido, asevera que los resultados fenotípicos no están circunscritos al cuerpo de un organismo, sino que pueden desenvolverse en el ambiente, incluyendo los cuerpos de otros organismos.
14 Las estructuras disipativas disponen de la manifestación de estructuras lógicas, autooorganizadas en sistemas apartados del equilibrio. En una expresión banal, una estructura disipativa sería la encomendada de consentir un cierto orden (muchas veces coligado al puro orden biológico) a expensas de una contribución de energía exterior al sistema. De ahí, que se le relaciona al no equilibrio, pues produce contextos que no son alcanzables naturalmente, pero a las que sí se alcanzan, y conservan en equilibrio, donde cíclicamente se le integra energía.
15 Jantsch examinó las correspondencias entre las “jerarquías” y la evolución de las nuevas complejidades, originando un colosal esfuerzo y un desplazamiento de la Gestalt para dar pauta a la teoría de la coevolución que es interpretada como una fuerza impulsora del desarrollo de nuevas formas de vidas. El autor no niega la adaptación y en parte tampoco la lucha de sujetos por la supervivencia, pero no las considera como el principal mecanismo o fuerza para sobrevivir y evolucionar, sino el principio de la adaptación. La evolución darwiniana destaca la adaptación a la competencia. Si el significado de la evolución se hallaba en la adaptación y en acrecentar las probabilidades de supervivencia, el progreso de organismos más complejos habría sido infructuoso e incluso hasta erróneo. En cambio, la coevolución prepondera la cooperación evolutiva, una cooperación importante en su especie (Jantsch, 1980).
Los comentarios al artículo son responsabilidad exclusiva del remitente.
Si necesita algún tipo de información referente al articulo póngase en contacto con el email suministrado por el autor del articulo al principio del mismo.
Un comentario no es mas que un simple medio para comunicar su opinion a futuros lectores.
El autor del articulo no esta obligado a responder o leer comentarios referentes al articulo.
Al escribir un comentario, debe tener en cuenta que recibirá notificaciones cada vez que alguien escriba un nuevo comentario en este articulo.
Eumed.net se reserva el derecho de eliminar aquellos comentarios que tengan lenguaje inadecuado o agresivo.
Si usted considera que algún comentario de esta página es inadecuado o agresivo, por favor,pulse aqui.