0% encontró este documento útil (0 votos)
171 vistas23 páginas

Capra Fritjof - El Punto Crucial - Dos Paradigmas

Este documento describe el cambio de paradigma científico que ocurrió entre los siglos XVI y XVII, pasando de una visión orgánica del mundo a una concepción mecánica. Figuras clave como Copérnico, Galileo y Bacon ayudaron a establecer esta nueva visión del universo como una máquina matemática que podía predecirse y controlarse, en lugar de algo orgánico y espiritual. El nuevo enfoque cuantitativo y experimental de la ciencia trajo tanto beneficios como pérdidas al excluir propiedades cual

Cargado por

Majo Cuellar
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
171 vistas23 páginas

Capra Fritjof - El Punto Crucial - Dos Paradigmas

Este documento describe el cambio de paradigma científico que ocurrió entre los siglos XVI y XVII, pasando de una visión orgánica del mundo a una concepción mecánica. Figuras clave como Copérnico, Galileo y Bacon ayudaron a establecer esta nueva visión del universo como una máquina matemática que podía predecirse y controlarse, en lugar de algo orgánico y espiritual. El nuevo enfoque cuantitativo y experimental de la ciencia trajo tanto beneficios como pérdidas al excluir propiedades cual

Cargado por

Majo Cuellar
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

EL

PUNTO
CRUCIAL
Ciencia, sociedad y cultura naciente

Fritjof Capra
II. LOS DOS PARADIGMAS
2. La máquina newtoniana del mundo.....................................................................
3. La nueva física....................................................................................................

LA MÁQUINA NEWTONIANA
DEL MUNDO

Las teorías esenciales de la visión del mundo y el sistema de valores que están en la base de nuestra
cultura y que hoy tenemos que reexaminar atentamente se formularon en los siglos XVI y XVII. Entre
1500 y 1700 se produjo un cambio radical en la mentalidad de las personas y en la idea que éstas tenían
acerca de las cosas. La nueva mentalidad y la nueva percepción del mundo dieron a nuestra civilización
occidental los rasgos que caracterizan la era moderna y se convirtieron en las bases del paradigma que ha
dominado nuestra cultura durante los últimos trescientos años y que ahora está a punto de cambiar.
Antes del 1500, en Europa —y en la mayoría de las demás civilizaciones— predominaba una visión
orgánica del mundo. Las personas vivían en pequeñas comunidades solidarias y sentían la naturaleza en
términos de relaciones orgánicas cuyos rasgos característicos eran la interdependencia de los fenómenos
materiales y espirituales y la subordinación de las necesidades individuales a las comunitarias. La
estructura científica de esta visión orgánica del mundo se basaba en dos fuentes históricas de importancia
reconocida: Aristóteles y la Biblia. En el siglo XIII santo Tomás de Aquino conjugó la doctrina aristotélica
de la naturaleza con la ética y la teología del Cristianismo, estableciendo una estructura conceptual que no
fue cuestionada nunca durante la Edad Media. La naturaleza de la ciencia medieval era muy diferente a la
de la ciencia contemporánea. La primera se basaba al mismo tiempo en la razón y en la fe y su meta
principal era comprender el significado y la importancia de las cosas, no predecirlas o controlarlas. En la
Edad Media, los científicos que investigaban el objetivo primario de los distintos fenómenos naturales
daban la máxima importancia a todo lo relacionado con Dios, con el alma humana y con la ética.
En los siglos XVI y XVII los conceptos medievales sufrieron un cambio radical. La visión del
universo como algo orgánico, vivo y espiritual fue reemplazada por la concepción de un mundo similar a
una máquina; la máquina del mundo se volvió la metáfora dominante de la era moderna. Esta evolución
fue el resultado de varios cambios revolucionarios en el campo de la física y de la astronomía que cul
minaron en las teorías de Copérnico, Galileo y Newton. La ciencia del siglo XVII se basaba en un nuevo
método de investigación, defendido enérgicamente por Francis Bacon, que incluía dos teorías: la
descripción matemática de la naturaleza y el método analítico de razonamiento concebido por el genio
cartesiano. Los historiadores dieron a este periodo el nombre de la era de la Revolución Científica en
reconocimiento al importante papel desempeñado por la ciencia en la realización de estos cambios
trascendentales.
La Revolución Científica comienza con Nicolas Copérnico. Sus teorías invalidaron la visión
geocéntrica expuesta por Tolomeo y descrita en la Biblia; dicha visión había sido el dogma aceptado
durante más de mil años. A partir de este momento, el mundo ya no fue considerado el centro del universo
sino un planeta más que gira en torno a una estrella menor situada al borde de la galaxia; como
consecuencia de ello; el hombre fue despojado de la orgullosa convicción de creerse la figura central de la
creación divina. Copérnico era plenamente consciente de que la publicación de sus ideas ofendería de
forma profunda la conciencia religiosa de su época y por ello no quiso exponerlas hasta 1543, año de su
muerte, e incluso entonces presentó su visión heliocéntrica como una mera hipótesis pragmática.
La herencia de Copérnico fue recogida por Johannes Kepler. Este científico y místico trató de
encontrar la armonía de las esferas mediante un estudio minucioso de las tablas astronómicas y logró for
mular sus famosas leyes empíricas sobre el movimiento planetario, que confirmaron ulteriormente el
sistema ideado por Copérnico. Pero el verdadero cambio en la esfera científica no se produjo hasta que
Galileo Galilei, ya famoso por su descubrimiento de las leyes que rigen la caída de los cuerpos, no
comenzó a interesarse por la astronomía. Apuntando en dirección al cielo el recién inventado telescopio y
aplicando su extraordinario don de observación a los fenómenos celestes, Galileo logró poner en duda la
antigua cosmología y afirmar la validez científica de la hipótesis concebida por Copérnico.
La parte desempeñada por Galileo en la Revolución Científica va más allá de sus éxitos en el campo
de la astronomía, si bien éstos fueron los más célebres a causa del enfrentamiento que tuvo con la Iglesia.
Galileo fue el primero en utilizar la experimentación científica junto con un lenguaje matemático para
formular las leyes naturales que descubrió y por ello se lo considera el padre de la ciencia moderna. «La
filosofía —afirmaba— está escrita en el gran libro que se abre ante nosotros, pero para entenderlo
tenemos que aprender el lenguaje y descifrar los caracteres con los que está escrito. El lenguaje es la
matemática y los caracteres son los triángulos, los círculos y las demás figuras geométricas»1. Estas dos
facetas de la obra de Galileo —el enfoque empírico y la descripción matemática de la naturaleza—
supusieron un gran adelanto para su época y se convirtieron en las características dominantes de la ciencia
del siglo XVII.
Hasta el día de hoy se las utiliza como criterio para cualquier teoría científica.
Según Galileo, para que fuese posible describir la naturaleza matemáticamente, los científicos tenían
que limitarse al estudio de las propiedades esenciales de los cuerpos materiales —formas, números y
movimiento— que pudiesen ser medidas o contadas. Las restantes propiedades —el color, el sonido, el
sabor o el olor— eran consideradas simplemente una proyección mental subjetiva que debía ser excluida
del dominio de la ciencia2. La estrategia de Galileo —dirigir el interés del científico a las propiedades
cuantificables de la materia— ha tenido gran éxito en la ciencia moderna pero, por otro lado, también le ha
infligido graves pérdidas, como nos recuerda el psiquiatra R.D. Laing: «Desaparece la vista, el oído, el
sabor, el tacto y el olfato y junto con ellos se van también la estética y el sentido ético, los valores, la
calidad y la forma, esto es, todos los sentimientos, los motivos, el alma, la conciencia y el espíritu. Las ex
- periencias de esta índole han sido desterradas del reino del discurso científico»3. Según Laing, la
obsesión de los científicos por las medidas y cantidades ha sido el factor determinante de los cambios
ocurridos durante los últimos cuatrocientos años.
Mientras, en Italia Galileo ideaba sus ingeniosos experimentos, en Inglaterra Francis Bacon exponía
sus teorías sobre el método empírico. Bacon fue el primero en formular una teoría clara del procedimiento
inductivo que consiste en extraer una conclusión de carácter general a partir de un experimento y luego
confirmarla con otros experimentos. Bacon defendió sus planteamientos enérgicamente y llegó a tener una
gran influencia en el pensamiento de su época; se enfrentó con audacia a las escuelas filosóficas
tradicionales y desarrolló una verdadera pasión por la experimentación científica.
El «espíritu baconiano» modificó profundamente los objetivos y la naturaleza de la investigación
científica. Desde la antigüedad, la ciencia había tenido como meta el conocimiento, la comprensión del
orden natural y la vida en armonía con este orden. El hombre buscaba el conocimiento científico «para
gloria de Dios» o, en la civilización china, «para seguir el orden natural» y «confluir en la corriente del
Tao»4. Todos estos objetivos eran yin, o integradores; hoy diríamos que los científicos de aquella época
tenían una postura básica ecológica. Pero en el siglo XVII esta actitud se transformó en su polo opuesto,
pasando del yin al yang, de la integración a la autoafirmación. Con Bacon la ciencia comenzó a tener
como fin un tipo de conocimiento que permitiera dominar y controlar la naturaleza conocimientos que hoy
se emplean junto con la tecnología para lograr objetivos que son profundamente antiecológicos.
Los términos que Bacon utilizaba para defender su nuevo método empírico no sólo eran apasionados
sino que, a menudo, se podían tachar de atroces. En su opinión, la naturaleza tenía que ser «acosada en sus
vagabundeos», «sometida y obligada a servir», «esclavizada»; había que «reprimirla con la fuerza» y la
meta de un científico era «torturarla hasta arrancarle sus secretos»5. Es probable que muchas de estas
imágenes le fueran inspiradas por los procesos de brujería que se celebraban con frecuencia en su época.
Como fiscal del Tribunal Supremo durante el reinado de Jaime I, Bacon estaba muy familiarizado con
estos juicios y, por consiguiente, no es raro que utilizara las metáforas escuchadas en la sala de tribunales
para sus escritos científicos. De hecho, la comparación de la naturaleza con una hembra a la que se había
de torturar con artilugios mecánicos para arrancarle sus secretos sugiere claramente que la tortura a mu
jeres era una práctica muy difundida en los procesos por brujería a comienzos del siglo XVI 6. Por
consiguiente, la obra de Bacon es un ejemplo significativo de la influencia que la mentalidad patriarcal
tuvo en el desarrollo del pensamiento científico.
El antiguo concepto de la tierra/madre se transformó radicalmente en la obra de Bacon y desapareció
por completo cuando la Revolución Científica reemplazó la visión orgánica del mundo con la metáfora del
mundo/máquina. Este cambio, que llegaría a tener una importancia abrumadora en la evolución ulterior de
la civilización occidental, fue iniciado y completado por dos grandes figuras del siglo XVII: René
Descartes e Isaac Newton.
A Descartes se lo suele considerar el fundador de la filosofía moderna. Brillante matemático, sus ideas
filosóficas fueron afectadas por la nueva física y la astronomía. Descartes rechazó los conceptos
tradicionales y se propuso crear un sistema de pensamiento totalmente nuevo. Según Bertrand Russell:
«Esto no había ocurrido desde Aristóteles y es una señal de la seguridad que el hombre de nuestro tiempo
tiene en sí mismo; esta confianza es un resultado del progreso científico. La novedad de los conceptos que
(Descartes) plantea en su obra no se halla en ningún otro filósofo eminente del pasado, salvo en Platón»7.
A la edad de veintitrés años Descartes tuvo la visión reveladora que iba a determinar toda su vida 8.
Después de meditar durante varias horas y examinar sistemáticamente toda la sabiduría que había
acumulado, le sobrevino una ráfaga de inspiración y comprendió «las bases de una maravillosa ciencia» en
la que se fusionarían todos los conocimientos. En una carta que escribe a un amigo para explicarle su
ambiciosa meta, Descartes parece haber tenido un presagio de esta intuición: «Y para no ocultarte nada
sobre la naturaleza de mi obra, te diré que me gustaría dar al público... una ciencia completamente nueva
que resolviese en términos generales todos los problemas de cantidad, sean éstos continuos o
discontinuos»9. En su visión, Descartes concibió la manera de llevar a cabo su plan. Vio un método que le
permitiría construir toda una ciencia de la naturaleza de la que podía estar totalmente seguro; una ciencia
que, como la matemática se apoyaría en ciertos principios básicos evidentes. Descartes quedó pasmado
ante esta revelación. Sintió que acababa de hacer el descubrimiento más importante de su vida y no le
cupo la menor duda de que la visión fuese una suerte de inspiración divina. A la noche siguiente tuvo un
sueño extraordinario durante el cual la visión se le presentó en forma simbólica y esto contribuyó a
reforzar la convicción de su origen divino. Entonces Descartes se persuadió de que Dios le había
encomendado una misión y se propuso establecer una nueva filosofía científica.
En virtud de esta visión, Descartes quedó firmemente convencido de la certeza de los conocimientos
científicos y se decía a sí mismo, que su vocación era distinguir la verdad del error en todos los campos
del estudio. «Toda la ciencia —escribió— es sabiduría cierta evidente. Rechazamos todos los
conocimientos que sólo son probables y establecemos que no debe darse asentimiento sino a los que son
perfectamente conocidos y de los que no cabe dudar»10.
La fe en la certeza absoluta de la ciencia está en el origen mismo de la filosofía cartesiana y de la
visión del mundo que deriva de ella, sin embargo fue aquí, desde el principio, donde Descartes se
equivocó. En el siglo XX la física nos ha demostrado con la fuerza de sus argumentos, que no existe una
certeza científica absoluta y que todos nuestros conceptos y nuestras teorías son limitados y
aproximativos.
La filosofía cartesiana de la certeza científica absoluta es aún muy popular y se refleja en el
cientifismo que caracteriza a nuestra civilización occidental. Muchos de nuestros contemporáneos,
científicos y no científicos, están convencidos de que éste es el único método válido para entender el
universo. El método del pensamiento cartesiano y su visión de la naturaleza han influido en todas las
ramas de la ciencia moderna y pueden seguir utilizándose siempre y cuando se admitan sus limitaciones.
Aceptar la visión de Descartes como la verdad absoluta y su método como una manera válida de lograr el
conocimiento ha sido una de las principales causas de nuestro desequilibrio cultural.
La certidumbre cartesiana es matemática en esencia. Descartes creía que la clave del universo se
hallaba en su estructura matemática y, para él, ciencia era sinónimo de matemáticas. Por esta razón es
cribió, con respecto a las propiedades de los objetos físicos: «Sólo admito como verdadero lo que haya
sido deducido —con la claridad de un ejemplo matemático— de unas nociones comunes acerca de las
cuales no quepa la menor duda. Como todos los fenómenos de la naturaleza pueden explicarse de esta
manera, creo que no tenemos necesidad de admitir otros principios de la física y tampoco hemos de
desearlos»11.
Como Galileo, Descartes pensaba que la matemática es el lenguaje de la naturaleza —«ese gran libro que
se abre ante nosotros»— y su deseo de describir el mundo en términos matemáticos lo llevó a realizar su
más famoso descubrimiento. Aplicando las relaciones numéricas a figuras geométricas, logró establecer
una correlación entre el álgebra y la geometría y con ello creó una nueva rama de las matemáticas, que
hoy se conoce como geometría analítica. Dicha ciencia incluyó la representación de curvas mediante
ecuaciones algebraicas cuyas soluciones Descartes estudió de manera sistemática. El nuevo método le
permitió aplicar un análisis matemático más general al estudio de los cuerpos en movimiento de acuerdo
con su grandioso proyecto de establecer una relación matemática exacta en todos los fenómenos físicos.
Con ello podía decir orgullosamente: «Toda mi física no es más que geometría»12. Descartes fue un genio
de las matemáticas y esto se refleja en su filosofía. A fin de realizar su proyecto de crear una ciencia
natural completa y exacta, desarrolló un nuevo método de razonamiento y lo expuso en su famosísimo
libro Discurso del método. Aunque este texto es hoy uno de los grandes clásicos de la filosofía, no fue
concebido como tal, sino más bien como una introducción a la ciencia. El método cartesiano tenía como
meta llegar a la verdad científica, como claramente se ve en el título completo del libro: «Discurso del
método para guiar correctamente el razonamiento y encontrar la verdad en las ciencias»
La clave del método cartesiano se halla en la duda radical. Descartes pone en duda todo aquello de que
sea posible dudar —toda la sabiduría tradicional, las impresiones de los sentidos y hasta el hecho de tener
un cuerpo— hasta llegar a un punto sobre el cual no cabe albergar ninguna duda: su existencia como
sujeto pensante. De ahí su famosa afirmación: «Cogito ergo sum» («Pienso, luego existo»). De este
principio deduce que la esencia de la naturaleza humana se halla en el pensamiento y que todo aquello que
sea percibido con gran claridad y distinción es absolutamente cierto. A este concepto tan claro y distinto
—«un concepto de la mente pura y atenta»13—, Descartes lo llama «intuición» y afirma que «el hombre,
para llegar a un conocimiento absolutamente cierto de la verdad, sólo puede guiarse por la intuición
evidente y la deducción necesaria»14. El conocimiento cierto, por consiguiente, sólo se obtiene mediante la
intuición y la duda, los dos instrumentos utilizados por Descartes en una tentativa de reconstruir el edificio
de la sabiduría sobre cimientos más firmes.
El método cartesiano es analítico, esto es, consiste en dividir los pensamientos y problemas en cuantas
partes sea posible y luego disponerlos según un orden lógico. El método de razonamiento analítico quizá
sea la principal contribución de Descartes a la ciencia. El racionalismo se ha convertido en una
característica esencial del, pensamiento científico moderno y ha demostrado su utilidad en el desarrollo de
teorías científicas y en la realización de proyectos tecnológicos extremadamente complejos. Gracias al
método cartesiano, la NASA logró poner a un hombre en la luna. Por otro lado, la excesiva importancia
dada al racionalismo es una de las causas que caracterizan tanto a nuestras ideas generales como a nuestras
disciplinas académicas, además de propiciar la postura reduccionista —la convicción de que hay que
reducir los fenómenos complejos a sus partes constitutivas para lograr entenderlos— tan difundida en el
mundo de hoy.
El Cogito —nombre que hoy se da al método cartesiano— hizo que para él la razón fuese más cierta
que la materia y le hizo llegar a la conclusión de que ambas cosas eran entes separados y básicamente
distintos. Por consiguiente, afirmó que «el concepto de cuerpo no incluye nada que pertenezca a la mente
y el de mente, nada que pertenezca al cuerpo»15. La distinción que Descartes hizo entre la mente y el
cuerpo ha calado hondo en la civilización occidental. Nos ha enseñado a pensar en nosotros mismos como
egos aislados «dentro» de nuestro cuerpo; nos ha hecho conceder más valor al trabajo intelectual que al
manual; a las grandes industrias les ha permitido vender al público —especialmente al público femenino
— productos que le darían el «cuerpo ideal»; a los médicos les ha impedido considerar las dimensiones
psicológicas de las enfermedades y a los psicoanalistas ocuparse del cuerpo de sus pacientes. En las
ciencias humanas, la distinción cartesiana ha provocado una infinita confusión sobre la relación que existe
entre la mente y el cerebro; en física, ha hecho que los fundadores de la mecánica cuántica se enfrenten a
enormes obstáculos en sus observaciones de los fenómenos atómicos. Según Heisenberg, que luchó contra
este problema durante muchos años: «En los últimos tres siglos esta división ha ido penetrando
profundamente en la mente humana, y pasará mucho tiempo antes de que pueda ser reemplazada con una
postura verdaderamente diferente ante el problema de la realidad»16.
Descartes basaba toda su visión de la naturaleza en esta división fundamental existente entre dos
campos independientes y separados: el del pensamiento o res cogitans, la «substancia pensante», y el de la
materia o res extensa, la «substancia extensa». Tanto la mente como la materia eran obra de Dios; Él
representaba el punto de referencia de ambas cosas al ser el origen del orden natural exacto y de la luz de
la razón que permitía al ser humano reconocer este orden. Para Descartes, Dios era un elemento esencial
de su discurso filosófico, pero los científicos que desarrollaron sus teorías según la distinción cartesiana
entre la mente y la materia omitieron cualquier referencia explícita a la presencia divina: las humanidades
se concentraron en la res cogitans y las ciencias naturales en la res extensa.
Según Descartes el universo material era una máquina y sólo una máquina. En la materia no había ni
vida, ni metas, ni espiritualidad. La naturaleza funcionaba de acuerdo con unas leyes mecánicas, y todas
las cosas del mundo material podían explicarse en términos de la disposición y del movimiento de sus
partes. Esta imagen mecanicista de la naturaleza fue el paradigma que dominó la ciencia después de
Descartes, marcando la pauta de las investigaciones científicas y sugiriendo la formulación de todas las
teorías sobre los fenómenos naturales, hasta que la física del siglo XX efectuó un cambio radical. Toda la
elaboración de la ciencia mecanicista que tuvo lugar entre el siglo XVII y el siglo XIX —incluida la
grandiosa síntesis newtoniana— fue sólo una evolución de la idea cartesiana. Descartes dio una estructura
general al pensamiento científico con su visión de la naturaleza como una máquina perfecta regida por
leyes matemáticas exactas.
El cambio drástico en la imagen de la naturaleza —de organismo a máquina— afectó profundamente
la actitud de las personas hacia su entorno natural. La visión orgánica del mundo durante la Edad Media
había sugerido un sistema de valores propicios a un comportamiento ecológico. En palabras de Carolyn
Merchant:
La imagen de organismo vivo y de madre que se le daba a la tierra fue utilizada como obstáculo
cultural para limitar las acciones de los seres humanos. No es nada fácil matar a la propia madre, hurgar
en sus entrañas en búsqueda de oro o mutilar su cuerpo... Mientras se pensó en la tierra como algo vivo y
sensible, podía considerarse como falta de ética del comportamiento humano el llevar a cabo actos
destructivos en contra de ella17.
Estos límites culturales desaparecieron con la mecanización de la ciencia. La concepción mecanicista
del universo ideada por Descartes proporcionó la autorización «científica» para la manipulación y la
explotación de los recursos naturales que se ha convertido en una constante de la cultura occidental. De
hecho, Descartes compartía la opinión de Bacon en cuanto a que la meta de la ciencia era dominar y
controlar la naturaleza y afirmaba que podía utilizarse el conocimiento científico para «convertirnos en los
amos y dueños de la naturaleza»18.
En su tentativa de crear una ciencia natural completa, Descartes incluyó a los organismos vivos dentro
de su visión mecanicista de la materia. Las plantas y los animales se consideraban simples máquinas; los
seres humanos estaban habitados por un alma racional que se conectaba con el cuerpo mediante la
glándula pineal, situada en el centro del cerebro. En cuanto al cuerpo humano, era imposible diferenciarlo
de un animal/máquina. Descartes explicó detalladamente la manera de reducir los movimientos y las
funciones biológicas del cuerpo a simples operaciones mecánicas, a fin de demostrar que los organismos
vivos eran meros autómatas. La imagen del autómata denota la influencia que en él —como hombre de su
tiempo, el barroco siglo XVI— ejercieron aquellas maquinarias ingeniosas, «casi vivas», que deleitaban al
público por la magia de sus movimientos aparentemente espontáneos. Como muchas personas de su
generación, Descartes estaba fascinado por esos autómatas y llegó incluso a construir varios.
Inevitablemente, estableció una comparación entre sus creaciones y el funcionamiento de los organismos
vivos: «Vemos que los relojes, las fuentes artificiales, los molinos y otras máquinas semejantes, a pesar de
haber sido creadas por el hombre, tienen la facultad de moverse por sí mismas de diferentes maneras... No
reconozco ninguna diferencia entre las máquinas de los artesanos y los diferentes cuerpos creados por la
naturaleza»19.
En la época de Descartes la relojería había alcanzado un alto nivel de perfeccionamiento y, por
consiguiente, el reloj era un modelo privilegiado para otras máquinas automáticas. Descartes comparaba a
los animales a «un reloj... hecho... de ruedas y muelles» y extendió la comparación al cuerpo humano:
«Veo el cuerpo humano como una máquina... En mi opinión... un enfermo y un reloj mal hecho pueden
compararse con mi idea de un hombre sano y un reloj bien hecho»"20
La visión cartesiana de los organismos vivos tuvo una influencia decisiva en la evolución de las ciencias
humanas. Describir minuciosamente los mecanismos que constituyen los organismos vivos ha sido la tarea
principal de todos los biólogos, los sociólogos y los psicólogos en los últimos trescientos años. El enfoque
cartesiano ha tenido mucho éxito —especialmente en el campo de la biología—pero también ha limitado
los posibles caminos de la investigación científica. El problema está en que los científicos, alentados por el
éxito obtenido tratando a los organismos vivos como máquinas, tienden a creer que estos organismos son
sólo máquinas. Las consecuencias negativas de esta falacia reduccionista se han vuelto clarísimas en la
medicina; los médicos, suscritos a la imagen cartesiana del cuerpo humano como un mecanismo de
relojería, no pueden entender muchas de las principales enfermedades presentes 31
en el mundo de hoy.
Ésta, pues, es la «maravillosa ciencia» de Descartes. Utilizando un método de pensamiento analítico
creado por él, trató de explicar con precisión todos los fenómenos naturales por un sistema único de
principios mecánicos. De este modo pensaba lograr una ciencia a exacta cuyos conceptos fueran de una
certeza matemática absoluta. Por supuesto, Descartes no logró llevar a cabo su ambicioso proyecto y él
mismo reconoció que no había podido llevar a término su filosofía científica. A pesar de ello, el método de
razonamiento y el esquema general de la teoría sobre los fenómenos naturales han de terminado el
pensamiento científico de Occidente durante tres siglos.
Hoy, a pesar de que se comienzan a vislumbrar las severas limitaciones de la visión cartesiana del
mundo, el método de enfocar los problemas intelectuales y la claridad de razonamiento de Descartes
siguen vigentes. Recuerdo que un día, después de pronunciar una conferencia sobre física moderna en el
que había recalcado la importancia de las limitaciones del enfoque mecanicista en la cuántica y la
necesidad de superar esta visión en otros campos, una mujer, francesa me felicitó por mi «lucidez
cartesiana». Por ello Montesquieu escribía en el siglo XVIII: «Descartes enseñó a los que vinieron después
de él cómo descubrir sus propios errores»21.
Descartes dio una estructura conceptual a la ciencia del siglo XVII, pero su idea de una máquina del
mundo regida por leyes matemáticas siguió siendo sólo una visión ilusoria durante toda su vida. Lo único
que pudo hacer fue trazar las líneas generales de su teoría sobre lo fenómenos naturales. El hombre que
realizó el sueño cartesiano completó la Revolución Científica fue Isaac Newton. Nacido en Inglaterra en
1642, año de la muerte de Galileo, Newton desarrolla toda una fórmula matemática del concepto
mecanicista de la naturaleza y con ella sintetizó magníficamente las obras de Copérnico y de Kepler, y
también las de Bacon, Galileo y Descartes. La física newtoniana, logro supremo de la ciencia del siglo
XVII, estableció una teoría matemática del mundo que se convirtió en la base del pensamiento científico
hasta mediados del siglo XX. Newton tenía una comprensión de las matemáticas muy superior a la de
cualquiera de sus contemporáneos. Inventó el cálculo diferencial, un método totalmente nuevo para
describir el movimiento de los cuerpos sólidos que iba mucho más allá de las técnicas matemáticas de
Galileo y de Descartes. Este tremendo logro intelectual fue elogiado por Einstein con estas palabras:
«Quizá este sea el mayor avance en el campo intelectual que un solo individuo haya tenido el privilegio de
hacer»22
Kepler había deducido las leyes empíricas del movimiento planetario mediante el estudio de las tablas
astronómicas, y Galileo había realizado ingeniosos experimentos para descubrir las leyes de la caída de
los cuerpos. Newton aunó los descubrimientos de sus predecesores, formulando las leyes generales del
movimiento que rigen todos los objetos del sistema solar, desde las piedras hasta los planetas.

Según la leyenda, Newton tuvo la revelación decisiva de su ciencia un día que, sentado bajo un árbol,
vio caer una manzana. Le sobrevino una ráfaga de inspiración y comprendió que la manzana estaba siendo
atraída hacia la tierra por la misma fuerza que atraía los planetas hacia el sol; de esta manera encontró la
clave de su genial síntesis. Después utilizó su nuevo método matemático para formular las leyes exactas
del movimiento para todos los cuerpos en los que influyen la fuerza de gravedad. La importancia de estas
leyes se basa en su aplicación universal. Por el hecho de ser válidas para todo el sistema solar parecían
confirmar la visión cartesiana de la naturaleza. El universo newtoniano era, en efecto, un enorme sistema
mecánico regido por leyes matemáticas exactas.
En su libro Principios Matemáticos de la Filosofía Natural, Newton expuso su teoría con gran lujo de
detalles. Los Principia (diminutivo del título original latino de la obra) comprenden un vasto sistema de
definiciones, proposiciones y pruebas, que los científicos admitieron como la correcta descripción de la
naturaleza durante más de doscientos arios. También contienen un comentario explícito del método
experimental newtoniano, que su autor veía como un procedimiento sistemático en el cual la descripción
matemática se basa en una evaluación crítica de las pruebas experimentales realizada en cada una de sus
etapas.
Todo lo que no se pueda deducir de los fenómenos ha de llamarse hipótesis; y las hipótesis, sean
metafísicas o físicas, sean de calidades ocultas o mecánicas, no tienen cabida en la filosofía
experimental. En esta filosofía las proposiciones particulares se deducen de los fenómenos y después se
universalizan por inducción23.

Anteriormente a Newton existían dos tendencias opuestas en la ciencia del siglo XVII: el método
empírico e inductivo propuesto por Bacon y el método racional y deductivo representado por Descartes.
En sus Principia, Newton expuso la manera justa de combinar ambos métodos, haciendo hincapié en el
hecho de que era imposible llegar a una teoría cierta mediante experimentos desprovistos de una
interpretación sistemática ni por medio de unos principios básicos confirmados por la experimentación.
Superando a Bacon en la experimentación sistemática y a Descartes en el análisis matemático Newton
combinó las dos tendencias en una sola y desarrolló la metodología que ha sido la base de las ciencias
naturales desde entonces.
La personalidad de Newton era mucho más compleja de lo que sus escritos científicos pueden sugerir.
No sólo fue un excelente científico y un brillante matemático sino que también, en varias etapas de su
vida, destacó como abogado, historiador y teólogo; también se interesó profundamente por las ciencias
ocultas y la sabiduría esotérica. El mundo era, para él, un acertijo y pensaba que la clave para entenderlo
podría hallarse no sólo por medio de la experimentación científica sino también en las revelaciones
crípticas de la tradición esotérica. Igual que Descartes, Newton se creía capaz de desentrañar todos los
secretos del universo y aplicó su genio con igual intensidad al estudio de las ciencias naturales y de las
ciencias esotéricas. Mientras componía sus Principia en el Trinity College de Cambridge logró acumular,
paralelamente, un sinfín de apuntes sobre alquimia, textos apocalípticos, teorías teológicas poco ortodoxas
y temas relacionados con las ciencias ocultas. La mayoría de estos escritos esotéricos nunca fueron
publicados, pero lo que sabemos de ellos de muestra que Newton, el gran genio de la Revolución
Científica, fue también «el último mago de la historia» 24.

El escenario en donde ocurrían todos los fenómenos físicos del universo newtoniano era el espacio
tridimensional de la geometría clásica euclidiana. Éste era un espacio absoluto, un recipiente vacío
independiente de los fenómenos físicos que ocurrían en su interior. En palabras de Newton: «El espacio
absoluto por naturaleza sin relación a nada externo, permanece siempre igual a sí mismo e inmóvil»25.
Todos los cambios que se efectuaban en el mundo físico se describían en términos de una dimensión
separada y el tiempo —que también es absoluto— no guardaba relación alguna con el mundo material,
fluyendo uniformemente desde el pasado hasta el futuro, pasando por el presente. «El tiempo absoluto,
verdadero y matemático —escribía Newton—, de suyo y por su propia naturaleza, fluye uniformemente
sin relación con nada externo»26.
Las partículas de materia son los elementos del mundo newtoniano que se mueven dentro de ese
espacio absoluto y en este tiempo absoluto. Toda la materia estaba formada por estos objetos pequeños,
sólidos e indestructibles. La teoría de Newton era corpuscular y se diferenciaba del atomismo actual en
que los átomos, según Newton, estaban todos hechos de la misma materia. En su opinión, la materia era
homogénea y la diferencia entre los tipos de materia era el resultado de la agrupación más o menos densa
de los átomos y no de los diferentes pesos o densidades de éstos. Los componentes básicos de la materia
podían tener diferentes tamaños pero estaban hechos del mismo «material», y la masa de un objeto
dependía de la cantidad total de sustancia material contenida en él.
El movimiento de las partículas era engendrado por la fuerza de gravedad, la cual —en opinión de
Newton— actuaba instantáneamente a distancia. Las partículas de materia y las fuerzas existentes entre
ellas eran por naturaleza básicamente diferentes y la constitución interna de las partículas era
independiente de su interrelación. Newton creía que tanto las partículas como la fuerza de gravedad eran
de origen divino y, por consiguiente, no estaban sujetas a un análisis más profundo. En su Óptica, Newton
expuso claramente la imagen que él tenía de la creación del mundo material.
Me parece probable que Dios, en el comienzo, creó partículas de materia, sólidas, macizas, duras,
impenetrables y móviles, de diversos tamaños y formas, con diferentes propiedades y en distintas
proporciones al espacio, como mejor conviniese al objetivo para el que las formó. Y creo que, al ser
cuerpos sólidos, estas partículas primitivas son incomparablemente más duras que cualquier cuerpo
poroso formado de varias de ellas; su dureza es tal que nunca se desgastan ni se rompen en pedazos; y
ninguna fuerza corriente puede dividir lo que Dios unió en los albores de la creación27.
En la mecánica newtoniana todos los fenómenos físicos se reducen al movimiento de partículas de materia
provocado por su atracción mutua, esto es, por la fuerza de gravedad. Los efectos de esta fuerza en una
partícula o en cualquier objeto material están descritos matemáticamente en las ecuaciones
newtonianas de movimiento, que forman la base de la mecánica clásica.
El movimiento de los objetos materiales, —según se pensaba—estaba sujeto a estas normas fijas; ellas
causaban todos los cambios que se observaban en el mundo físico. En opinión de Newton, Dios, al
comienzo, había creado las partículas de materia, las fuerzas entre ellas, y las leyes básicas que rigen el
movimiento; fue así como todo el universo fue puesto en marcha y desde entonces ha continuado
funcionando de esta manera, como una máquina, gobernada por leyes inmutables. Así, el concepto
mecanicista de la naturaleza tiene una estrecha relación con el determinismo riguroso, con la gigantesca
máquina del cosmos que es completamente causal y determinada. Todos los fenómenos tenían una causa y
un efecto determinado, y se podía predecir con absoluta certeza —en principio— el futuro de cualquier
parte del sistema si se sabía con todo detalle el estado en el que se hallaba en un momento determinado.
Esta imagen de un mundo mecánico perfecto suponía la existencia de un creador externo, un dios
monárquico que gobernaba el mundo desde las alturas y le imponía su ley divina. Los fenómenos físicos
en sí no eran considerados divinos en ningún sentido y, cuando el desarrollo de la ciencia hizo cada vez
más difícil creer en aquel dios, lo divino desapareció por completo de la visión científica del mundo,
dejando el vacío espiritual que se ha vuelto una característica de nuestra época. La base filosófica de esta
secularización de la naturaleza se halla en la distinción entre espíritu y materia realizada por Descartes. A
consecuencia de esta idea, el mundo comenzó a ser considerado un sistema mecánico que podía
describirse objetivamente sin tomar en cuenta al observador humano, y esta descripción objetiva de la
naturaleza se tornó el ideal de todas las ciencias.
En los siglos XVIII y XIX la mecánica fue puesta en práctica y cosechó grandes éxitos. Con la teoría
newtoniana se podía explicar el movimiento de los planetas, de las lunas y de los cometas hasta los
detalles más ínfimos; también se podían interpretar mediante el crecimiento de las mareas y varios otros
fenómenos relacionados con la gravedad. El sistema matemático de Newton no tardó en establecerse como
la teoría correcta de la realidad y despertó un enorme entusiasmo entre los científicos y también entre el
público. La imagen de la perfecta máquina del mundo ideada por Descartes fue considerada un hecho
comprobado y Newton se convirtió en su símbolo. Sir Isaac Newton, durante los últimos veinte años de su
vida, fue el hombre más famoso de su época, el gran sacerdote y anciano sabio de la Revolución
Científica, que reinaba en el Londres del siglo XVIII. Las anécdotas de este periodo de la vida de Newton
nos suenan conocidas pues son parecidas a los recuerdos y las fotografías de Albert Einstein, científico
que desempeñó un papel similar al de Newton en nuestro siglo.
Alentados por el gran éxito de la mecánica newtoniana en la astronomía, los físicos la aplicaron al
movimiento continuo de los cuerpos líquidos y a las vibraciones de los cuerpos elásticos, y funcionó una
vez más. Por último, hasta la teoría del calor pudo ser reducida a la visión mecanicista, al descubrirse que
el calor era la energía generada por un complicado movimiento y roce de los átomos y las moléculas.
Asimismo, muchos fenómenos térmicos como la evaporación de los líquidos o la temperatura y presión de
los gases, podían entenderse perfectamente desde un punto de vista puramente mecánico.
Después de realizar un estudio sobre el comportamiento físico de los gases, John Dalton pudo
formular su famosa hipótesis atómica, que probablemente fue el paso más importante dado por la química
en toda su historia. Dalton tenía una imaginación gráfica y trató de explicar las propiedades de las mezclas
de gases con la ayuda de elaborados dibujos de modelos atómicos geométricos y mecánicos. Dalton
suponía que todos los elementos químicos están compuestos de átomos y que los átomos de un elemento
determinado son parecidos, diferenciándose de los de otros elementos en la masa, el tamaño y en las
propiedades. Utilizando esta hipótesis, los químicos del siglo XIX desarrollaron con precisión una teoría
atómica de la química y de esta manera abrieron el camino para la unificación conceptual de la física y la
química, que ocurrió en el siglo XX. De esa forma la mecánica newtoniana se difundió mucho más allá de
la descripción de cuerpos macroscópicos. El comportamiento de los cuerpos sólidos, de los líquidos y de
los gases —incluidos los fenómenos del calor y del sonido— pudo ser explicado con éxito en términos del
movimiento de las partículas elementales de materia. Para los científicos de los siglos XVIII y XIX, el
tremendo éxito del modelo mecanicista corroboraba la teoría según la cual el universo era verdaderamente
un enorme sistema mecánico que funcionaba de acuerdo con las leyes de movimiento newtonianas y la
mecánica de Newton era la teoría fundamental de los fenómenos naturales.
Si bien en el siglo XIX el estudio de las propiedades de los átomos fue llevado a cabo por químicos y no
por físicos, la física clásica se basaba en la idea newtoniana del átomo, que lo concebía como bloques
sólidos de materia. Indudablemente, esta imagen contribuyó a crear la reputación de la física como
«ciencia dura» y al desarrollo de la «tecnología dura» basada en ella. El éxito estrepitoso de la física
newtoniana y la doctrina cartesiana sobre la certeza del conocimiento científico fueron las causas directas
del excesivo énfasis que nuestra cultura pone en la ciencia dura y en la tecnología dura. Hasta mediados
del siglo XX no se comenzó a ver claramente que la idea de la ciencia dura era parte del paradigma
cartesiano-newtoniano, paradigma que sería superado.
En el siglo XVII, con la visión mecanicista del mundo firmemente arraigada en la sociedad, la física se
convirtió naturalmente en la base de todas las ciencias. Si el mundo es verdaderamente una máquina, la
mejor manera de descubrir cómo funciona es por medio de la mecánica newtoniana. Por esta razón, una
consecuencia inevitable de la visión cartesiana del mundo fue el hecho de que las ciencias del siglo XVIII
y XIX siguieran la línea de la física newtoniana. De hecho, Descartes se dio cuenta perfectamente de la
importancia básica de la física en su visión del mundo: «Toda la filosofía —escribió— es como un árbol.
Sus raíces son la metafísica; su tronco, física; y sus ramas, todas las demás ciencias»28.

Descartes mismo había trazado el esquema de un enfoque mecanicista de la física, la astronomía, la


biología, la psicología y la medicina. Los pensadores del siglo XVIII fueron mucho más lejos aplicando
los principios de la mecánica newtoniana a las ciencias de la naturaleza y de la sociedad humana. Las
ciencias sociales recién creadas despertaron gran entusiasmo y muchos de sus defensores llegaron a
afirmar que habían descubierto una «física social». La teoría del universo newtoniana y la filosofía
racionalista se difundieron con tal rapidez entre la clase media del siglo XVIII que toda esta época se
conoce por el nombre de «El Siglo de las Luces». La figura dominante de este desarrollo fue el filósofo
John Locke, cuyas obras principales fueron publicadas a finales del XVII. La obra de Locke —en la que se
acusan profundas influencias cartesianas y newtonianas— tuvo un impacto decisivo en el pensamiento del
siglo XVIII.
Siguiendo la línea de la física newtoniana, Locke desarrolló una visión atomista de la sociedad,
describiéndola en términos de su componente básico, esto es, el ser humano. De la misma manera en que
los físicos reducían las propiedades de los gases al movimiento de sus átomos o moléculas, Locke trató de
reducir los modelos que observaba en la sociedad al comportamiento de los individuos que la forman. Por
esta razón comenzó a estudiar primero la naturaleza del ser humano y luego trató de aplicar los principios
de la naturaleza humana a los problemas económicos y Políticos. Su análisis de la naturaleza humana se
basaba en el de uno de sus predecesores, Thomas Hobbes, según el cual todo el conocimiento resultaba de
la percepción de los sentidos. Locke adoptó esta doctrina y, en una metáfora famosa, comparó la mente de
un recién nacido a una tabula rasa, una pizarra en blanco sobre la cual se imprimiría el conocimiento una
vez que fuese adquirido por medio de la experiencia sensible. Esta imagen llegaría a influir profundamente
en dos de las principales escuelas de la psicología clásica —el conductismo (behaviorism) y el
psicoanálisis—, además de calar hondo en la filosofía política. Según Locke, todos los seres humanos
—«todos los hombres», en sus palabras— son iguales al nacer y su evolución depende enteramente de su
entorno. Las acciones de los seres humanos, a juicio de Locke, siempre eran motivadas por lo que creían
ser sus propios intereses.
Cuando Locke aplicó su teoría sobre la naturaleza humana a los fenómenos sociales estaba
convencido de la existencia de leyes naturales que regían la sociedad humana similar a las que gobiernan
el universo físico. Como los átomos de un gas establecen un estado de equilibrio, también los individuos
se instalan en una sociedad «en estado natural». Por consiguiente, la función de un gobierno no era la de
imponer sus leyes a las personas, sino más bien la de descubrir y poner en vigor las leyes naturales que
existían antes de que el gobierno se formara. Entre estas leyes naturales Locke incluía la libertad y la
igualdad de todos los individuos y también el derecho de éstos a la propiedad que representaba el fruto de
su trabajo.
Las ideas de Locke se volvieron la base del sistema de valores de Siglo de las Luces y sus efectos se
manifestaron en el desarrollo del pensamiento político y económico moderno. Los ideales del indi
vidualismo, el derecho a la propiedad, el mercado libre y el gobierno representativo, que se remontan a la
doctrina de Locke, contribuyeron de manera significativa al pensamiento de Thomas Jefferson y se
reflejan en la declaración de independencia y en la constitución de los Estados Unidos.

Durante el siglo XIX los científicos siguieron elaborando el modelo mecanicista del universo en todos
los campos: física, química, biología, psicología y ciencias sociales. Como consecuencia de ello, la
máquina newtoniana del mundo se tornó una estructura mucho más compleja y sutil. Al mismo tiempo,
nuevos descubrimientos y nuevos modos de pensar sacaron a la luz las limitaciones del modelo
newtoniano y prepararon el terreno para las revoluciones científicas del siglo XX.
Uno de estos desarrollos ocurridos en el siglo XIX fue el descubrimiento y la investigación de ciertos
fenómenos eléctricos y magnéticos que suponían un nuevo tipo de fuerza y que no podían ser descritos
adecuadamente por el modelo mecanicista. Este descubrimiento fue llevado a cabo por Michael Faraday,
uno de los más brillantes investigadores en la historia de la ciencia, y fue completado por el gran teórico
Clerk Maxwell. Faraday y Maxwell no se limitaron a estudiar los efectos de las fuerzas eléctricas y
magnéticas, sin que convirtieran estas fuerzas en el principal objetivo de su investigación. Reemplazando
el concepto de fuerza por el concepto mucho más sutil de campo de fuerzas, fueron los primeros en llegar
más allá de la física newtoniana29 demostrando que los campos teman su propia realidad y que podían ser
estudiados sin hacer referencia a los cuerpos materiales. Esta teoría, llamada electrodinámica, culminó en
el descubrimiento de que la luz era un campo electromagnético que alterna a gran velocidad y que viaja
por el espacio en forma de ondas.
A pesar de estos cambios trascendentales, la mecánica newtoniana mantenía su posición de base de
toda la física. El mismo Maxwell trató de explicar sus resultados en términos mecánicos, interpretando los
campos como estados mecánicos de tensión dentro de un espacio muy ligero, el éter, que lo envolvía todo,
y las ondas electromagnéticas como ondas elásticas de este éter. Pese a ello, utilizó varias interpretaciones
mecánicas de su teoría al mismo tiempo y parece que no se interesó seriamente por ninguna de ellas, pues
su intuición le decía que los campos —y no los modelos mecánicos— eran las entidades fundamentales de
su teoría. Y hubo de ser Einstein, en nuestro siglo, quien reconociese este hecho, cuando declaró que el
éter no existía y que los campos electromagnéticos por su propio derecho eran entidades físicas que
podían viajar a través del espacio vacío y no podían ser explicadas mecánicamente.
En la medida en que el electromagnetismo destronó a la mecánica newtoniana como teoría de mayor
validez sobre los fenómenos naturales, surgió una nueva corriente de pensamiento que iba más allá de la
imagen del mundo/máquina newtoniana y que llegaría a dominar no sólo las ideas del siglo XIX, sino
también todo el pensamiento científico posterior: la evolución, es decir, la idea de cambio, crecimiento y
desarrollo. La noción de evolución había surgido por primera vez en geología. Después de estudiar
minuciosamente los depósitos de fósiles, los científicos llegaron a la idea de que el actual estado del
mundo era el resultado de un desarrollo continuo causado por la actividad de las fuerzas naturales a lo
largo de inmensos períodos de tiempo. La teoría del sistema solar propuesta por Immanuel Kant y por
Pierre Laplace se basaba en un pensamiento evolutivo o desarrollista; la evolución era un punto crucial de
las teorías políticas de Hegel y de Engels; a lo largo del XIX, tanto los poetas como los filósofos se
interesaron profundamente en el problema evolutivo.
Estas ideas crearon el ambiente intelectual necesario para que se produjera precisa y la más
trascendental formulación del pensamiento evolutivo: la teoría biológica de la evolución de las especies.
Desde la antigüedad, los filósofos habían acariciado la idea de «una gran cadena del ser» en la naturaleza.
Esta cadena, sin embargo, se concebía como una jerarquía estática, que comenzaba con Dios y seguía
descendiendo a los ángeles, los seres humanos y los animales, terminando en las formas inferiores de vida.
El número de las especies era fijo; no había cambiado desde el día de la Creación. En palabras de Linneo,
el gran botánico y clasificador: «Reconocemos tantas especies como salieron en pares de las manos del
Creador»30. Esta visión de las especies biológicas concordaba perfectamente con la doctrina
judeo-cristiana y se acomodaba muy bien al mundo newtoniano.
El cambio decisivo se debe a Jean Baptiste Lamarck. Este cambio, ocurrido a comienzos del siglo
XIX, fue tan radical que Gregory Bateson, una de las mentes más profundas y abiertas de nuestro siglo, lo
comparó a la revolución producida por las ideas de Copérnico:
Lamarck, quizá el más grande biólogo de la historia, dio la vuelta a la escalera de la explicación. Fue
él quien dijo que todo había comenzado con los infusorios y que después de varias transformaciones se
había llegado al ser humano. La revolución que sus teorías causaron en la taxonomía es una de las
proezas más asombrosas de la historia. Fue el equivalente, en biología, a la revolución causada por las
teorías de Copérnico en astronomía31.
Lamarck fue el primero que propuso una teoría coherente de la evolución, según la cual todos los
se
re
s
vivientes habían evolucionado de ciertas formas de vida anteriores, mucho más simples, debido a la
presión del entorno. A pesar de que los detalles de la teoría de Lamarck fueron superados posteriormente,
su obra tiene el valor de haber sido un primer paso en el camino correcto.
Unas décadas después, Charles Darwin presentó una enorme cantidad de pruebas evidentes a favor de
la evolución biológica, confirmando sin lugar a dudas este fenómeno ante los ojos de la ciencia. También
propuso una explicación basada en los conceptos de la variación casual —hoy conocida como mutación al
azar— y la selección natural, que llegaría a ser la piedra fundamental de la doctrina moderna de la
evolución. En su monumental obra Sobre el origen de las especies, Darwin realizó una síntesis de las ideas
de sus predecesores y sentó las bases de todos los conceptos biológicos posteriores. Este libro tuvo para
las ciencias humanas una importancia similar a la que tuvieron los Principia de Newton para la física y la
astronomía doscientos años antes.
El descubrimiento de la evolución biológica obligó a los científicos a abandonar el concepto
cartesiano de la máquina del mundo que había surgido perfectamente completo de las manos de su
Creador. En su lugar, el universo hubo de ser concebido como un sistema en evolución y en permanente
movimiento, en el cual las estructuras complejas se habían desarrollado de las formas más simples.
Mientras este concepto nuevo se perfeccionaba en la biología, se comenzaron a vislumbrar en la física
ideas similares. A pesar de ello, mientras que en biología la evolución significaba un movimiento hacia un
orden y una complejidad superior, en física se trataba exactamente de lo contrario, esto es, de un
movimiento hacia un desorden creciente.
Aplicando la mecánica newtoniana al estudio de los fenómenos térmicos, lo cual suponía el tratar los
líquidos y los gases como sistemas mecánicos complicados, los físicos llegaron a la fórmula de la
termodinámica, la «ciencia de la complejidad». El primero de los éxitos obtenidos por esta nueva ciencia
fue el descubrimiento de una de las leyes más fundamentales de la física: la ley de la conservación de la
energía. Esta ley especifica que toda la energía envuelta en un proceso se conserva siempre; su forma
puede cambiar de la manera más complicada, pero nada de la energía se pierde. Descubierta por los físicos
a través del estudio de las locomotoras de vapor y de otras máquinas que generan calor, se la considera
también la primera ley de la termodinámica.
A ella le sigue la segunda ley de la termodinámica: la ley de la dispersión de la energía. Mientras la
energía total envuelta en un proceso permanece constante, la cantidad de energía útil se reduce y se
dispersa, convirtiéndose en calor, fricción, etcétera. La segunda ley fue formulada por Sadi Carnot en
términos de la tecnología de motores térmicos, pero pronto se descubrió que tenía una significación
mucho más extensa, introduciendo en la física la idea del proceso irreversible, de una «flecha del tiempo».
En conformidad con la segunda ley, hay una tendencia cierta en los fenómenos físicos. La energía
mecánica se dispersa en calor y no se la puede recuperar totalmente; cuando se mezcla agua caliente con
agua fría el resultado será agua tibia y los dos líquidos no podrán nunca ser separados. De igual manera,
cuando se mezclan una bolsa de arena blanca y una de arena negra, el resultado será arena gris, y cuanto
más se sacuda la mezcla, más uniforme será el color; nunca veremos que los dos tipos de arena se separen
espontáneamente.
El punto en común de estos procesos es que todos proceden en la misma dirección —del orden al
desorden. Y aquí se halla la fórmula más general de la segunda ley de la termodinámica: cualquier sistema
físico aislado tomará espontáneamente el camino del desorden cada vez mayor. A mediados de siglo
pasado, Rudolf Clausius introdujo una nueva medida de cantidad a la que dio el nombre de «entropía»,
con la que se expresa matemáticamente esta dirección evolutiva de los sistemas físicos. El término es una
combinación de la palabra «energía» y la palabra griega «tropos» (transformación o evolución). Por
consiguiente, la entropía es la cantidad que mide el grado de evolución de un sistema físico. De acuerdo
con la segunda ley, la entropía de un sistema físico aislado seguirá aumentando y —puesto que esta
evolución va acompañada de un desorden creciente— la entropía puede considerarse también una medida
de desorden.
La fórmula del concepto de entropía y la segunda ley de la termodinámica fueron uno de los
descubrimientos más importantes de la física en el siglo XIX. El aumento de entropía en un sistema físico,
que marca la dirección del tiempo, no podía explicarse con las leyes de la mecánica newtoniana y
permaneció envuelto en el misterio hasta que Ludwig Boltzmann introdujo otra idea —la del concepto de
probabilidad— que ayudó a esclarecer la situación. Gracias a la teoría de la probabilidad se podía
describir
el comportamiento de un sistema mecánico complejo en términos de leyes estadísticas, y la termodinámica
podía adquirir una sólida base newtoniana que se conoce como mecánica estadística. Boltzmann demostró
que la segunda ley de la termodinámica es una ley estadística. El hecho de que ciertos procesos no ocurran
—por ejemplo, la conversión espontánea de energía térmica en energía mecánica— no significa que estos
procesos sean imposibles sino que son extremadamente raros. En los sistemas microscópicos que constan
solamente de pocas moléculas, la segunda ley es quebrantada con regularidad, pero en los sistemas
macroscópicos, formados por una gran cantidad de moléculas, (cada centímetro cúbico de aire contiene
aproximadamente 10 trillones de moléculas) la probabilidad de que toda la entropía del sistema aumente
se vuelve casi una certeza. Por consiguiente, la entropía —o desorden — de cualquier sistema aislado
compuesto de una gran cantidad de moléculas seguirá aumentando hasta que, eventualmente, el sistema
llegue a un estado de entropía máxima o «muerte térmica» en el cual cesa toda actividad: toda la materia
está entonces repartida uniformemente y tiene la misma temperatura. Según la física clásica, todo el
universo está dirigiéndose hacia un estado de entropía máxima; está yendo hacia abajo y eventualmente se
detendrá.
Esta lúgubre imagen de la evolución cósmica se opone a la idea evolutiva de los biólogos, para
quienes el universo evoluciona del caos al orden, hacia estados cada vez más complejos. La aparición del
concepto de la evolución en la física sacó también a relucir otra limitación de la teoría newtoniana. El
concepto mecanicista del universo que concibe a éste como un sistema de pequeñas bolas de billar que se
mueven al azar es demasiado simple para aplicarlo a la evolución de la vida.
A finales del siglo XIX la mecánica newtoniana había perdido su papel como la teoría fundamental de
los fenómenos naturales. La electrodinámica de Maxwell y la teoría de la evolución de Darwin suponían
una serie de conceptos que iban mucho más allá del modelo newtoniano y revelaban que el universo era
mucho más complejo de lo que Descartes y Newton habían creído. A pesar de todo, las ideas básicas de la
física newtoniana, si bien insuficientes para explicar todos los fenómenos naturales, siguieron
considerándose correctas. En las primeras tres décadas de nuestro siglo la situación cambió radicalmente.
Dos desarrollos de la física, que culminaron en la teoría de la relatividad y en la cuántica, echaron por
tierra los principales conceptos de la visión cartesiana y de la mecánica newtoniana. La noción de espacio
y tiempo absolutos, las partículas sólidas elementales, la sustancia de materia fundamental, la naturaleza
estrictamente causal de los fenómenos físicos y la descripción objetiva de la naturaleza eran conceptos
inaplicables en los nuevos campos en los que la física comenzó a adentrarse.

LA NUEVA FÍSICA

El desarrollo de la física moderna comienza con la extraordinaria proeza intelectual de un hombre:


Albert Einstein. En 1905, Einstein publicó dos artículos que dieron pie a dos tendencias revolucionarias en
el pensamiento científico. En el primer artículo exponía la teoría general de la relatividad, y el segundo,
que trataba de una nueva manera de concebir la radiación electromagnética, contenía las principales
características de la teoría cuántica o teoría de los fenómenos atómicos. La cuántica iba a ser elaborada
veinte años más tarde por un equipo de físicos mientras que la teoría de la relatividad la formuló
prácticamente en su totalidad el propio Einstein. Los artículos científicos de Einstein son un hito
intelectual que marca el comienzo del pensamiento moderno.
Einstein creía firmemente en la armonía intrínseca de la naturaleza y a lo largo de su vida profesional
intentó elaborar una teoría unificada de los principios básicos de la física. Con miras a ello, comenzó por
dar una estructura común a dos teorías de la física clásica: la electrodinámica y la mecánica. Esta
estructura se conoce por el nombre de teoría especial de la relatividad. La teoría de Einstein unifica y
completa el esquema de la física clásica y, al mismo tiempo, supone un cambio radical de los conceptos
tradicionales de tiempo y espacio y por ello socava los cimientos de la visión newtoniana del mundo. Diez
años después, Einstein propuso la teoría general de la relatividad, en la que el esquema de la anterior se
extendía a las leyes de la gravitación. Para llegar a esta fórmula, Einstein se vio obligado una vez más a
modificar drásticamente los conceptos de tiempo y espacio.
Otro desarrollo significativo de la física en el siglo XX fue consecuencia de la investigación
experimental realizada en el campo atómico. A finales del siglo pasado, los físicos descubrieron varios fe
nómenos relacionados con la estructura de los átomos —entre ellos, los rayos X y la radiactividad— que
no podían explicarse en términos de física clásica. Además de estudiar estos fenómenos, los físicos su
pieron servirse de ellos con gran habilidad para adentrarse en varias cuestiones que, sin la ayuda de estos
instrumentos, nunca habría sido posible explorar. Descubrieron, por ejemplo, que las partículas llamadas
«alfa», producidas por las substancias radiactivas, eran velocísimos proyectiles de dimensiones
subatómicas que podían ser utilizados para explorar el interior de un átomo: cuando se las proyectaba
sobre ese átomo, estas partículas se desviaban y, a partir de la manera en que lo hacían, se podían sacar
conclusiones sobre la estructura atómica.
A través de la exploración del mundo atómico y subatómico, los científicos entraron en contacto con
una realidad misteriosa e inesperada que socavaba los cimientos de su visión del mundo y los obligaba a
pensar de manera totalmente diferente. Jamás había ocurrido nada igual en la historia de la ciencia. Las
revolucionarias teorías enunciadas por Darwin y Copérnico habían introducido profundos cambios en la
concepción general del universo y estos cambios, para muchas personas, habían sido muy violentos; pero
los nuevos conceptos en sí habían sido fácilmente comprensibles. Ahora bien: en el siglo XX, los físicos
se enfrentaron por vez primera con un serio desafío a su capacidad de comprender el universo. Cada vez
que, en un experimento atómico, le preguntaban algo a la naturaleza, ésta les respondía con una paradoja,
y cuanto más trataban de esclarecer la situación, más grande se hacía la paradoja. En su afán por entender
aquella nueva realidad, los científicos fueron llegando a la conclusión de que todos sus conceptos básicos,
toda su terminología y toda su manera de pensar eran insuficientes para descubrir los fenómenos atómicos.
No se trataba de un problema exclusivamente intelectual, sino de una experiencia existencial y emotiva de
gran intensidad, como la describe Werner Heisenberg en estas líneas: «Recuerdo que, con Bohr, solíamos
discutir durante horas, hasta altas horas de la noche, y casi siempre acabábamos descorazonados. Y
cuando, al terminar la discusión, me iba a dar un paseo por un parque próximo me repetía a mí mismo una
y otra vez: ¿Es posible que la naturaleza sea tan absurda como nos lo parece en estos experimentos atómi
cos?1
Los físicos tardaron mucho tiempo en admitir el hecho de que las paradojas que encontraban eran un
aspecto esencial de la física atómica. Además, les resultó muy difícil advertir que estas paradojas surgen
cuando se intentan describir los fenómenos atómicos según los conceptos clásicos. En cuanto
comprendieron esta verdad, los físicos comenzaron a formular las preguntas correctas y a evitar las

contradicciones y, en palabras de Heisenberg, «en cierto modo lograron penetrar en el espíritu de la física
cuántica»2, encontrando finalmente una fórmula matemática precisa y sólida para su teoría. La teoría
cuántica, conocida también por el nombre de mecánica cuántica, fue formulada entre 1900 y 1930 por un
grupo internacional de físicos entre los que se hallaban Max Planck, Albert Einstein, Niels Bohr, Louis de
Broglie, Erwin Schriklinger, Wolfgang Pauli, Werner Heisenberg y Paul Dirac. Atravesando las fronteras
de sus respectivos países, estos hombres aunaron esfuerzos para crear uno de los períodos más
apasionantes de la ciencia moderna, en el cual no sólo se asistió a un brillante intercambio de ideas sino
también a una serie de conflictos dramáticos —así como de profundas amistades— entre los científicos.
Incluso después de haberse completado la formulación matemática de la teoría cuántica, su esquema
conceptual no se aceptó con facilidad. Los principios cuánticos tuvieron un efecto devastador en la visión
que los físicos tenían de la realidad. La nueva física exigía una profunda modificación de los conceptos
fundamentales a través de los cuales se experimenta el mundo —espacio, tiempo, materia, objeto, causa y
efecto— y por ello la transformación suponía un choque violento. Una vez más, en palabras de
Heisenberg: «La violenta reacción ante el reciente desarrollo de la física moderna sólo podrá entenderse
cuando nos demos cuenta de que fue aquí donde los cimientos de la física comenzaron a vacilar; y este
movimiento nos hizo sentir que todo el edificio de la ciencia iba a venirse abajo»3.
Einstein, al igual que Heisenberg, experimentó también un choque al enfrentarse con los nuevos
conceptos y describió sus sentimientos en términos similares: «Todas mis tentativas por adaptar la base
teórica de la física a este (nuevo tipo de) conocimiento han resultado vanas. Es como si la tierra se abriese
debajo de uno, sin que haya por ninguna parte un cimiento firme sobre el cual se pueda construir algo»4
De los cambios revolucionarios que la física provocó en nuestros conceptos de la realidad hoy
comienza a surgir una visión sólida del mundo. Esta visión no la comparte toda la comunidad científica,
pero la están discutiendo y elaborando muchos físicos de talla cuyo interés en su campo va más allá de los
aspectos técnicos de la investigación. Estos científicos están muy interesados en las repercusiones
filosóficas de la física moderna y están tratando de mejorar su comprensión de la naturaleza de la realidad,
dejando de lado toda idea preconcebida.
La perspectiva cartesiana del mundo es mecanicista; en cambio, la visión del mundo que emerge de la
física moderna se caracteriza por ser orgánica, holística y ecológica. Se la podría llamar una visión de
sistemas, en el sentido de teoría general de sistemas5. El mundo ya no puede percibirse como una máquina
formada por una gran cantidad de objetos, sino que ha de concebirse como una unidad indivisible y
dinámica cuyos elementos están estrechamente vinculados y pueden comprenderse sólo como modelos de
un proceso cósmico.
En las páginas siguientes examinaremos los conceptos básicos que fundamentan la visión del mundo
de la física moderna. En mi libro anterior, El Tao de la Física, hice una descripción detallada de esta
visión, demostrando su relación con la filosofía de las tradiciones místicas, especialmente con el
misticismo oriental. Muchos físicos, educados como yo en un sistema que asocia la idea de misticismo a
cosas vagas, misteriosas y nada científicas, se escandalizaron cuando se compararon sus ideas a las de los
místicos6. Afortunadamente esta actitud está cambiando. Muchísimas personas han comenzado a in
teresarse en las filosofías orientales; la meditación ya no se considera algo ridículo o sospechoso, y el
misticismo comienza a tomarse en serio incluso dentro de la comunidad científica. Cada día aumenta el
número de científicos para quienes el pensamiento místico proporciona una estructura sólida y pertinente a
las teorías de la ciencia contemporánea, una concepción del mundo en la que los descubrimientos
científicos están en armonía con las metas espirituales y las creencias religiosas de la humanidad.

La investigación experimental atómica de comienzos de siglo obtuvo resultados sensacionales y


totalmente inesperados. Se descubrió que los átomos distaban mucho de ser las partículas duras y sólidas
de la teoría consagrada; por el contrario, consistían en vastos espacios y un núcleo alrededor del cual se
movían unas partículas extremadamente pequeñas: los electrones. Unos años más tarde, la teoría cuántica
demostró claramente que incluso las partículas subatómicas —los electrones, los protones y los neutrones
situados en el núcleo—no tenían ninguna semejanza con los objetos sólidos descritos por la física clásica.
Estas unidades de materia subatómica son entidades duales muy abstractas: según como se las vea, unas
veces aparecen como partículas, y otras, como ondas. Esta naturaleza dual también está presente en la luz,
que puede tomar la forma de ondas electromagnéticas o de partículas. Einstein fue el primero en llamar
«cuantos» —de ahí el origen del término «teoría cuántica»— a las partículas de luz, hoy conocidas por el
nombre de fotones.
La naturaleza dual de la materia y de la luz es muy misteriosa. Parece imposible que algo pueda ser, al
mismo tiempo, una partícula «entidad limitada a un volumen extremadamente reducido» y una onda que
se difunde a través de una vasta región del espacio. Sin embargo, esto es exactamente lo que los físicos
tuvieron que aceptar. La situación parecía irremediablemente paradójica hasta que se dieron cuenta de que
los términos «partícula» y «onda» se referían a dos conceptos clásicos que jamás podrían describir
completamente los fenómenos atómicos. Un electrón no es una partícula ni una onda, si bien unas veces
tiene aspectos similares a los de una partícula y otras, a los de una onda. Mientras actúa como partícula,
puede desarrollar su naturaleza ondulante a expensas de su naturaleza corpuscular y viceversa. Por
consiguiente, la partícula se transforma continuamente en onda, y la onda, en partícula. Esto significa que
ni los electrones, ni ningún otro «objeto» atómico tienen propiedades que sean independientes de su
entorno. Las propiedades que sí tienen —sean éstas ondulantes o corpusculares— dependerán de la
situación experimental, esto es, del sistema con el que se vean obligadas a entablar una relación recíproca7.
El gran logro de Heisenberg fue expresar las limitaciones de los conceptos clásicos en una forma
matemática exacta que se conoce por el nombre de «principio de incertidumbre». Se trata de una serie de
relaciones matemáticas que determinan hasta qué punto se pueden aplicar los conceptos clásicos a los
fenómenos atómicos. Cada vez que utilizamos conceptos clásicos —partícula, onda, posición, velocidad—
para describir un fenómeno atómico, nos damos cuenta de que hay ciertos conceptos —o aspectos—
emparejados y estrechamente vinculados que no se pueden definir simultáneamente con precisión. Cuanto
más acentuamos uno de ellos en nuestra descripción, más incierto se vuelve el otro concepto, y la relación
exacta entre ambos se obtiene por medio del principio de incertidumbre.
A fin de facilitar la comprensión de la relación existente entre pares de conceptos clásicos, Niels Bohr
introdujo la idea de complementariedad. Bohr concibió las imágenes de la onda y la partícula como dos
descripciones complementarias de la misma realidad; por tanto, sólo parcialmente correctas y con un
campo de aplicaciones limitado. Ambas imágenes eran necesarias para dar una explicación completa de la
realidad atómica y ambas habían de ser aplicadas dentro de los límites impuestos por el principio de
incertidumbre. La noción de complementariedad se ha convertido en parte esencial del concepto de la
naturaleza sostenido por los físicos, y Bohr sugirió repetidas veces que tal vez esta noción podría resultar
útil fuera del campo de la física. De hecho, su afirmación parece ser correcta, y volveremos sobre esta idea
en futuras discusiones acerca de los fenómenos biológicos y psicológicos. En nuestro estudio sobre la
terminología china del yin/yang hemos empleado mucho la noción de polaridad, pues los contrarios yin y
yang están relacionados de manera complementaria o polarizada. Resulta evidente que el moderno
concepto de complementariedad se refleja en la antigua filosofía china, hecho que causó una profunda
impresión a Niels Bohr8.
Para resolver la paradoja de la onda/partícula, los físicos no tuvieron más remedio que aceptar un
aspecto de la realidad que ponía en duda la base misma de la visión mecanicista: el concepto de la realidad
de la materia. A nivel subatómico, la materia no existe con certeza en un lugar definido, sino que muestra
una «tendencia a existir»; los acontecimientos atómicos no ocurren con certeza en un momento definido y
de manera definida, sino que muestran una «tendencia a ocurrir». En el formalismo de la mecánica
cuántica estas tendencias se expresan como probabilidades y se relacionan con cantidades que toman la
forma de ondas. Dichas cantidades son parecidas a las fórmulas matemáticas utilizadas para describir, por
ejemplo, la vibración de una cuerda de guitarra o una onda de sonido. Por este motivo, una partícula puede
conservar su naturaleza de partícula y, al mismo tiempo, ser una onda. No se trata aquí de ondas
tridimensionales «reales», como las ondas de agua o de sonido, sino de «ondas de probabilidad»
«cantidades matemáticas abstractas con todas las propiedades características de una onda» que están
relacionadas con la probabilidad de encontrar las partículas en ciertos puntos del espacio y en ciertos
momentos. Todas las leyes de la física atómica se expresan en términos de probabilidades. Nunca se puede
predecir con seguridad un acontecimiento atómico: solamente se puede predecir la probabilidad de que
ocurra.
El descubrimiento del aspecto dual de la materia y del papel fundamental de la probabilidad destruyó la
idea clásica del objeto sólido. A nivel subatómico, los objetos de materia sólida de la física clásica se
dispersan en formas ondulatorias de probabilidades. Es más, estas ondas ni siquiera representan la
probabilidad de una cosa, sino la probabilidad de que varias cosas establezcan una relación recíproca.
Analizando detalladamente el proceso de observación de la física atómica se llega a la conclusión de que
las partículas subatómicas no tienen ningún significado como entidades aisladas sino como correlaciones o
conexiones entre varios procesos de observación y medida. Sobre este tema Niels Bohr escribió: «las
partículas de materia aisladas son abstracciones; la única manera en que podemos definir y observar sus
propiedades es a través de la interacción que establecen con otros sistemas»9.
Las partículas subatómicas, por consiguiente, no son «cosas» sino correlaciones de «cosas» que, a su
vez, son correlaciones de otras «cosas» y así sucesivamente. En la teoría cuántica nunca se llega a una
«cosa»; siempre se trata con correlaciones entre «cosas».
Es así como la física moderna revela la unidad básica del universo, demostrando la imposibilidad de
dividir el mundo en partes aisladas independientes. Como la materia, la naturaleza no está formada de
componentes básicos aislados; se trata, por el contrario, de una compleja red de relaciones entre las
diferentes partes de un conjunto unificado. Heisenberg lo describe con estas palabras: «El mundo parece
un complicado tejido de acontecimientos en el que toda suerte de conexiones se alternan, se superponen o
se combinan y de ese modo determinan la textura del conjunto»10.
Así pues, el universo es un conjunto unificado que, hasta cierto punto, puede dividirse en partes
aisladas, en objetos formados de moléculas y átomos que, a su vez, están compuestos de partículas. Y es
aquí, al llegar a las partículas, donde la noción de la división en partes se derrumba. Las partículas
subatómicas «y, por consiguiente, todas las partes del universo» no pueden concebirse come entidades
aisladas y han de definirse a través de sus correlaciones Según Henry Stapp, profesor de la Universidad
California: «una partícula elemental no es una entidad imposible de analizar que exista
independientemente; una partícula es, esencialmente, una serie de relaciones que se proyectan hacia otras
situadas en su exterior»11.
El hecho de acentuar las relaciones de objetos y no los objetos por sí mismos tiene unas repercusiones
trascendentales en todos los campos de la ciencia. Gregory Bateson llegó incluso a sostener que la
correlaciones deberían servir de base para todas las definiciones que este concepto se debería enseñar a los
niños en la escuela primaria12. En su opinión, no se podía definir un objeto por lo que era en sí, sino por la
relación que guardaba con otros objetos.
En la teoría cuántica, el hecho de que los fenómenos atómicos sean determinados por sus
correlaciones dentro del conjunto está estrechamente vinculado al papel fundamental desempeñado por
probabilidad13. La física clásica utiliza la probabilidad cuando del conoce los detalles mecánicos de un
acontecimiento. Por ejemplo cuando tiramos un par de dados, podríamos «en principio» predecir el
resultado si supiéramos todos los detalles implicados en el proceso de la composición exacta de los dados,
la superficie sobre la que ruedas etc. Estos detalles se llaman variables limitadas, pues están incluidos
dentro de los mismos objetos. También en la física atómica y subatómica estas variables son muy
importantes y se las representa mediante correlaciones de sucesos aislados en el espacio y conectados por
medio de ciertas señales —partículas y redes de partículas— que respetan las leyes normales de
separación en el espacio. Por ejemplo, una señal no puede ser transmitida a una velocidad superior a la de
la luz. Ahora bien: junto a estas conexiones limitadas existen otras que son ilimitadas e instantáneas y que,
por ahora, no pueden predecirse de manera matemática. Estas conexiones ilimitadas son la esencia de la
realidad cuántica. El universo entero influye en todos los acontecimientos que ocurren dentro de él y, si
bien esta influencia no puede ser descrita detalladamente, se puede reconocer un cierto orden y expresarlo
en términos de leyes estadísticas.
Así pues, tanto la física clásica como la cuántica utilizan el concepto de probabilidad por razones
parecidas. En ambos casos hay una serie de variables «ocultas» que nos impiden realizar pronósticos
exactos. Sin embargo, hay una diferencia crucial: mientras que las variables ocultas de la física clásica
representan mecanismos limitados, las variables de la física cuántica no son limitadas, sino que se
conectan instantáneamente con el conjunto del universo. En el mundo ordinario y macroscópico, las
conexiones limitadas tienen relativamente poca importancia y por ello podemos hablar de objetos aislados
y formular las leyes de la física en términos de certidumbres. Pero cuando se trata de dimensiones más
pequeñas la influencia de las conexiones ilimitadas se vuelve más fuerte: en este caso, las leyes de la física
sólo pueden formularse en términos de probabilidades, y se hace cada vez más difícil separar de la unidad
cualquier parte del universo.
Einstein nunca llegó a aceptar la existencia de estas conexiones ilimitadas ni la naturaleza
fundamental de la probabilidad que resulta de ellas. Fue éste el tema de una famosa discusión que el
científico tuvo en los años veinte con su colega Bohr, durante la cual Einstein expresó su oposición a la
interpretación dada por la cuántica con la famosa metáfora «Dios no juega a los dados»14. Al final del
debate, Einstein se vio obligado a admitir que la teoría de los cuantos, tal como la interpretaban Bohr y
Heisenberg, era un sistema coherente de pensamiento; a pesar de ello, siguió estando convencido de que,
en el futuro, se encontraría una interpretación determinista en términos de las variables limitadas ocultas.
La postura de Einstein de no querer aceptar las consecuencias de una teoría forjada con la ayuda de
una de sus primeras obras es une de los episodios más interesantes de la historia de la ciencia. Einstein
creía firmemente en una realidad exterior formada de elementos independientes aislados en el espacio, y
en ello radica la esencia de su desacuerdo con Bohr. Por este motivo, la filosofía de Einstein era
esencialmente cartesiana. Si bien es cierto que sus teorías iniciaron la revolución científica del siglo XX y
que su teoría de la relatividad fue mucho más lejos que la de Newton, parece que Einstein, por alguna
razón, no se resignaba a ir más allá de Descartes. La afinidad entre Einstein y Descartes resulta aún más
curiosa si se piensa que Einstein, al final de su vida, realizó varios intentos de forjar una teoría de campos
unificada, dando a la física una estructura geométrica de acuerdo con su teoría general de la relatividad. Si
estas tentativas hubiesen tenido éxito, Einstein habría podido afirmar —y con razón— que toda su física
no era más que geometría.

Giro hacia arriba Giro hacia abajo

En su afán por demostrar la incoherencia de la interpretación de Bohr de la teoría cuántica, Einstein


concibió un experimento de pensamiento que hoy se conoce por el nombre de experimento Einstein
Podolsky-Rosen (EPR)15. Tres décadas más tarde, John Bell formuló un teorema basado en el experimento
EPR en el que demostraba qué la existencia de variables ocultas no concuerda con los pronóstico
estadísticos de la mecánica cuántica16. El teorema de Bell invalidó la posición de Einstein al probar que el
concepto cartesiano de una realidad que consiste en partes aisladas enlazadas por conexiones limitadas era
incompatible con la teoría cuántica.
El experimento EPR es un magnífico ejemplo de una situación en la que un fenómeno cuántico se
opone violentamente a la más profunda de nuestras intuiciones sobre la realidad. Por eso se puede utilizar
perfectamente para demostrar la diferencia entre los conceptos clásicos y los de la física cuántica. Una
versión simplificada de este experimento requiere dos electrones giratorios, o electrones «spin», cuyas
propiedades hemos de comprender si queremos entender la esencia de la situación17. La imagen clásica de
una pelota de tenis que gira no basta para describir con exactitud una partícula subatómica giratoria. En
cierto sentido, el «spin» (giro) de una partícula es la rotación de ésta sobre su propio eje, pero, como
ocurre con frecuencia en la física subatómica, el concepto clásico resulta limitado. Si se trata de un
electrón, el «spin» de las partículas está limitado a dos valores: la cantidad de «spin» es siempre la misma,
pero la partícula puede girar en una u otra dirección sobre un mismo eje de rotación. Los físicos llaman a
estos valores de «spin» el «spin up» (giro hacia arriba) y el «spin down» (gira hacia abajo), dando por
supuesto que el eje de rotación es, en este caso, vertical.
Pero la característica más importante de un electrón «spin», que resulta inconcebible según la física
clásica, es el hecho de que su eje de rotación no puede definirse con certidumbre. Igual que los electrones
muestran «tendencia a existir» en ciertos lugares, también revelan «tendencia a girar» sobre ciertos ejes.
Pero cada vez que se mide un eje de rotación, se comprueba que el electrón está girando sobre este eje en
una o en otra dirección. En otras palabras, el eje de rotación de una partícula queda definido durante el
proceso de medición, pero antes de que este proceso se efectúe, no se puede decir que la partícula gire
sobre un eje definido: simplemente tiene una cierta potencialidad, o tendencia a hacerlo.
Una vez entendido el «spin» de los electrones podemos examinar el experimento EPR y el teorema de
Bell. Para comenzar el experimento se usa uno de los diferentes procesos que existen para poner dos
electrones en un estado en el que la suma de sus «spin» sea cero, esto es, ponerlos a girar en direcciones
opuestas. Ahora supongamos que a las dos partículas de este sistema, con un «spin» total de cero, se las
obligue a separarse utilizando algún proceso que no afecte a sus respectivos «spin». Mientras se alejan en
direcciones opuestas, la suma de sus «spin» seguirá siendo cero y, cuando estén separadas por cierta
distancia, se medirán sus «spin» individuales. En este experimento es muy importante el hecho de que la
distancia entre las dos partículas en el momento de la medición es macroscópica. Puede ser
arbitrariamente grande: una partícula puede estar en Los Ángeles y la otra en Nueva York, o una en la
tierra y la otra en la luna.
Supongamos ahora que el «spin» de la partícula se mide según el eje vertical y que el resultado es
«up», esto es, gira hacia arriba. Puesto que la suma de los «spin» de ambas partículas es cero, la medición
anterior implica que el «spin» de la partícula 2 ha de ser «down», hacia abajo. Igualmente, si medimos el
«spin» de la partícula 2 a lo largo de un eje horizontal y comprobamos que gira hacia la derecha, sabemos
que en este caso el «spin» de la partícula 2 tiene que girar hacia la izquierda. La teoría cuántica afirma que
en un sistema de dos partículas con un «spin» total de cero, los «spin» de las partículas sobre cualquiera
de sus dos ejes siempre estarán relacionados —serán opuestos— pese a existir sólo en forma de
tendencias, o potencialidades, antes de la medición. Esta correlación significa que la medida del «spin» de
la partícula 1, sobre cualquier eje, proporciona indirectamente la medida del «spin» de la partícula 2 sin
perturbarla de manera alguna.
El aspecto paradójico del experimento EPR resulta del hecho de que el espectador es libre de escoger
el eje de medición. En cuanto lo ha seleccionado, la medición transforma en certidumbres las tendencias
de la partícula a girar sobre varios ejes. El punto crucial es que el observador puede escoger el eje de
medición en el último minuto, cuando las partículas ya están muy alejadas. En el instante en que se mide
la partícula 1, la partícula 2 —que puede estar a miles de kilómetros de distancia— adquirirá un «spin»
definido, «up» o «clown» si se ha elegido un eje vertical, «izquierdo» o «derecho» si se ha elegido un eje
horizontal. ¿Cómo sabe la partícula 2 qué eje hemos escogido? No hay tiempo suficiente para que pueda
recibir esta información por ninguna señal convencional.
Este es el enigma del experimento EPR y es aquí donde Einstein discrepaba con Bohr. Según Einstein,
puesto que ninguna señal puede viajar más rápido que la velocidad de la luz, es imposible que la medida
tomada en una partícula determine instantáneamente el sentido del «spin» de otra partícula situada a miles
de kilómetros de distancia. Según Bohr, el sistema de dos partículas es una unidad indivisible, aun cuando
éstas estén separadas por una distancia enorme; es imposible analizar el sistema en términos de partes in
dependientes. En otras palabras, no se puede aplicar la visión cartesiana de la realidad a un sistema de dos
electrones que, aunque separados en el espacio, siguen estando enlazados por una serie de conexiones
instantáneas e ilimitadas. Estas conexiones no son señales en el sentido einsteiniano, sino que trascienden
a nuestras nociones convencionales sobre la transferencia de información. El teorema de Bell corrobora la
interpretación que Bohr da sobre la unidad indivisible de dos partículas y prueba rigurosamente que el
enfoque cartesiano aceptado por Einstein es incompatible con las leyes de la teoría cuántica. Stapp
resumió la situación en estas palabras: «El teorema de Bell prueba, en efecto, la profunda verdad que dice
que el mundo es fundamentalmente anárquico o fundamentalmente indivisible»18.
La importancia de las conexiones ilimitadas y de la probabilidad en el campo de la física atómica supone
una nueva noción de causalidad que probablemente tenga profundas repercusiones en todas las ramas de la
ciencia. La ciencia clásica se forjó a través del método cartesiano que analiza el mundo reduciéndolo a sus
partes constitutivas y disponiendo estas partes de acuerdo con ciertas leyes causales. La imagen
determinista del universo que de ello resulta está estrechamente vinculada a la imagen de la naturaleza que
funciona como un reloj. En física atómica resulta imposible concebir esta imagen mecánica y determinista.
La teoría cuántica nos ha enseñado que el mundo no puede analizarse a partir de una serie de elementos
aislados que existen de manera independiente. La noción de partes separadas —sean éstas átomos o
partículas subatómicas— es una idealización que tiene sólo un valor aproximativo; dichas partes
no están conectadas por leyes causales en el sentido clásico.
En la teoría cuántica, los fenómenos individuales no siempre tienen una causa bien definida. Por
ejemplo, el salto de un electrón de una órbita atómica a otra, o la desintegración de una partícula
subatómica, puede ocurrir espontáneamente sin que se pueda determinar el origen de la causa. Nunca se
puede saber de antemano cuándo ni cómo van a ocurrir estos fenómenos; sólo se puede predecir la pro
babilidad de que lo hagan. Ello no significa que los fenómenos atómicos sucedan de manera totalmente
arbitraria, sino que los originan causas limitadas. El comportamiento de una parte está determinado por las
conexiones ilimitadas que ésta tiene con el conjunto y, puesto que es imposible saber con precisión cuáles
son estas conexiones, hay que reemplazar la visión clásica y parcial de causa y efecto por un concepto más
amplio de causalidad estadística. Las leyes de la física atómica son leyes estadísticas según las cuales las
probabilidades de que ocurran ciertos fenómenos atómicos están determinadas por la dinámica de todo el
sistema. Mientras que, en la mecánica clásica, las propiedades y el comportamiento de las partes
determinan los del, todo, en la mecánica cuántica, la situación es exactamente la contraria: es el todo lo
que determina el comportamiento de las partes.
Los conceptos de no limitación y de causalidad estadística implican claramente que la estructura de la
materia no es mecánica. De ahí que el termino «mecánica cuántica» sea inadecuado para describir esta
ciencia, como ha indicado David Bohm19. En un libro de texto sobre la teoría de los cuantos publicado en
1951, Bohn enunció varias hipótesis interesantes sobre el paralelismo existente entre los procesos
cuánticos y los procesos del pensamiento20, añadiendo varios conceptos a la famosa declaración que James
Jeans había hecho dos décadas antes: «Hoy existe un acuerdo bastante amplio en que corriente del
conocimiento se está dirigiendo hacia una realidad no mecánica. El universo comienza a parecer un gran
pensamiento en vez de una gran máquina»21
La evidente similitud que se observa entre la estructura de la materia y la estructura de la mente no
tiene por qué resultar sorprendente, pues la conciencia humana tiene una gran importancia en el proceso
de observación y, en el campo de la física atómica, determina en gran medida las propiedades de los
fenómenos observados. Esta es otra de las ideas expuestas por la mecánica cuántica, que probablemente
llegue a tener consecuencias trascendentales. En física atómica, los fenómenos observados sólo pueden
concebirse como correlaciones entre varios procesos de observación y de medición, y al final de esta
cadena de procesos siempre se halla la conciencia del observador humano. El aspecto crucial de la teoría
cuántica es que el observador no sólo es necesario para observar las propiedades de los fenómenos
atómicos, sino también para provocar la aparición de estas propiedades. Por ejemplo, mi decisión
consciente sobre la manera de observar un electrón determinará hasta cierto punto las propiedades de este
electrón. Si le hago una pregunta considerándolo como partícula, me responderá como partícula; si, en
cambio, le hago una pregunta considerándolo una onda, me responderá como onda. El electrón no tiene
propiedades objetivas que no dependan de mi mente. En física atómica es imposible mantener la distinción
cartesiana entre la mente y la materia, entre el observador y lo observado. No se puede hablar de la
naturaleza sin hablar, al mismo tiempo, sobre uno mismo.
Al trascender la división cartesiana, la física moderna no sólo ha invalidado el ideal clásico de una
descripción objetiva de la naturaleza, sino que también ha desafiado el mito de una ciencia desprovista de
valores. Los modelos que los científicos observan en la naturaleza están íntimamente vinculados a los
procesos de sus mentes, a sus conceptos, pensamientos y valores. Así pues, los científicos que obtienen y
las aplicaciones tecnológicas que investiguen siempre estarán condicionados por su estado de ánimo. Si
bien es cierto que las detalladas investigaciones que realizan no dependen explícitamente de su sistema de
valores, el paradigma dentro del cual éstas se llevan a cabo jamás estará libre de valores. Por tanto, los
científicos no sólo tienen una responsabilidad intelectual por sus investigaciones, sino también una
responsabilidad moral. Este punto se ha vuelto muy importante en muchas de las ciencias actuales, es
pecialmente en la física, donde los resultados de la mecánica cuántica y de la teoría de la relatividad han
abierto dos caminos muy distintos. Los físicos tenemos que escoger —poniéndolo en términos extremos—
entre Buda o la Bomba, y a cada uno de nosotros le toca decidir qué camino tomar.
El concepto del universo como una red de relaciones vinculadas entre sí es uno de los dos temas
principales que se repiten a lo largo de la física moderna. El otro tema es la comprensión de que la red
cósmica es intrínsecamente dinámica. En la teoría cuántica, el aspecto dinámico de la materia surge como
consecuencia de la naturaleza ondulante de las partículas subatómicas; este dinamismo es aún más
importante en la teoría de la relatividad, donde demuestra que la existencia de la materia no puede
separarse de su actividad. Las propiedades de los modelos básicos —las partículas subatómicas— sólo
pueden entenderse dentro de un contexto dinámico, en términos de movimiento, interacción y
transformación.
El hecho de que las partículas no sean entidades aisladas, sino modelos ondulatorios de
probabilidades, significa que se comportan de manera muy peculiar. Cuando una partícula subatómica está
confinada en una pequeña región del espacio, reacciona ante el confinamiento moviéndose continuamente.
Cuanto más pequeño sea el espacio en el que se halla confinada, más rápidos serán los movimientos «de
meneo» de la partícula. Este comportamiento es un efecto cuántico típico, una faceta del mundo
subatómico para la cual no existe analogía en la física macroscópica: cuanto más limitada esté una par
tícula, más veloces serán sus movimientos22. La tendencia de las partículas a reaccionar con el movimiento
ante una limitación que se les impone implica una «inquietud» fundamental de la materia que es una
característica del mundo subatómico. En este mundo, la mayoría de las partículas de materia están
confinadas, ligadas a estructuras atómicas, moleculares y nucleares y, por consiguiente, no están en
reposo, sino que, por el contrario, denotan una tendencia intrínseca a moverse. Según la teoría cuántica, la
materia siempre es inquieta, nunca está en reposo, hasta el punto de que los objetos pueden ser concebidos
como un conjunto de componentes más pequeños —moléculas, átomos y partículas— que permanecen en
un estado de movimiento continuo. Desde el punto de vista macroscópico, los objetos materiales que nos
rodean pueden parecer pasivos o inertes; pero cuando observamos una piedra «muerta» o un metal
«muerto» con la ayuda de instrumentos ampliadores, constatamos de que está lleno de actividad. Cuanto
más detalladamente los examinemos, más llenos de vida nos parecerán. Todos los objetos materiales de
nuestro entorno están hechos de átomos vinculados entre sí de varias maneras y que forman una gran
variedad de estructuras moleculares que no son rígidas ni están desprovistas de movimiento, sino que
vibran de acuerdo con su temperatura y en armonía con las vibraciones térmicas de su entorno. Los
electrones situados dentro de estos átomos vibrantes están ligados a los núcleos atómicos por fuerzas
eléctricas que tratan de mantenerlos unidos, y ellos responden a este confinamiento girando sobre sus ejes
a gran velocidad. Finalmente, en el núcleo, los protones y los neutrones son sometidos a la enorme presión
de poderosas fuerzas nucleares que los reducen a un volumen ínfimo y, como consecuencia de ello, giran a
una velocidad inimaginable.
Así pues, para la física moderna, la materia no es algo pasivo e inerte, sino algo que se mueve
continuamente, danzando y vibrando, cuyos modelos rítmicos los determina la configuración de sus mo
léculas, de sus átomos y de su núcleo. Hemos llegado a la conclusión de que no existen estructuras
estáticas en la naturaleza. Existe una estabilidad, y esta estabilidad es el resultado de un equilibrio diná
mico. Cuanto más nos adentramos en la materia, mayor necesidad tenemos de entender su naturaleza
dinámica para poder comprender sus modelos.
Al sumergirse en el mundo de las dimensiones submicroscópicas los científicos llegaron a un punto
decisivo con el estudio de los núcleos atómicos, en los que la velocidad de los protones y de los neutrones
suele ser tan alta que se aproxima a la velocidad de la luz. Este es un hecho crucial para la descripción de
sus interacciones, ya que cualquier descripción de un fenómeno natural que ocurra a esta velocidad tendrá
que tomar en cuenta la teoría de la relatividad. Para entender las propiedades y las interacciones de las
partículas subatómicas se necesita una estructura que incluya no sólo la teoría cuántica sino también la
teoría de la relatividad; y esta última es la que revela en toda su extensión la naturaleza dinámica de la
materia.
La teoría de la relatividad de Einstein ha modificado drásticamente nuestro concepto del tiempo y del
espacio. Nos ha obligado a abandonar la idea de un espacio absoluto que sirve de escenario a los
fenómenos físicos y la de un tiempo absoluto como una dimensión aislada del espacio. Según la teoría de
Einstein, el espacio y el tiempo son conceptos relativos y desempeñan un papel subjetivo como elementos
del lenguaje que el observador utiliza para describir los fenómenos de la naturaleza. A fin de proporcionar
una descripción exacta de los fenómenos que ocurren a una velocidad próxima a la velocidad de la luz, se
ha de usar una estructura «relativista» que incorpore el tiempo a las tres coordenadas espaciales,
convirtiéndolo, en una cuarta coordenada que ha de determinarse en relación con el observador. En una
estructura tal, espacio y tiempo están vinculados, íntimamente y de forma inseparable y constituyen una
magnitud continua cuadridimensional llamada «espacio-tiempo». En la física relativista nunca se puede
hablar del espacio sin hablar del tiempo; y viceversa.
Los físicos modernos han convivido con la teoría de la relatividad durante varios años y se hallan
completamente familiarizados con su formalismo matemático. A pesar de ello, nuestra intuición no se ha
beneficiado con este hecho. Carecemos de una experiencia sensible directa del espacio-tiempo
cuadridimensional y, cada vez que esta realidad relativista se manifiesta —esto es, en todas las situaciones
que implican una gran velocidad—, nos resulta muy difícil tratar con ella a nivel de intuición y de
lenguaje cotidiano. Un ejemplo extremo de esta situación se puede constatar en la electrodinámica
cuántica, una de las teorías relativistas más logradas de la física de las partículas, que concibe las
antipartículas como partículas que retroceden en el tiempo. Según esta teoría, es posible utilizar la misma
expresión matemática para describir un positrón —la antipartícula de un electrón— que se desplaza del
pasado al futuro y un electrón que se desplaza del futuro al pasado. Las interacciones de las partículas
pueden proyectarse en cualquier dirección del espacio-tiempo cuadridimensional, avanzando o
retrocediendo en el tiempo de la mis manera que giran, hacia la izquierda o hacia la derecha en el espacio.
Para tener una imagen de estas interacciones necesitamos unos mapas cuadridimensionales que cubran los
espacios de tiempo y a la de toda la región del espacio. Estos mapas, llamados diagramas de espacio
tiempo, no están sujetos a ninguna dirección definida de tiempo: luego no existe «antes» ni «después» en
los procesos que ilustran y, por consiguiente, tampoco hay una relación lineal de causa y efecto. Todos los
acontecimientos están conectados entre sí pero estas conexiones no son causales en el sentido clásico.
Matemáticamente no hay problemas con esta interpretación de las interacciones de las partículas, pero
expresarla con un lenguaje cotidiano nos resulta extremadamente difícil, puesto que todas las palabras que
tenemos a disposición se refieren a nociones convencionales del tiempo y, por tanto, resultan inadecuadas
para describir los fenómenos relativistas. Por eso, la teoría de la relatividad nos ha enseñado la misma
lección que la mecánica cuántica; nos ha demostrado que nuestras ideas sobre la realidad se limitan a la
experiencia cotidiana que tenemos del mundo físico y que hemos de abandonarlas si queremos ampliar
esta experiencia.

Los conceptos de tiempo y espacio son tan básicos para nuestra descripción de los fenómenos
naturales que el hecho de que la teoría de la relatividad los modificase radicalmente supuso una modifica -
ción de toda la estructura que la física utilizaba para describir la naturaleza. La consecuencia más
importante de la nueva estructura relativista, fue el descubrimiento de que la masa no es más que una
forma de energía. Hasta un objeto en reposo almacena energía en su masa, y la relación entre ambas se
obtiene mediante la famosa ecuación einsteineana E = m c2, siendo c la velocidad de la luz.
Cuando se la ve como una forma de energía, ya no se requiere que la masa sea indestructible, sino que
tenga la posibilidad de transformarse en otras formas de energía. Esto sucede continuamente en los
procesos de colisión de la física de alta energía, donde se crean y se destruyen partículas de materia,
mientras las masas se transforman en energía motriz y viceversa. La colisión de partículas subatómicas es
el principal instrumento para estudiar estas propiedades, y la relación entre la masa y la energía es esencial
para describirlas. La equivalencia entre masa y energía ha sido verificada un sinfín de veces y los físicos
se hallan totalmente familiarizados con ella —tan familiarizados, de hecho, que miden las masas de las
partículas en las unidades de energía correspondientes.
El descubrimiento de que la masa es una forma de energía influyó profundamente en la imagen que
teníamos de la materia y nos ha obligado a modificar, en su esencia, nuestro concepto de partícula. En la
física moderna, la masa ya no está relacionada con una substancia material y, por consiguiente, las
partículas no pueden concebirse como algo constituido por un material básico, sino como haces de
energía. Ahora bien, la energía está ligada a la actividad, a los procesos, y esto implica que la naturaleza
de las partículas subatómicas es intrínsecamente dinámica. Para entender mejor este concepto hemos de
recordar que estas partículas sólo pueden concebirse en términos relativistas, esto es, en términos de una
estructura en la que espacio y tiempo se acoplan formando una serie continua cuadridimensional. En esta
estructura, las partículas ya no pueden concebirse como pequeñas bolas de billar ni como granitos de
arena. Estas imágenes resultan inadecuadas, no sólo porque representan las partículas como objetos
aislados, sino también porque son imágenes estáticas y tridimensionales. Las partículas subatómicas han
de percibirse como entidades cuadridimensionales en el espacio-tiempo, y también sus formas han de
verse dinámicamente, como formas en el espacio y en el tiempo. Las partículas son modelos dinámicos,
esto es, modelos de actividad que tienen una faceta espacial y una faceta temporal. Ésta las hace parecer
objetos con una cierta masa; su faceta espacial las muestra como procesos que exigen una cantidad de
energía equivalente. Por consiguiente, no hay distinción entre la existencia de la materia y su actividad;
son dos aspectos distintos de la misma realidad espacio-tiempo.
La visión relativista de la materia ha afectado drásticamente nuestra idea de las partículas y también la
imagen que teníamos de las fuerzas que actúan entre estas partículas. En una descripción rela tivista de las
interacciones de las partículas, las fuerzas que operan entre ellas —su atracción o repulsión— se ven como
un intercambio de otras partículas. Si bien es difícil imaginar este concepto, su comprensión es necesaria
para entender los fenómenos subatómicos, ya que liga las fuerzas operantes entre los constituyentes de la
materia a las propiedades de otros constituyentes de la materia, y de este modo unifica dos conceptos —
energía y materia— que parecían ser, básicamente diferentes en la física newtoniana. Hoy se sabe que
tanto la energía como la materia tienen un origen común en los modelos dinámicos que llamamos
partículas. Los modelos energéticos del mundo subatómico forman las estructuras estables de los núcleos,
átomos y moléculas que constituyen la materia, dándole un aspecto macroscópico y sólido que crea la
ilusión de que están hechos de alguna substancia material. A nivel macroscópico esta noción de substancia
puede resultar útil como aproximación al concepto, pero a nivel atómico ya no tiene sentido. Los átomos
se componen de partículas y estas partículas no están hechas de materia. Cuando las observamos no
podemos comprobar la existencia de substancia alguna, sino de unos modelos dinámicos en continua
transformación: la danza continua de la energía.

Así pues, las dos teorías básicas de la física moderna han trascendido los principales aspectos de la
visión cartesiana del mundo y de la física newtoniana. La teoría cuántica ha demostrado que las partículas
subatómicas no son corpúsculos aislados de materia, sino modelos de probabilidades, conexiones de una
red cósmica indivisible que incluye al observador humano y su conciencia. La teoría de la relatividad ha
dado vida —por decirlo así— a la red cósmica, al, revelar su naturaleza intrínsecamente dinámica y al
demostrar que, su actividad es la esencia misma de su existencia. La física moderna ha reemplazado la
imagen mecánica del universo por la de una unidad individual y dinámica cuyas partes constitutivas están
vinculadas en su esencia y que puede concebirse sólo como modelo de un proceso cósmico. A nivel
subatómico, las correlaciones y las interacciones de las partes de la unidad son más importantes que las
partes mismas. Hay movimiento, pero no hay, en el fondo, objetos que se muevan; hay actividad, pero no
hay actores; no existen danzantes, sólo existe la danza.

Las investigaciones de la física actual tienen como objeto forjar una teoría general de las partículas
subatómicas que sintetice la mecánica cuántica y la teoría de la relatividad. Aún no hemos sido capaces de
formular una teoría tan completa, pero tenemos varias teorías parciales, o modelos, que describen muy
bien ciertos aspectos de los fenómenos subatómicos. En la actualidad, existen dos teorías «cuántico
relativistas» de la física de las partículas que han tenido éxito aplicadas a distintos campos. La primera es
un grupo de teorías del campo cuántico que se aplican a las interacciones electromagnéticas y débiles. En
la segunda, se trata de la llamada teoría de la matriz S, que se ha utilizado con éxito para describir
interacciones intensas23. De estos dos enfoques, la teoría de la matriz S está más relacionada con el tema
de este libro pues tiene una serie de importantes repercusiones para el conjunto de las ciencias24.
La base filosófica de la teoría de la matriz S se conoce por el nombre de enfoque bootstrap*. Propuesto
a comienzos de la década los sesenta por Geoffrey Chew, fue utilizado por muchos físicos para formular
una teoría general sobre las partículas de interacciones tensas de acuerdo con una nueva filosofía de la
naturaleza. Según filosofía del enfoque bootstrap, es imposible reducir la naturaleza una serie de entidades
fundamentales semejantes a bloques básicos de materia; por el contrario, la naturaleza debe concebirse
enteramente a través de su autoconsistencia. Todos los conceptos físicos resultan de la exigencia de que
sus componentes han de ser consistentes consigo mismos y entre sí. Esta idea constituye una nueva

*
N. del T. La teoría denominada bootstrap (alusión en inglés a uno de los disparates del barón de Munchhausen, al pretender
elevarse tirando de los cordones de sus propias botas, deja entrever que las partículas que efectivamente existen en la naturaleza
estarían cornpuestas unas por otras «cerrándose» el proceso sobre sí mismo.

orientación del espíritu tradicional de las investigaciones básicas en el campo de la física, en las que
siempre se trataban de encontrar los constituyentes últimos de la materia. Al mismo tiempo, representa el
punto culminante del concepto del mundo material como una red de relaciones vinculada, que resulta de la
teoría cuántica. La filosofía bootstrap rechaza la idea de bloques de materia fundamentales y poco acepta
ningún tipo de entidades básicas —ninguna consta ley o ecuación fundamental. El universo es una red
dinámica de fenómenos relacionados entre sí. Ninguna de las propiedades de parte de esta red es
fundamental; todas ellas son resultado de propiedades de las demás y la consistencia general de sus
correlaciones determina la estructura de toda la red.
El hecho de que el enfoque bootstrap no acepte ninguna en fundamental lo convierte, a mi parecer, en
uno de los sistemas profundos del pensamiento occidental, elevándolo al nivel de la filosofía budista o
taoísta25. Al mismo tiempo, se trata de un enfoque muy difícil, aplicado por una pequeña minoría de
físicos. La filosofía bootstrap es aún demasiado extraña a los sistemas de pensamiento tradicionales para
que se la pueda apreciar seriamente, y este se extiende también a la teoría de la matriz S. Es curioso que,
aun los conceptos básicos de la teoría los utilizan los físicos cada vez que analizan los resultados de la
colisión de partículas y los comparan con sus pronósticos teóricos, hasta el momento ninguno de los des
tacados científicos que contribuyeron a la formulación de esta teoría durante los últimos veinte años haya
recibido el premio Nobel.
En el esquema de la teoría de la matriz S, el enfoque bootstrap intenta deducir todas las propiedades
de las partículas y de sus interacciones únicamente de su autoconsistencia. Como leyes «fundamentales»
acepta solamente unos pocos principios muy generales, requeridos por los métodos de observación y que
son parte esencial de la estructura científica. Se supone que todos los demás aspectos de las partículas
emergen como una consecuencia necesaria de la autoconsistencia. Cuando este enfoque pueda llevarse a
cabo con éxito, las repercusiones serán muy profundas. El hecho de que todas las propiedades de una
partícula estén determinadas por principios estrechamente relacionados con los métodos de observación
significaría que las estructuras básicas del mundo material están determinadas, en el fondo, por la manera
en que observamos el mundo, y que los modelos de materia que observamos son un reflejo de los modelos
de la mente.
Los fenómenos del mundo subatómico son tan complejos que no existe la seguridad de que, en un
futuro, se pueda forjar una teoría completa y autoconsistente, aunque cabe imaginar una serie de modelos
de menor alcance parcialmente logrados. Cada uno de ellos estaría destinado a cubrir sólo una parte de los
fenómenos que se observan y contendría algunos aspectos inexplicados, o parámetros, y los parámetros de
un modelo podrían ser explicados por los de otro. De este modo, gradualmente, se podrían ir deduciendo
con certeza cada vez más fenómenos a través de un mosaico de modelos relacionados entre sí, cuyo
número de parámetros disminuiría paulatinamente. Por tanto, el adjetivo bootstrap no resulta adecuado
para un solo modelo; únicamente puede ser aplicado a una combinación de modelos consecuentes entre sí,
ninguno de los cuales es más fundamental que el otro. Chew lo explica de manera concisa: «Un físico que
sea capaz de imaginar una cantidad de modelos parcialmente logrados sin favorecer uno en particular se
convierte automáticamente en seguidor de la teoría bootstrap»26.
Los progresos en el campo de la teoría de la matriz S fueron constantes pero lentos hasta hace muy
poco tiempo, cuando gracias a varios importantes descubrimientos los físicos lograron un adelanto
espectacular que aumentó la probabilidad de que el programa bootstrap sobre las interacciones intensas
sea perfeccionado en un futuro próximo y pueda extenderse con éxito al campo de las interacciones
magnéticas y débiles27. Los resultados obtenidos han despertado el entusiasmo de los teóricos de la matriz
S y quizá obliguen al resto, de la comunidad física a realizar una nueva evaluación de su postura ante el
enfoque bootstrap.
El concepto del orden como un nuevo e importante aspecto de la física de las partículas es el elemento
clave de la reciente teoría bootstrap de las partículas subatómicas. El orden, en este contexto, significa las
interconexiones ordenadas de los procesos subatómicos. Puesto que los hechos subatómicos pueden
conectarse de varias maneras, cabe determinar varias categorías de orden. El lenguaje de la topología, que
los matemáticos conocen muy bien, pero que nunca ha sido aplicado a la física de partículas, se utiliza
para clasificar estas categorías de orden. Cuando el concepto del orden se incorpora a la estructura
matemática de la matriz S, el resultado es que sólo unas pocas categorías especiales de relaciones
ordenadas son consecuentes con esta estructura. Los modelos de interacciones de partículas que resultan
de ello son iguales a los que se observan en la naturaleza.
La imagen de las partículas subatómicas que emerge de la teoría bootstrap se puede resumir con la
provocadora frase: «Cada partícula está compuesta de todas las demás partículas». Ahora bien, no nos
imaginemos que cada una de ellas contiene todas las demás en un sentido clásico y estático. Las partículas
subatómicas no son entidades aisladas, sino modelos de energía relacionados entre sí dentro de un proceso
dinámico continuo. Estos modelos no se «contienen» unos a otros sino que se «envuelven» de una manera
a la que se puede dar un significado matemático preciso, pero que no se puede expresar fácilmente con
palabras.
La aparición del orden como un concepto nuevo y central en el campo de las partículas ha llevado a un
avance espectacular en la teoría de la matriz S y también es posible que tenga enormes repercusiones en
todos los campos de la ciencia. La significación del orden en física subatómica sigue estando envuelta en
el misterio y aún no se sabe hasta qué punto se la puede incorporar a la estructura de la matriz S, pero es
curioso recordar que el orden cumple una función básica en el enfoque científico de la realidad, además de
ser un aspecto crucial de todos los métodos de información. La capacidad de reconocer el orden parece ser
un aspecto esencial de la mente racional; toda percepción de un modelo es, en cierto sentido, una per
cepción del orden. La aclaración del concepto de orden en un campo de investigación en el que cada vez
más modelos de la materia y de la mente son reconocidos como reflejos el uno del otro, promete abrir
fascinantes fronteras al conocimiento.
Nuevas extensiones del enfoque bootstrap en la física subatómica tendrán que ir, a la larga, más allá de
la actual teoría de la matriz S, que se formuló específicamente para describir las interacciones intensas. A
fin de ampliar el programa bootstrap, los físicos tendrán que encontrar una estructura más general, en la
que los distintos conceptos que hoy se aceptan sin discusión tendrán que derivarse de la autoconsistencia
general. Entre ellos cabe incluir el concepto de espacio-tiempo microscópico y, quizás, hasta el concepto
que tenemos de la conciencia humana. Un aumento del uso del enfoque bootstrap abre una posibilidad sin
precedentes que nos obliga a incluir explícitamente el estudio de la conciencia humana en cualquier teoría
futura sobre la materia. El problema de la conciencia ya ha aparecido en la cuántica en relación con el
problema de la observación y la medición, pero la fórmula pragmática utilizada por los científicos en sus
investigaciones no hace referencia explícita a la conciencia. Varios físicos afirman que la conciencia
podría ser un aspecto esencial del universo y que, si persistimos en excluirla, podríamos impedir una
futura comprensión de los fenómenos naturales.
En la actualidad existen dos enfoques en la física que se aproximan mucho a un tratamiento explícito
de la conciencia. El primero de ellos es la noción del orden en la teoría de la matriz S de Chew; el segundo
es una teoría formulada por David Bohm que sigue un planteamiento más general y ambicioso28. Partiendo
de la noción de la «unidad intacta», el objetivo de Bohm es la exploración del orden que él considera
intrínseco de la red cósmica de relaciones, a un nivel más profundo, «no manifiesto». Para Bohm, se trata
de un orden «implicado» o «envuelto» y lo describe con la analogía de un holograma. En la visión de
Bohm el mundo real está estructurado de acuerdo con los mismos principios generales, con la unidad
comprendida en cada una de sus partes.
Bohm sabía perfectamente que su holograma era demasiado estático para utilizarse como modelo
científico para describir el orden implícito a nivel subatómico; por ello, acuñó el término
«holomovimiento» a fin de expresar la naturaleza esencialmente dinámica de la realidad en este nivel. En
su opinión, el holomovimiento es un fenómeno dinámico del que emanan todas las formas del universo
material. El objeto de su planteamiento es estudiar el orden envuelto en este holomovimiento a través de
la estructura del movimiento no por medio de la estructura de los objetos y, por consiguiente tomando en
cuenta tanto la unidad como la naturaleza dinámica del universo. A fin de entender el orden implícito,
Bohm tuvo que considerar la conciencia como un aspecto esencial del holomovimiento y se vio obligado a
incluirla de forma explícita en su teoría. En su opinión, la mente y la materia son interdependientes y
correlativas pero no están vinculadas de manera causal: son proyecciones de una realidad más elevada que
no es materia ni conciencia y cada una de ellas envuelve a la otra.
La teoría de Bhom es todavía una tentativa pero, aun en esta etapa preliminar, parece haber una afinidad
entre su teoría del orden implícito y la teoría de la matriz S formulada por Chew. Ambos enfoques se
basan en un concepto del mundo como red de relaciones dinámicas; ambos atribuyen un papel primordial
a la noción de orden; ambos usan matrices para representar el cambio y la transformación, y la
topología para clasificar las categorías del orden. Por último, ambas teorías reconocen la posibilidad de
que la conciencia sea un aspecto esencial del universo que habría que incluir en una teoría futura sobre los
fenómenos físicos. Esta teoría muy bien podría surgir de la fusión de las teorías de Chew y Bohm, que
representan dos de los enfoques más imaginativos y filosóficamente más profundos que tenemos sobre la
realidad física.
En la presentación de la física moderna que he realizado en este capítulo han influido mis creencias
personales y mis lealtades. He subrayado ciertos conceptos y teorías que aún no han sido aceptados por la
mayoría de los físicos pero que, a mi juicio, tienen una significación filosófica de gran importancia para
todas las ciencias y para toda nuestra cultura. A pesar de ello creo que todos los físicos contemporáneos
aceptarán el tema central de esta presentación: el hecho de que la física moderna ha trascendido la visión
mecanicista cartesiana del mundo y que ello nos está llevando a un concepto holístico intrínsicamente
dinámico del universo.
La visión del mundo de la física moderna es una visión de sistemas y concuerda con los enfoques de
sistemas que hoy se comienzan a perfilar en otros campos, aunque los fenómenos estudiados por estas
disciplinas suelen ser de otra naturaleza y requerir conceptos diferentes. Al trascender la metáfora del
mundo/máquina, nos hemos visto obligados a abandonar la idea de la física como base de toda la ciencia.
Según el enfoque bootstrap, o visión de sistemas, es posible utilizar conceptos diferentes pero
consecuentes entre sí para describir distintos aspectos y niveles de la realidad, sin que por ello sea ne
cesario reducir los fenómenos de un nivel a los de otro.
Antes de comenzar a describir la estructura conceptual de un enfoque multidisciplinario y holístico de
la realidad, podría resultar útil ver como las demás ciencias han adoptado la visión cartesiana del mundo y
como han conformado sus conceptos y teorías a los modelos de la física clásica. También cabria exponer
las limitaciones del paradigma cartesiano en las ciencias naturales y sociales a fin de ayudar a los
científicos y a los no científicos a modificar sus filosofías básicas y participar en la transformación cultural
actual.

También podría gustarte