Untitled
Untitled
David Harriman
Con una introducción de Leonard Peikoff
NUEVA BIBLIOTECA AMERICANA
Publicado por New American Library, una división de
Penguin Group (EE. UU.) Inc., 375 Hudson Street,
Nueva York, Nueva York 10014, EE. UU.
Penguin Group (Canadá), 90 Eglinton Avenue East, Suite 700, Toronto, Ontario M4P 2Y3, Canadá (una división
de Pearson Penguin Canada Inc.)
Penguin Books Ltd., 80 Strand, Londres WC2R 0RL, Inglaterra
Penguin Ireland, 25 St. Stephen's Green, Dublín 2, Irlanda (una división de Penguin Books Ltd.)
Penguin Group (Australia), 250 Camberwell Road, Camberwell, Victoria 3124, Australia (una división de
Pearson Australia Group [Link].)
Penguin Books India Pvt. Ltd., 11 Community Center, Panchsheel Park, Nueva Delhi - 110 017, India
Penguin Group (NZ), 67 Apollo Drive, Rosedale, North Shore 0632, Nueva Zelanda (una división de Pearson
New Zealand Ltd.)
Penguin Books (Sudáfrica) (Pty.) Ltd., 24 Sturdee Avenue, Rosebank, Johannesburgo 2196, Sudáfrica
Harriman, David.
El salto lógico: inducción en física / David Harriman; con una introducción de Leonard Peikoff.
pag. cm.
Incluye índice.
ISBN: 978-1-101-65997-7
1. Inducción (Lógica) 2. Razonamiento. 3. Ciencia — Filosofía. I. Título.
BC57.H36 2010
161 — dc22 2010009813
Diseñado por Ginger Legato
Sin limitar los derechos de autor reservados anteriormente, ninguna parte de esta publicación puede ser
reproducida, almacenada o introducida en un sistema de recuperación, o transmitida, en cualquier forma o por
cualquier medio (electrónico, mecánico, fotocopiado, grabación u otro). , sin el permiso previo por escrito tanto
del propietario de los derechos de autor como del editor anterior de este libro.
Introducción
Prefacio
1. La Fundación
La naturaleza de los conceptos
Generalizaciones como jerárquicas
Percepción de las conexiones causales de primer nivel
Conceptualizando las conexiones causales de primer nivel
La estructura del razonamiento inductivo
2. Método experimental
Cinemática de Galileo
Óptica de Newton
Los métodos de diferencia y acuerdo
La inducción como inherente a la conceptualización
3. El universo matemático
El nacimiento de la física celestial
Matemáticas y causalidad
El poder de las matemáticas
Prueba de la teoría de Kepler
4. Integración de Newton
El desarrollo de la dinámica
El descubrimiento de la gravitación universal
El descubrimiento es una prueba
5. La teoría atómica
Elementos químicos y átomos
La teoría cinética de los gases
La unificación de la química
El método de la prueba
Referencias
Índice
INTRODUCCIÓN
L a física es la más universal de las ciencias naturales. Nos enseña las leyes básicas del
mundo material en su conjunto y sirve como paradigma del pensamiento racional.
La explosión del conocimiento en física durante el siglo XVII tuvo una profunda
influencia en la visión de los hombres del mundo y de su propia naturaleza. La mayoría
de la gente no adquiere tales puntos de vista leyendo libros de filosofía, sino más bien
viendo y tratando con los productos del hombre en acción, por ejemplo, novelas,
escuelas, gobiernos y los logros del descubrimiento científico.
En su batalla por establecer la teoría heliocéntrica, los nuevos científicos
proporcionaron una lección filosófica que cambió el curso de la historia. Rompieron el
dominio absoluto del dogma religioso, al menos por un tiempo, y demostraron que el
hombre puede conocer el mundo, si usa el método de observación, medición y lógica. Se
rebelaron contra la opinión de que los astrónomos deberían buscar "salvar las
apariencias", es decir, inventar un esquema infundado para predecir los datos, y en
cambio persiguieron el ambicioso objetivo de comprender el universo. La revolución se
completó cuando Isaac Newton presentó un universo completamente inteligible, abierto
a la mente humana y regido por la ley causal. Ningún tratado filosófico podría haber
hecho más que los Principia para enseñar filosofía al hombre y socavar el misticismo y
el escepticismo. El hombre moderno había alcanzado la mayoría de edad como ser
racional.
El mensaje se extendió por todo Occidente y condujo a la Ilustración. Los
innovadores comenzaron a rehacer el mundo a la nueva imagen del hombre: secular,
pensante, autosuficiente y ansioso por disfrutar la vida. Los resultados aparecieron en
todos los campos (no menos importante en el movimiento de la monarquía a la
Declaración de Independencia). No pasó mucho tiempo hasta que la física de Newton
condujo a la Revolución Industrial, y otro hito de eso: el hombre pudo descartar la
antigua dicotomía entre teoría y práctica y finalmente comprender que la razón es su
medio básico de supervivencia.
La influencia de la física en la cultura es bidireccional. Cuando, gracias a Kant, la
ciencia más avanzada se aparta del método adecuado, por ejemplo, cuando los físicos
renuncian a la causalidad en el ámbito subatómico y vuelven al trabajo servil de "salvar
las apariencias", o cuando separan por completo la teoría de la realidad y deambulan
una geometría de once dimensiones del espacio-tiempo: las consecuencias culturales
son devastadoras. La gente se entera de estos puntos de vista y concluye: si esto es
racional, ¿quién lo necesita? Debe haber algo mejor. Luego vemos que la sinrazón se
vuelve omnipresente, desde el surgimiento de la religión fundamentalista y la
pseudociencia hasta el surgimiento del multiculturalismo y el nihilismo.
La filosofía de la ciencia, que debería haber combatido esta tendencia, ha descendido
a un punto tan bajo que hubiera sido inconcebible hace aproximadamente un siglo. El
campo ha sido secuestrado por el movimiento de la "sociología del conocimiento", que
afirma que las teorías científicas son "construcciones sociales" basadas en la presión de
los compañeros.
Este libro es un antídoto para todos esos apóstoles de la irracionalidad. David
Harriman desvela la lógica de la física, identificando el método por el cual los científicos
descubren las leyes de la naturaleza. El libro comienza con una discusión sobre cómo
llegamos a nuestras primeras generalizaciones inductivas, que son la base del
conocimiento científico, y luego responde a las preguntas clave: ¿Cuál es la naturaleza
del método experimental? ¿Cómo depende la interpretación adecuada de un
experimento del contexto de conocimiento del científico? ¿Por qué las matemáticas son
el lenguaje de la física? ¿Cómo se relaciona el papel de las matemáticas con la naturaleza
de los conceptos? Y, poniéndolo todo junto: ¿Cuáles son los criterios objetivos de prueba
para una teoría científica? Todos estos temas se estudian en relación con los
descubrimientos de la mecánica newtoniana y / o la teoría atómica de la materia; los
resultados metodológicos se formulan luego como principios generales. Al inducir así
los principios del método de la historia de la ciencia, su libro es un tour de force,
demostrando que la epistemología es en sí misma una ciencia inductiva.
Una teoría de generalizaciones presupone una teoría de conceptos. Uno debe captar
cómo los conceptos constitutivos de una generalización se relacionan con la realidad
antes de poder captar cómo la generalización misma se relaciona con la realidad. La
teoría desarrollada aquí se basa en la teoría de conceptos de Ayn Rand, presentada en
Introducción a la epistemología objetivista. Ayn Rand consideró la cuestión de cómo
probamos las generalizaciones inductivas como el único problema fundamental aún sin
resolver en filosofía.
Aunque no proporcionó la solución, sí proporcionó la clave. Harriman muestra que
los conceptos válidos, en su definición de “conceptos”, no solo hacen posible, sino que
también guían nuestra búsqueda de verdaderas generalizaciones. Un punto similar se
sostiene en un nivel superior de abstracción: una teoría de conceptos no solo hace
posible sino que también guía nuestra búsqueda de una teoría de generalizaciones. Cada
aspecto importante de la visión objetivista de los conceptos, incluido el papel de las
similitudes y diferencias, de la integración, de la jerarquía, del contexto, tiene una
contraparte en la teoría de las generalizaciones. De hecho, la generalización, explica
Harriman, "no es más (o menos) que una forma esencial del método de formación de
conceptos".
Este libro representa la primera gran aplicación de la epistemología de Ayn Rand a
un campo distinto al de la filosofía. Dentro de este campo, responde a la pregunta que
ella consideraba más crucial. Y de ese modo reprime (y condena) el torrente de
escepticismo desatado por David Hume y compañía.
Dado que este libro es un modelo de pensamiento inductivo, muestra al lector, en
lugar de decirle, qué es la inducción en términos esenciales y en qué se basa. Tal
asignación requiere que el Sr. Harriman se mueva continuamente de abstracciones
estrechas a amplias y viceversa, una hazaña que realiza de manera brillante. No se omite
nada esencial para una conclusión objetiva y no se incluyen detalles innecesarios. Al
final, la naturaleza del método inductivo adecuado no solo es clara, sino también
luminosa.
La ciencia es un desarrollo muy reciente. Las increíbles maravillas que puede
otorgar al hombre ahora se han vuelto creíbles. Digo "ahora mismo" porque si
comprimimos la historia humana en un día, el hombre se convirtió en científico sólo en
los últimos veinte minutos.
¿Seguirá siendo científico mañana? Quizás, con la ayuda de este libro.
—Leonard Peikoff
PREFACIO
—David Harriman
1.
La Fundación
H an pasado más de tres siglos desde que la revolución científica culminó con el
destacado logro de Isaac Newton. Durante ese tiempo, la vida humana ha sido
transformada por la ciencia y la tecnología que surge de ella.
Sin embargo, nos encontramos en una posición peculiar e inestable. A medida que
avanzó nuestro conocimiento del mundo físico, nuestra comprensión del conocimiento
en sí se quedó atrás. Fui testigo de esta brecha entre la física y la epistemología durante
mis años universitarios en la Universidad de California, Berkeley. En mi curso de
laboratorio de física, aprendí cómo determinar la estructura atómica de los cristales
mediante difracción de rayos X y cómo identificar partículas subatómicas mediante el
análisis de fotografías de cámaras de burbujas. En mi curso de filosofía de la ciencia, por
otro lado, un profesor de renombre mundial (Paul Feyerabend) me enseñó que no
existe el método científico y que los físicos no tienen mejor derecho al conocimiento que
los sacerdotes vudú.1 Sabía poco sobre epistemología en ese momento, pero no pude
evitar notar que fueron los físicos, no los sacerdotes vudú, quienes hicieron posible la
tecnología promotora de vida que disfrutamos hoy.
Los triunfos de la ciencia se erigen como un monumento al poder de la razón y son
una clara refutación del escepticismo que es una epidemia en la filosofía de la ciencia
contemporánea. Entonces, ¿por qué persiste esta situación en las universidades de todo
el mundo? ¿Cómo llegamos a esta extraña contradicción, con científicos desarrollando
tecnología que explota nuestro conocimiento detallado de la estructura atómica,
mientras los filósofos se lamentan o se deleitan con la supuesta impotencia de la razón
para captar incluso hechos relativamente simples?
E. Bright Wilson, quien era profesor de química en Harvard, una vez planteó el
problema de esta manera:
Es probable que los científicos prácticos que se permiten temerariamente escuchar a los
filósofos se vayan desanimados, convencidos de que no existe un fundamento lógico
para las cosas que hacen, de que todas sus supuestas leyes científicas no tienen
justificación y de que están viviendo. en un mundo de ingenua ilusión. Por supuesto, una
vez que vuelven a salir a la luz del sol, saben que esto no es así, que los principios
científicos funcionan, los puentes se mantienen, los eclipses ocurren según lo
programado y las bombas atómicas estallan.
Sin embargo, es muy insatisfactorio que todavía no se haya presentado una teoría de
la inferencia científica generalmente aceptable…. A menudo se cometen errores que
presumiblemente no se habrían cometido si se hubiera seguido una filosofía básica
coherente y satisfactoria.2
El problema central aquí es el fracaso de los filósofos en ofrecer una solución a lo
que se ha llamado "el problema de la inducción". La inducción es el proceso de inferir
generalizaciones a partir de instancias particulares. El proceso complementario de
aplicar generalizaciones a nuevas instancias es la deducción. La teoría del razonamiento
deductivo fue desarrollada por Aristóteles hace más de dos milenios. Este logro crucial
fue un comienzo para comprender y validar el conocimiento, pero fue solo el comienzo.
La deducción presupone la inducción; no se puede aplicar lo que no se conoce o no se
puede concebir. El proceso principal de adquirir conocimiento que va más allá de los
datos perceptivos es la inducción. La generalización, la inferencia de algunos miembros
de una clase a todos, es la esencia de la cognición humana.
Cuando razonamos desde “Los hombres en mi experiencia son mortales” hasta
“Todos los hombres son mortales”; o de “Estos fuegos me queman cuando los toco” a “El
fuego por su naturaleza arde”; o de “Esta manzana y la luna obedecen la ley de la
gravedad” a “Todo objeto físico en el universo obedece a la ley”, en todos estos casos
estamos pasando de un reino a otro: de lo observado a lo no observado; del
comportamiento pasado de la naturaleza a su comportamiento futuro; desde lo que
descubrimos en un estrecho rincón de un vasto cosmos hasta lo que es verdad en todas
partes de ese cosmos. Este pasaje es la línea divisoria epistemológica entre el hombre y
los animales.
Los animales son organismos a nivel de percepción. Aprenden de la experiencia,
pero solo mediante una asociación perceptiva muy delimitada. No pueden imaginar lo
que no se observa, el futuro o el mundo más allá de tales asociaciones. Conocen, tratan y
reaccionan a los concretos, y solo a los concretos. Pero este no es un nivel en el que el
hombre pueda vivir y prosperar. Para actuar con éxito en el presente, un ser humano
debe establecer metas a largo plazo y un curso de acción a largo plazo; para hacerlo,
debe conocer el futuro, tal vez con meses de anticipación, a menudo años, a veces
décadas.
Una generalización es una proposición que atribuye una característica a cada
miembro de una clase ilimitada, independientemente de cómo se posicione en el
espacio o en el tiempo. En términos formales, dice: Todo S es P. Este tipo de afirmación,
sobre cualquier tema, va más allá de toda observación posible.
Pero el hombre no es omnisciente ni infalible. Por tanto, sus generalizaciones no son
automáticamente correctas. De ahí las preguntas: ¿Cómo puede el hombre conocer, en
toda la escala de espacio y tiempo, hechos que no percibe ni podrá nunca percibir?
¿Cuándo y por qué es legítima la inferencia de “algunos” a “todos”? ¿Cuál es el método
de inducción válido que puede probar la generalización a la que conduce? En resumen,
¿cómo puede el hombre determinar qué generalizaciones son verdaderas
(corresponden a la realidad) y cuáles son falsas (contradicen la realidad)?
La respuesta es crucial. Si un hombre acepta una verdadera generalización, sus
contenidos mentales (en esa medida) son coherentes entre sí, y su acción, en igualdad
de condiciones, tendrá éxito. Pero si un hombre acepta una falsa generalización,
introduce en su mente una contradicción con su conocimiento auténtico y un choque
con la realidad, conduciendo inevitablemente a la frustración y al fracaso en sus
acciones. Por lo tanto, el "problema de la inducción" no es simplemente un
rompecabezas para los académicos, es el problema de la supervivencia humana.
El problema es identificar el método de inducción, no buscar su "justificación". No se
puede pedir una justificación de la inducción más que una justificación de la deducción.
Inducir y deducir son los medios del hombre para justificar cualquier cosa. Su validez
como procesos cognitivos, por tanto, es un hecho indiscutible. Aristóteles no preguntó:
¿Es legítima la deducción? sino más bien: ¿cómo se debe realizar para llegar a
conclusiones válidas? Del mismo modo, nuestra pregunta con respecto a la inducción no
es: ¿es legítima? sino más bien: dada la validez de la inducción, ¿cómo se debe realizar
para llegar al conocimiento de los hechos?
Al considerar esta pregunta, uno debe comenzar con la observación y enfocarse en
los pasos del método apropiado para llegar a generalizaciones. No se puede empezar
con generalizaciones ya existentes y luego, ignorando su génesis, intentar evaluarlas.
Esta última, sin embargo, ha sido la práctica común entre los filósofos. Son indiferentes,
dicen, a las cuestiones de génesis (que descartan como psicología más que como
epistemología) y sólo se preocupan por cuestiones de validación. Pero esto eleva la
falacia de convertir el contexto en una política formal. Es inútil reflexionar sobre la
validez de una generalización a menos que sepamos cómo llegamos a ella, por qué
pasos, de acuerdo con qué método, y si el método utilizado es válido. Nada más puede
permitirnos saber si el producto de ese método corresponde o no a la realidad.
Una opinión generalizada pero falsa es que la inducción se basa simplemente en la
enumeración. De acuerdo con este enfoque superficial, el método del inductor es
simplemente recopilar ejemplos de una generalización; cuanto mayor sea el número de
instancias, mayor será la probabilidad de la generalización (los proponentes de este
punto de vista niegan que podamos llegar a la certeza).
El ejemplo clásico de este enfoque, todavía discutido por los filósofos, es el caso de
los cisnes. Un filósofo observa una gran cantidad de cisnes blancos; en algún momento
aventura (como muy probable) la afirmación “Todos los cisnes son blancos”, tras lo cual
aparece uno negro y su generalización se desvanece. ¿A dónde vamos desde aquí? luego
gime.
La enumeración no es el método de inducción y no proporciona ninguna base para
inferir de "algunos" a "todos", ni siquiera con un cierto grado de probabilidad. Por eso
han fracasado todos los intentos de fundamentar el razonamiento inductivo en
estadísticas. Una generalización obtenida meramente por enumeración es
necesariamente arbitraria y, por lo tanto, debe descartarse sin discusión del campo de la
consideración racional. Como veremos, existen inducciones válidas basadas en un solo
caso; y hay generalizaciones con millones de casos, que aún son completamente
ilegítimos (por ejemplo, "Todos los hombres buscan el placer"). ¿Por qué tanta
diferencia? Los enumeradores simples no tienen respuesta.
Para comprender cómo se alcanzan las generalizaciones inductivas en las ciencias
físicas, examinaremos de cerca el razonamiento de científicos como Galileo, Kepler,
Newton, Lavoisier y Maxwell. Los seguiremos mientras realizan experimentos, buscan
relaciones matemáticas y prueban sus teorías más abstractas. El propósito es
identificar, en detalle, los pasos y la esencia del método que han utilizado de manera tan
brillante.
Una teoría de la inducción presupone respuestas a las cuestiones fundamentales de
la metafísica y la epistemología. Por ejemplo, doy por sentado la ley de causalidad (que
establece que la acción de una entidad se deriva de su naturaleza) y la validez de la
percepción sensorial. En gran parte, los filósofos han fracasado en el tema de la
inducción porque se han confundido sobre estos temas previos. El fundamento
filosófico de la teoría aquí presentada se puede encontrar enCapítulos 1 a 5 del libro de
Leonard Peikoff Objectivism: The Philosophy of Ayn Rand.
Método experimental
L a revolución científica del siglo XVII fue posible gracias a los logros de la antigua
Grecia. Los griegos fueron los primeros en buscar explicaciones naturales (en oposición
a sobrenaturales) y teorías integrales del mundo físico, y desarrollaron tanto la lógica
deductiva como las matemáticas avanzadas. Sin embargo, su progreso en la ciencia
física se vio obstaculizado por la opinión generalizada de que los conocimientos
superiores se reciben pasivamente en lugar de adquirirse activamente. Para muchos
pensadores griegos, la perfección se encontraba en el reino del "ser", un reino eterno e
inmutable de verdades universales que puede ser captado por la mente contemplativa
del filósofo. Por el contrario, el mundo físico de la actividad se consideraba a menudo
como un reino de "devenir", un reino que cambia incesantemente y que nadie puede
comprender por completo. El científico moderno se ve a sí mismo como un investigador
activo, pero tal actitud era rara entre los griegos. Esta diferencia básica en la forma de
pensar, contemplación versus investigación, es una de las grandes divisiones entre las
mentes antiguas y modernas.
La ciencia moderna comenzó con el desarrollo completo de su propio método de
investigación distintivo: la experimentación. La “experimentación” es el método de
establecer relaciones causales mediante el control de variables. El experimentador no se
limita a observar la naturaleza; lo manipula manteniendo algunos factores constantes
mientras varía otros y mide los resultados. Sabe que el árbol del conocimiento no dejará
caer simplemente su fruto en su mente abierta; la fruta debe cultivarse y recogerse, a
menudo con la ayuda de instrumentos diseñados para tal fin.
Precisamente lo que faltaban los griegos se puede ver examinando su enfoque más
cercano a la ciencia experimental moderna, que está bien ilustrado por la investigación
de la refracción de Claudio Ptolomeo. Ptolomeo realizó un estudio sistemático en el que
midió la desviación angular de la luz en las interfaces aire / agua, aire / vidrio y agua /
vidrio. Este experimento, cuando finalmente se repitió en el siglo XVII, llevó a
Willebrord Snell a la ley del seno de la refracción. Pero Ptolomeo no descubrió la ley, a
pesar de que hizo el experimento correcto y poseía tanto el conocimiento matemático
necesario como los medios para recopilar datos suficientemente precisos.
El fracaso de Ptolomeo se debió principalmente a su visión de la relación entre
experimento y teoría. No consideraba que el experimento fuera el medio de llegar a la
teoría correcta; más bien, la teoría ideal se da de antemano por intuición, y luego el
experimento muestra las desviaciones del mundo físico observado del ideal. Este es
precisamente el enfoque platónico que había adoptado en astronomía. El círculo es la
figura geométrica que posee una simetría perfecta, por lo que Ptolomeo y los primeros
astrónomos griegos comenzaron con la intuición de que los cuerpos celestes orbitan en
círculos a una velocidad uniforme. Luego, las observaciones determinaron las
desviaciones del ideal, que Ptolomeo modeló utilizando inventos matemáticos no
relacionados con los principios físicos (deferentes, epiciclos y ecuantes). Del mismo
modo, en óptica, Comenzó con un argumento a priori de que la proporción de ángulos
incidentes y refractados debería ser constante para un tipo particular de interfaz.
Cuando las mediciones indicaban lo contrario, utilizó una progresión aritmética para
modelar las desviaciones de la razón constante ideal. 1
Platón había denigrado la percepción sensorial y el mundo físico, exhortando a sus
seguidores a dirigir su atención hacia adentro para descubrir así el conocimiento de las
ideas perfectas que tienen su origen en una dimensión no física. Desafortunadamente,
explicó Platón, estas ideas perfectas solo corresponderán aproximadamente al mundo
físico imperfecto y en constante cambio que observamos.
La ciencia de Ptolomeo era superficialmente antiplatónica en el sentido de que
enfatizaba el papel de la observación cuidadosa. Sin embargo, a un nivel más profundo,
su ciencia fue una aplicación lógica del platonismo; en astronomía y en óptica, comenzó
con el modelo “perfecto” y luego simplemente describió sin explicación las desviaciones
inherentemente ininteligibles del mismo. Así, Ptolomeo consideraba el experimento no
como un método de descubrimiento, sino como la esclava de la intuición; lo usó para
completar detalles sobre un mundo físico que se niega a comportarse en perfecta
conformidad con nuestras ideas predeterminadas. Este enfoque es una receta para el
estancamiento: la teoría se impone en lugar de derivarse de los datos sensoriales, las
matemáticas se separan de los principios físicos y, sin una comprensión de las causas, el
científico se queda sin más preguntas que hacer.
El nacimiento de la ciencia moderna requería un punto de vista opuesto: el
experimento debía considerarse como el método esencial para captar las conexiones
causales. El poder único de este método se revela al examinar cómo lo utilizaron los
genios que crearon la era científica.
Cinemática de Galileo
Cuenta la leyenda que la física moderna comenzó en una iglesia.
Un domingo de 1583, Galileo, de diecinueve años, dejó que su atención se apartara
del sermón y se concentrara en una lámpara colgante de catedral que se balanceaba con
la corriente de aire. Mientras observaba, notó con sorpresa que los cambios a través de
pequeños arcos parecían tomar el mismo tiempo que los cambios a través de arcos más
grandes. Usando su pulso como un reloj, cronometró las oscilaciones y confirmó que el
período parecía independiente del tamaño del arco.
En este punto, Galileo había hecho una observación interesante y una medición
burda. Pero no había probado nada. Para demostrar la independencia de la amplitud, y
luego ir más allá para descubrir una ley que relaciona las propiedades de un péndulo
con su movimiento, tuvo que diseñar y realizar una serie de experimentos.
Comenzó construyendo dos péndulos similares, ambos de la misma longitud y con
los mismos pesos de bobinas de plomo. Sacó ambos péndulos de la vertical en
diferentes ángulos (por ejemplo, treinta grados para uno y quince grados para el otro) y
los soltó al mismo tiempo. Galileo luego observó que los dos péndulos oscilaban hacia
adelante y hacia atrás casi al unísono perfecto a pesar de sus diferentes amplitudes, y
notó que continuaban haciéndolo mientras contaba más de diez oscilaciones. Con todos
los demás factores relevantes mantenidos constantes, duplicar la amplitud no tuvo un
efecto perceptible en el período.
Los siguientes pasos de la investigación de Galileo fueron guiados por sus
pensamientos sobre la causa de este sorprendente resultado. Se dio cuenta de que el
péndulo gana velocidad solo porque está cayendo hacia la Tierra, es decir, solo debido a
la componente descendente de su movimiento, y esta componente obviamente aumenta
a medida que aumenta la amplitud de la oscilación. Por lo tanto, cuando la sacudida
recorre una distancia mayor, lo hace a una velocidad mayor; los dos factores deben
compensar para mantener el período constante.
Pero, ¿esta compensación es exacta para todas las amplitudes? Galileo abordó la
cuestión de dos formas: experimental y matemáticamente. Primero, repitió el
experimento anterior usando una amplitud de casi noventa grados para un péndulo y
solo diez grados para el otro. En este caso extremo, midió que el período de las grandes
oscilaciones era aproximadamente un 10 por ciento mayor que el período de las
pequeñas oscilaciones. A pesar de la discrepancia, este resultado no lo disuadió de la
"ley de la independencia de la amplitud". Pensó que era probable que el aumento
relativamente pequeño en el período sea causado por el cambio más grande y más
rápido que encuentra una mayor resistencia del aire, y deliberadamente se estaba
abstrayendo de los efectos de tales "impedimentos".
A Galileo le resultó imposible determinar directamente mediante experimentos los
efectos de la resistencia del aire; una bomba de vacío le habría permitido eliminar el
aire, pero pasó otro medio siglo antes de que se inventara el instrumento. Entonces, en
cambio, recurrió a las matemáticas en busca de una prueba de la independencia de
amplitud. Partiendo de la idea de que la velocidad de la sacudida del péndulo es
proporcional al seno de la amplitud, porque este factor aísla la componente
descendente eficaz del movimiento, intentó demostrar que no importa dónde se suelte
una sacudida a lo largo del arco circular, ésta alcanza el parte inferior al mismo tiempo.
Aquí Galileo encontró otro obstáculo: en general, los conceptos y métodos
matemáticos de su época eran inadecuados para lidiar con un cuerpo en movimiento
que cambia continuamente de dirección. Así que simplificó el problema reemplazando
el arco circular por una cuerda del círculo que terminaba en la parte inferior. Ahora
tenía un problema que podía resolver y, a partir de una hipótesis que relacionaba la
velocidad con el ángulo de inclinación, dedujo que el movimiento sin fricción por todas
esas cuerdas toma la misma cantidad de tiempo (verFigura 1).2El resultado fue
tentadoramente cercano a lo que él quería, pero irreconciliablemente diferente: el
movimiento hacia abajo en la cuerda no es lo mismo que el movimiento hacia abajo en el
arco circular. Pero Galileo no pudo avanzar más con el análisis. Al final, decidió
presentar como válida la ley de la independencia de la amplitud mientras expresaba en
privado su descontento por la falta de una prueba. 3
Después de eliminar la amplitud como factor relevante, pasó a considerar las
propiedades que podrían afectar la velocidad a la que oscila el péndulo. Preguntó: ¿El
material o el peso del bob afecta el período? La pregunta fue respondida fácilmente
mediante un experimento. Comenzando con sus dos péndulos idénticos, reemplazó la
bobina de plomo de uno por una de corcho. Luego apartó los mechones veinte grados o
más y los soltó al mismo tiempo. La amplitud del péndulo del corcho disminuyó más
rápidamente y atribuyó correctamente esta diferencia a la resistencia del aire. Dados los
resultados de sus experimentos anteriores, podría ignorar la diferencia de amplitud
porque tiene un efecto insignificante en el período. La observación crucial fue que las
bobinas de plomo y corcho continuaron moviéndose hacia adelante y hacia atrás casi al
unísono.
Figura 1. Deslizarse sin fricción por cualquier cuerda que termine en la parte inferior
del círculo toma el mismo tiempo.
Dado que las oscilaciones del péndulo en el experimento anterior oscilaron con el
mismo período, la misma causa debe haber estado operativa. Parece que la única
propiedad relevante que tienen en común los dos péndulos es la longitud y, por lo tanto,
la longitud debe ser el factor causal que determina el período. Una pequeña reflexión
muestra que esta idea se integra con una gran cantidad de observaciones comunes; por
ejemplo, el columpio de un niño que cuelga de una rama alta de un árbol toma más
tiempo para ir y venir que uno más corto que cuelga de una rama más baja, y una
enredadera larga se balancea más lentamente con la brisa que una corta. Pero,
precisamente, ¿cómo afecta la duración al período? Galileo descubrió la respuesta
realizando una serie de experimentos en los que varió la longitud de un péndulo en un
rango de aproximadamente dos a treinta pies. Midió el período comparándolo con el de
otro péndulo de longitud constante o usando un reloj de agua (un dispositivo que mide
el tiempo marcando el flujo regulado de agua a través de una pequeña abertura). Sus
datos establecieron una relación matemática exacta entre longitud y período, que
inmediatamente generalizó a una ley que se aplica a todos los péndulos en cualquier
lugar de la Tierra en cualquier época: la longitud es proporcional al cuadrado del
período.
Es instructivo observar los experimentos que Galileo no realizó. No vio la necesidad
de variar todas las propiedades conocidas del péndulo y buscar un posible efecto en el
período. Por ejemplo, no varió sistemáticamente el color, la temperatura o el olor del
péndulo; no investigó si había alguna diferencia si el brazo del péndulo estaba hecho de
hilo de algodón o de hilo de seda. Basado en observaciones cotidianas, tenía un vasto
contexto precientífico de conocimiento que era suficiente para eliminar factores como
irrelevantes. Llamar a ese conocimiento "precientífico" no es poner en duda su
objetividad; Estas generalizaciones de nivel inferior se adquieren mediante el uso
implícito de los mismos métodos que el científico utiliza deliberada y sistemáticamente,
y son igualmente válidos. Dado tal contexto,
Al llegar a esta conclusión, pasó por alto un factor relevante: la ubicación del
péndulo. Sabía que un péndulo oscila porque la bobina cae hacia la Tierra. También
sabía que la luna no cae a la Tierra, lo que podría haberle sugerido que la gravedad de la
Tierra debe disminuir al aumentar la distancia. Entonces, ¿por qué no llevar un péndulo
a la cima de una montaña alta y ver si se balancea más lentamente?
En la era de Newton, se producirían consecuencias trascendentales cuando los
científicos usaran péndulos para descubrir tales variaciones gravitacionales. Pero esta
posibilidad nunca se le ocurrió a Galileo porque carecía del concepto de "gravedad" de
Newton. Galileo todavía pensaba en términos del concepto más simple de "pesadez",
que simplemente se refería a la propiedad de los objetos terrestres que los hace
presionar hacia abajo y caer a la Tierra. Carecía de la idea de una interacción invisible
entre el objeto y la Tierra. Dada esta idea moderna de fuerza, es razonable pensar que la
interacción se debilita al aumentar la distancia entre los cuerpos. Sin embargo, si se
piensa sólo en una "tendencia natural" del objeto pesado, el factor de la distancia al
centro de la Tierra no puede entenderse como relevante. La idea más avanzada de
"gravedad" era necesaria antes de que los científicos pudieran descubrir que el período
de un péndulo varía ligeramente con la ubicación, y luego ir más allá para descubrir
todo lo que esto implica. Aquí vemos cómo la falta de un concepto crucial puede detener
el progreso y cómo la formación del concepto puede allanar el camino hacia un mayor
conocimiento.
El péndulo proporcionó a Galileo una excelente introducción al estudio experimental
del movimiento; las mediciones fueron relativamente fáciles porque el bob se mantuvo
en un área mientras repetía lentamente su movimiento durante mucho tiempo. Sin
embargo, como descubrió Galileo, el análisis del movimiento se complicó por el hecho
de que la sacudida cambiaba continuamente de dirección. Por el contrario, el caso más
simple de un cuerpo que muestra su tendencia natural a moverse hacia la Tierra es el
del cuerpo cayendo hacia abajo.
Al principio de su carrera, cuando era profesor de matemáticas en la Universidad de
Pisa, comenzó su investigación sobre la caída libre abordando una vieja pregunta que
todavía era un punto clave de confusión: ¿Cómo afecta el peso de un cuerpo a la
velocidad a la que se mueve? ¿caídas? Galileo demostró la respuesta con su
característico estilo dramático. Subió a lo alto de la famosa Torre Inclinada y, desde una
altura de más de cincuenta metros, dejó caer dos bolas de plomo que diferían mucho en
tamaño y peso. Los estudiantes y profesores reunidos a continuación vieron que ambos
objetos caían al suelo casi al mismo tiempo. Contrariamente a la suposición común, la
velocidad a la que cae un cuerpo es independiente de su peso.
Entonces Galileo hizo la siguiente pregunta lógica: ¿Depende la velocidad de caída
del material del cuerpo? Repitió el experimento usando una bola de plomo y otra de
roble. Una vez más, cuando se dejan caer simultáneamente desde una gran altura,
ambos caen al suelo casi al mismo tiempo. Así, Galileo llegó a una generalización muy
amplia: todos los cuerpos libres, independientemente de las diferencias de peso y
material, caen a la Tierra al mismo ritmo.
En la superficie, parece demasiado fácil. Parece que Galileo llegó a esta verdad
fundamental de la física —una que había eludido a las mentes más grandes de la antigua
Grecia— simplemente haciendo algunos experimentos que cualquier niño podría
realizar. Pero una mirada más cercana revela que el razonamiento de Galileo no era tan
simple; dependía de su uso pionero de un concepto válido y de su rechazo de ciertos
conceptos inválidos ampliamente aceptados.
Primero, observe que los objetos que dejó caer no fueron seleccionados al azar. Si
Galileo hubiera arrojado un fardo de heno y un sombrero de paja desde lo alto de la
Torre Inclinada, el evento no habría sido un hito en la historia de la física. Sin embargo,
estos objetos están hechos de un material similar y tienen pesos muy diferentes, al igual
que las dos bolas de plomo que realmente usó. O considere el segundo experimento de
Galileo: Imagine que intenta dejar caer el plomo y las bolas de roble en el agua en lugar
de en el aire, quizás pensando que sería más fácil investigar un movimiento más lento.
Una vez más, el resultado no habría conducido a ningún descubrimiento importante.
Por el contrario, tales experimentos se malinterpretan fácilmente como evidencia de
que el peso es siempre un factor esencial para determinar la tasa de caída.
Galileo eligió las condiciones de sus experimentos con un criterio crucial en mente:
quería minimizar los efectos de la fricción. La "fricción" es la fuerza que resiste el
movimiento relativo de dos cuerpos en contacto. A veces se dice que Galileo ignoró esta
fuerza, porque las leyes que descubrió describen un movimiento sin fricción. Pero esto
es lo opuesto a la verdad. De hecho, pensó profundamente en la resistencia del aire y
otras formas de fricción, y distinguió cuidadosamente los casos en los que la fricción
juega un papel menor de los muchos casos en los que juega un papel esencial. Sin esta
distinción, es imposible llegar a ninguna ley de movimiento; con él, Galileo descubrió
con éxito la ley de la caída libre.
Enrico Fermi, otro gran físico italiano, rindió homenaje a este logro con el siguiente
comentario:
[Fue] la fricción misma lo que durante miles de años había mantenido oculta la
simplicidad y validez de las leyes del movimiento. En otras palabras, la fricción es un
elemento esencial en toda experiencia humana; nuestra intuición está dominada por la
fricción; los hombres pueden moverse debido a la fricción; debido a la fricción, pueden
agarrar objetos con las manos, pueden tejer telas, construir automóviles, casas, etc. Para
ver la esencia del movimiento más allá de las complicaciones de la fricción, de hecho se
requiere una gran comprensión.4
Un físico contemporáneo ve los efectos de la fricción en todas partes a su alrededor.
Eso es porque ha sido educado en las verdades descubiertas por Galileo y Newton.
Antes del siglo XVII, los filósofos naturales veían los movimientos que observaban desde
una perspectiva diferente, una perspectiva teñida por los errores contenidos en la
antigua física griega. Por ejemplo, cuando Leonardo da Vinci estudió los péndulos, no
comprendió que la amplitud disminuye gradualmente debido a la resistencia del aire.
En cambio, analizó el arco en una parte descendente "natural" y una parte ascendente
antinatural o "accidental". Luego invocó el dogma ampliamente aceptado de que el
movimiento accidental siempre será más corto que el natural para explicar la
amortiguación de los columpios. Nunca se le ocurrió abstraerse de este efecto, ya que lo
consideraba fundamental para la naturaleza del movimiento.
Así como conceptos válidos como "fricción" pueden impulsar la ciencia hacia
adelante, los conceptos inválidos pueden detenerla. El análisis erróneo de los péndulos
de Da Vinci se basaba en los conceptos griegos de movimiento "natural" y "violento",
que eran barreras formidables para el progreso de la física. En la raíz de esta distinción
estaba la idea falsa de que el movimiento requiere un motor, es decir, una fuerza. Las
rocas que caen, el humo se eleva y la luna girando en círculos se consideraban casos de
movimiento natural en los que el cuerpo es movido por una fuerza interna inherente a
su naturaleza. Las rocas lanzadas hacia arriba, el humo en sentido horizontal y los
pájaros volando se consideraron casos de movimientos violentos en los que el cuerpo se
mueve mediante empujones externos contra otros cuerpos. Se consideraba que los
movimientos naturales eran competencia del físico, ya que resultaban de la naturaleza
del cuerpo;
Como clavijas cuadradas en agujeros redondos, los hechos resistieron los intentos de
encajarlos en estas categorías inválidas. Considere el simple caso de un hombre que
lanza una piedra. ¿Por qué la piedra continúa moviéndose después de dejar la mano del
lanzador? Mientras vuela por el aire, ¿dónde está el motor? Dado que un movimiento
violento requiere una fuerza externa, los defensores de la teoría griega se vieron
obligados a dar una respuesta poco convincente: el lanzador supuestamente pasa su
fuerza motriz al aire, y luego las corrientes de aire empujan la roca para provocar su
movimiento continuo. Según este punto de vista, la función principal del aire no es
resistir esos movimientos violentos, sino provocarlos.
Durante la Edad Media, algunos pensadores comenzaron a rechazar la afirmación
inverosímil de que el aire empuja un proyectil en su camino. Al discutir el caso de un
saltador de longitud, el filósofo del siglo XIV Jean Buridan escribió: "La persona que
corre y salta de esta manera no siente que el aire lo mueve, sino que [más bien] siente
que el aire de enfrente le resiste fuertemente".5Pero nadie estaba dispuesto a renunciar
a la idea de que el movimiento requiere una fuerza. Entonces ellos "internalizaron" la
fuerza; afirmaron, por ejemplo, que el lanzador de una piedra transfiere su fuerza
motriz directamente a la piedra, dándole una propiedad llamada "ímpetu". A pesar de su
aceptación de una premisa falsa, estos filósofos lograron una ruptura parcial con los
errores del pasado. Abandonaron la distinción entre movimiento natural y violento; en
efecto, su punto de vista transformó los movimientos violentos en naturales al afirmar
que tales movimientos son causados por el ímpetu interno del cuerpo.
Los defensores medievales del "ímpetu" proporcionaron una respuesta al dilema
griego sobre qué hace que un proyectil se mueva, pero luego se enfrentaron a la
pregunta: ¿Por qué el proyectil se detiene o frena? ¿Qué pasa con su ímpetu? Una
respuesta fue afirmar que el ímpetu se disipa naturalmente con el tiempo. Pero esta
respuesta fue inadecuada; entre otros problemas, no dio ninguna pista de por qué la
velocidad de disipación depende del medio a través del cual viaja el cuerpo. Así que
Buridan sugirió que un cuerpo pierde ímpetu solo cuando trabaja para vencer la
resistencia. La idea de Buridan contenía un importante elemento de verdad en la
medida en que identificaba el papel de la fricción en el movimiento opuesto.
Pero fue Galileo quien dio el paso crucial al combinar esta apreciación de la fricción
con el método experimental. No se limitó a reconocer la existencia de fricciones; buscó
activamente controlarlo y minimizarlo. Esto es lo que le permitió abstraerse de los
efectos de la resistencia del aire y descubrir así que todos los cuerpos libres caen con el
mismo movimiento.
La siguiente pregunta razonable fue: ¿Cuál es la naturaleza de esta moción? En
particular, Galileo se preguntó cómo aumenta la velocidad de un cuerpo que cae con el
tiempo y la distancia. Por supuesto, no tenía forma de medir directamente la velocidad.
Sin embargo, se dio cuenta de que había una medida estrechamente relacionada que era
difícil pero no imposible: podía medir cómo varía la distancia caída con el tiempo
transcurrido.
Utilizando su reloj de agua, Galileo midió una caída de unos dos metros y otra desde
el doble de esa altura. Descubrió que duplicar la altura aumentaba el tiempo de caída en
menos del 50 por ciento. Este resultado sugirió que la distancia caída podría ser
proporcional al tiempo al cuadrado, al igual que la longitud de un péndulo es
proporcional a su período al cuadrado.
Entonces Galileo se dio cuenta de que podía usar el péndulo para comprobar esta
idea. Ideó un péndulo de longitud fácilmente ajustable en el que la sacudida impactaba
en una tabla fija colocada en la parte inferior de su oscilación. Luego midió el tiempo de
caída libre desde una altura particular y ajustó la longitud del péndulo hasta que giró
hacia la vertical al mismo tiempo. Descubrió, por ejemplo, que un peso caerá casi cinco
pies en el tiempo que un péndulo de cuatro pies se balancea hacia la vertical. (Galileo
parece haber usado medidas de tiempo con el reloj de agua, aunque habría sido posible
comparar las distancias directamente). Repitiendo el procedimiento para varios valores
diferentes, demostró que la relación entre la altura caída y la longitud del péndulo es
siempre la misma. . Dado que la longitud del péndulo varía como el cuadrado del tiempo
transcurrido, la distancia recorrida en caída libre también debe ser proporcional al
tiempo al cuadrado. De esta manera, utilizando su conocimiento previo de péndulos y el
método experimental, Galileo llegó a una generalización de alcance impresionante: para
todos los cuerpos libres en la Tierra, la altura caída es igual al cuadrado del tiempo
transcurrido multiplicado por una constante específica (el cuyo valor depende de las
unidades particulares).
Se dio cuenta de las implicaciones de su ley del tiempo cuadrado. Dado que la altura
caída es igual a la velocidad media de caída multiplicada por el tiempo transcurrido, la
altura puede ser proporcional al tiempo al cuadrado solo si la velocidad es directamente
proporcional al tiempo. Así, Galileo había encontrado la respuesta a su pregunta original
sobre el aumento de la velocidad durante la caída: la velocidad aumenta en proporción
directa al tiempo transcurrido, es decir, aumenta en incrementos iguales en intervalos
de tiempo iguales. En unidades inglesas conocidas, decimos que la velocidad aumenta
treinta y dos pies por segundo durante cada segundo de caída.
Además del concepto de "fricción", este descubrimiento dependió del desarrollo
previo de Galileo de dos conceptos clave de movimiento. A lo largo del razonamiento
anterior, utilizó conceptos de "velocidad" y "aceleración" que diferían profundamente
de los de uso común en ese momento. Stillman Drake, un destacado estudioso de
Galileo, señala que "la palabra italiana 'velocita' ... simplemente significaba rapidez, un
concepto cualitativo vago ..."6La alternativa era la palabra latina "velocitas", entonces
utilizada por los filósofos naturales para significar "intensidad de movimiento". Galileo
reconoció que tales ideas cualitativas son callejones sin salida en física; la ciencia de la
cinemática requiere conceptos cuantitativos de movimiento que se definen
matemáticamente y pueden identificarse mediante mediciones.
Galileo enfrentó dos obstáculos que le impidieron desarrollar conceptos de
movimiento completamente adecuados. Primero, la teoría griega de las proporciones lo
restringió a razones de "cantidades conmensurables", por ejemplo, razones de
distancias, o de tiempos, o de velocidades. Un concepto demasiado estrecho de
"número" había llevado a los griegos a rechazar las proporciones de "cantidades
diferentes", como la distancia en el tiempo o la velocidad en el tiempo. En segundo
lugar, las ideas cruciales de velocidad instantánea y aceleración instantánea son
imposibles sin el concepto matemático de "límite", que aún no se ha desarrollado. Como
resultado, pudo ofrecer definiciones matemáticamente rigurosas solo para el
movimiento a velocidad constante o para el movimiento a aceleración constante.
A pesar de estas restricciones, los nuevos conceptos de movimiento de Galileo
fueron un avance crucial sobre los de sus predecesores, y fueron adecuados para sus
propósitos, ya que la caída libre ocurre con una simple aceleración uniforme. Sin
embargo, su evidencia experimental directa de la ley de la caída libre estaba abierta a
una crítica: era difícil obtener mediciones repetibles y precisas de intervalos de tiempo
tan cortos. Se podría investigar más fácilmente la aceleración de la caída si hubiera una
forma de frenarla sin cambiar su naturaleza. Este fue el motivo detrás de los
experimentos de plano inclinado de Galileo.
En el caso de una bola que rueda hacia abajo en un plano inclinado, el movimiento es
causado por la componente descendente del movimiento constreñido de la bola pesada.
Galileo razonó que dado que la causa del movimiento es la misma que en caída libre y la
dirección de la bola es constante, la aceleración hacia abajo del plano debe ser de la
misma naturaleza que en caída libre, pero simplemente atenuada por la relación entre
la altura caída y la distancia total recorrida. Por lo tanto, hacer rodar bolas por un plano
inclinado en un pequeño ángulo con respecto a la horizontal proporcionó una forma de
estudiar la aceleración de un cuerpo que cae en una forma que se redujo mucho en
magnitud y, por lo tanto, fue más fácil de medir.
Galileo hizo rodar una bola de bronce por una ranura pulida y suave tallada en una
plancha de madera recta de unos dos metros y medio de largo. Utilizando un ángulo de
inclinación de casi dos grados, la bola tardó más de cuatro segundos en rodar por la
tabla. Entonces tuvo una idea ingeniosa. Ató ocho hilos muy finos alrededor de su tabla.
Cuando la pelota rodó sobre una cuerda, hizo un sonido de golpe leve pero audible.
Mientras rodaba repetidamente la pelota por la tabla, ajustó la ubicación de las cuerdas
hasta que los sonidos ocurrieron a intervalos regulares de un poco más de medio
segundo. Galileo conocía bastante la música y sabía que la regularidad de tales ritmos se
puede juzgar con mucha precisión (la mayoría de las personas pueden detectar una
desviación de un sesenta y cuatro de segundo). Las posiciones de las cuerdas que
producían los latidos regulares eran un registro de la distancia recorrida por la pelota
en función del tiempo. Sus resultados demostraron que la distancia es proporcional al
cuadrado del tiempo y, por lo tanto, el movimiento hacia abajo en un plano inclinado se
acelera uniformemente. Más tarde confirmó esta ley con experimentos adicionales en
los que utilizó planos inclinados más largos y midió el tiempo con su reloj de agua.
Galileo también captó algunas implicaciones cruciales de su idea de que la
aceleración de la bola en el plano es proporcional al seno del ángulo de inclinación.
Primero, dedujo matemáticamente que la velocidad final de la pelota en la parte inferior
del plano depende solo de su altura inicial, no de la longitud del plano o su grado de
inclinación. La altura del avión, mostró, es proporcional al cuadrado de la velocidad final
de la bola. En segundo lugar, la aceleración de la bola debe acercarse a cero cuando el
ángulo de inclinación se acerca a cero, lo que implica que el movimiento horizontal libre
debe ocurrir a velocidad constante.
Galileo diseñó un experimento que hizo uso de la primera implicación para probar la
segunda. Su plano inclinado estaba montado sobre una mesa de unos tres pies de altura.
En la parte inferior de la pendiente, ideó un deflector curvo para que la pelota hiciera
una transición suave para rodar brevemente a lo largo de la mesa horizontal antes de
volar y golpear el suelo a cierta distancia (verFigura 2). Eligió una altura inicial del
avión y luego midió dónde aterrizó la pelota. Armado con su conocimiento de la relación
entre altura y velocidad y con su hipótesis de velocidad horizontal constante, Galileo
pudo calcular dónde aterrizaría la pelota para cualquier altura del plano inclinado. Hizo
sus cálculos, realizó el experimento y descubrió que sus predicciones coincidían con sus
mediciones.
El plano inclinado proporcionó a Galileo un puente entre el movimiento vertical y
horizontal, y arrojó luz sobre la naturaleza de ambos. Lo usó para estudiar la
aceleración de un cuerpo que cae y para proporcionar un proyectil con una velocidad
horizontal conocida y fácilmente variable. Los resultados de sus experimentos llevaron
inexorablemente a la generalización suprema de su cinemática: el movimiento vertical
libre ocurre con aceleración constante, mientras que el movimiento horizontal libre
ocurre con velocidad constante.
Figura 2. Una bola que se mueve con rapidez horizontal constante y aceleración vertical
constante traza una semiparabola.
Óptica de Newton
Cuando Newton comenzó su batalla para establecer un método inductivo adecuado en
física, estaba trabajando en el campo de la óptica, no en la cinemática o la astronomía.
En sus primeros años, mucho antes de que los Principia le dieran fama, realizó un
estudio de la luz y los colores que se ha descrito como "la investigación experimental
más importante del siglo XVII".12
Vivimos en un mundo colorido. Por lo general, los colores que vemos se producen
por el reflejo de la luz ordinaria (blanca) de los cuerpos, y el color específico reflejado
depende de la naturaleza del cuerpo. En la segunda mitad del siglo XVII, también se
sabía que los colores se pueden producir por refracción. Mientras estudiaba en el
Trinity College, Newton aprendió sobre la ley de refracción del seno (descubierta por
Snell en 1621), sobre los colores que resultan de la luz blanca que pasa a través de
cuñas de vidrio (prismas), sobre la idea de que los arcoíris son causados de alguna
manera por la refracción de la luz dentro de las gotas de lluvia, y sobre el hecho de que
los telescopios refractores producen imágenes borrosas con bordes coloreados.
El interés inicial de Newton en el tema es evidente a partir de su estudio detallado
del libro de Robert Boyle Experiments and Considerations Touching Colors (1664). Dos
estudiosos ofrecen la siguiente descripción de las notas de Newton sobre el libro:
[Las notas] comprenden datos sobre las formas en que se cambian los colores de los
objetos en una amplia variedad de circunstancias. Registran los efectos del calor, las
características de varios sublimados, ácidos y precipitados, las formas en que los
objetos cambian en varias luces y posiciones, los efectos de los tintes, de las soluciones y
las sales, y los cambios producidos en los colores por varias combinaciones de estos.
"Instrumentos". Aunque el objetivo de Newton es aumentar su base de información, las
entradas son más que una mezcla fortuita. Cada bit de información se relaciona de
alguna manera con la diferencia en la apariencia del color de un cuerpo cuando se mira,
en contraste con cuando se mira a través de él, o las formas en que se puede cambiar el
color de un cuerpo.13
Durante estos años de licenciatura, Newton mantuvo un cuaderno titulado "Ciertas
preguntas filosóficas", en el que registró sus preguntas y sus primeros pensamientos a
tientas sobre una amplia gama de temas en ciencias físicas, incluido el tema de la luz y
los colores. Por ejemplo, preguntó por qué los materiales difieren en transparencia, por
qué la refracción es ligeramente menor en agua caliente que en agua fría, por qué los
carbones son negros y las cenizas son blancas. Preguntó si la luz se mueve con una
velocidad finita, si los rayos de luz podrían mover un cuerpo "como el viento hace una
vela" y si la refracción en las superficies de vidrio es la misma cuando se elimina el aire
circundante. Las preguntas muestran una mente extraordinariamente activa que había
absorbido el conocimiento disponible del tema.
En sus notas sobre colores, Newton se refirió a algunas de las explicaciones
propuestas que encontró en la literatura. Escribió: “Los colores surgen de sombras
entremezcladas con luz o de reflejos más fuertes o más débiles. O partes del cuerpo
mezcladas y arrastradas por la luz ".14Luego descartó rápidamente la primera
posibilidad, simplemente citando muchos casos en los que el blanco y negro se mezclan
sin producir ningún color, y señalando que los bordes de las sombras no están
coloreados. En esta etapa inicial, no tenía ninguna teoría propia, y se estaba dando
cuenta de que nadie más tenía una tampoco (a pesar de algunas afirmaciones
jactanciosas de otros en sentido contrario).
No pasó mucho tiempo antes de que Newton comprara un prisma y comenzara su
propia investigación. Comenzó mirando varios objetos a través del prisma. Sus primeras
observaciones importantes fueron de colores que aparecen a lo largo de los límites
entre los objetos claros y oscuros. Por ejemplo, cuando se coloca una tira fina de papel
blanco sobre un fondo oscuro y se ve a través de un prisma, un borde del papel
aparecerá azul y el otro rojo.
A partir de la observación del arco iris y la refracción de la luz a través de prismas,
se sabía que el azul y el rojo se encontraban en lados opuestos del espectro de colores.
Algunos científicos propusieron que cuando un rayo de luz blanca entra al agua o al
vidrio en un ángulo oblicuo, un borde del rayo se ve afectado de manera diferente al
otro, lo que hace que la luz de un lado se vuelva azul mientras que la luz del otro lado se
vuelva roja. Sin embargo, a Newton se le ocurrió otra posibilidad: se le ocurrió que
podrían producirse arcoíris y "colores límite" si la luz azul se refractara un poco más
que la luz roja. En otras palabras, pensó preguntar: ¿Se ven la luz azul y roja en lados
opuestos no porque se originen en diferentes lugares dentro del rayo, sino porque están
dobladas en diferentes ángulos por el agua o el vidrio?
La pregunta solo podría responderse mediante la experimentación. Newton tomó un
hilo y coloreó la mitad de su longitud de azul y la otra mitad de rojo. Cuando colocó el
hilo en línea recta sobre un fondo oscuro y lo miró a través de un prisma, las mitades
azul y roja parecían discontinuas, una encima de la otra. El prisma cambió la imagen de
la mitad azul del hilo más que la mitad roja. A partir de este experimento, Newton llegó
a una verdad universal: tras la refracción, la luz azul se dobla más que la luz roja.
Dado que los diversos colores de luz emergen del prisma en ángulos ligeramente
diferentes, el espectro de colores se extenderá a medida que la luz se aleje. Este
pensamiento llevó a Newton a otro experimento. Con las ventanas de su habitación a la
sombra, permitió que la luz del sol entrara por un pequeño orificio. Colocó un prisma
cerca de la abertura para que la luz pasara a través de ella y se exhibiera en la pared del
fondo, a unos seis metros de distancia. Observó que el haz circular y estrecho de luz
blanca era doblado por el prisma y transformado en un espectro de colores completo y
alargado en el orden rojo, naranja, amarillo, verde, azul y violeta. El espectro se extendió
en la misma dirección en que el vidrio doblaba la luz, y era cinco veces más largo que
ancho.15
Después de observar este cambio sorprendente en un rayo de luz blanca incidente,
era natural preguntarse qué efecto tiene un prisma sobre un rayo de luz de color
incidente. Para encontrar la respuesta, Newton realizó una serie de experimentos en los
que generó un espectro con un prisma y luego pasó los colores individuales uno a la vez
a través de un segundo prisma. En contraste con la luz blanca, descubrió que solo se
alteraba la dirección de la luz de color. Sus mediciones confirmaron que la luz azul
estaba más doblada que la luz roja, como esperaba. Más importante, sin embargo, fue el
hecho nuevo y crucial de que el color siempre permanece sin cambios y los rayos no se
esparcen por el segundo prisma.
Aparentemente, los colores individuales se redirigen pero, por lo demás, no se ven
afectados por los prismas. Pero si los prismas no afectan los colores, ¿cómo pueden
crearlos a partir de un rayo de luz blanca? Quizás, pensó Newton, los colores no son
creados por el prisma; quizás estén en la luz blanca y simplemente separados por su
ángulo variable de refracción. En otras palabras, se le ocurrió una idea radical: tal vez
una mezcla de todos los colores la experimentemos como luz blanca.
Sabía que en algunos casos una mezcla de dos colores se ve como un color diferente.
En sus primeras notas, había registrado su observación de que la llama de una vela
amarilla vista a través de un cristal azul parece verde. También sabía que la luz blanca
vista a través de una combinación de vidrio rojo y vidrio azul parece violeta. Esa
evidencia ya lo había convencido de que una mezcla de colores puede parecer bastante
diferente a cualquiera de sus componentes. Sin embargo, fue un paso audaz sugerir que
la blancura, que durante mucho tiempo había servido como el símbolo mismo de la
"pureza", era de hecho una mezcla de todos los colores del espectro. Fue audaz, pero no
obstante, se basó en evidencia observacional.
Newton nunca se conformó con sugerir simplemente una posibilidad; se conformó
con nada menos que una prueba experimental. Si la luz blanca está compuesta por todos
los colores, entonces debería ser posible volver a juntar los colores separados y formar
la luz blanca una vez más. Se dio cuenta de que esto se puede hacer usando una
combinación de prismas o una lente de enfoque, y mostró que cuando se hace que todo
el espectro de colores converja, aparece blanco. Además, cuando se permite que el
espectro continúe a través del punto focal y vuelva a divergir en el otro lado, los colores
reaparecen en el orden inverso. La conclusión era ahora ineludible: los colores
individuales son los componentes "puros" y simples, mientras que la luz blanca es una
mezcla de ellos.
A continuación, aplicó esta nueva percepción para comprender por qué los objetos
que nos rodean aparecen con sus colores característicos. La implicación básica de su
teoría era clara: cuando un objeto está iluminado con luz blanca y, sin embargo, aparece
un color en particular, la razón debe ser que el objeto refleja ese color con fuerza
mientras absorbe o transmite gran parte de la luz en el resto del espectro. . Basado en
sus descubrimientos previos, Newton no esperaba que los colores fueran creados o
cambiados por la reflexión; simplemente deben separarse en la medida en que un color
se refleje más que los demás.
Para probar esto experimentalmente, tomó un trozo de papel y pintó la mitad
izquierda de azul y la mitad derecha de rojo. En una habitación sombreada, iluminó el
papel solo con la luz azul de un prisma. Como esperaba, todo el papel parecía azul, pero
el color era intenso en la mitad izquierda y tenue en la mitad derecha. Cuando el papel
se iluminó con luz roja del prisma, volvió a ver el resultado esperado: todo el papel era
rojo, pero ahora la mitad izquierda era tenue y la mitad derecha intensa. Los colores no
cambian por reflexión; la pintura azul refleja la luz azul fuertemente y la luz roja
débilmente, mientras que la pintura roja refleja la luz roja fuertemente y la luz azul
débilmente. Estas observaciones fueron una simple pero poderosa confirmación de su
teoría.
Ofreció otras demostraciones convincentes de que los colores que componen la luz
blanca están separados por cantidades desiguales de reflexión o transmisión en las
superficies. Por ejemplo, oscureció su habitación y luego permitió que un rayo de luz
blanca iluminara una lámina de oro muy delgada. Descubrió que la luz reflejada en un
lado era del color amarillo parduzco habitual del oro, mientras que la luz transmitida en
el otro lado era de un color azul verdoso.
La teoría de los colores de Newton integró y explicó una enorme variedad de
observaciones. Por ejemplo, pudo explicar todas las propiedades esenciales de los
arcoíris, como el mayor brillo del cielo dentro del arco iris, la posición angular y el
ancho de los arco iris primario y secundario, y el orden inverso de colores en los dos
arcoíris. La teoría también le permitió comprender por qué los telescopios refractores
simples producen imágenes borrosas con bordes de colores. Dado que los colores de la
luz blanca se refractan en ángulos ligeramente diferentes, no convergen para formar
una imagen nítida. Resolvió el problema inventando un nuevo tipo de telescopio que
enfocaba la luz mediante la reflexión de espejos en lugar de la refracción a través del
vidrio. Por lo tanto, no perdió el tiempo en poner su teoría en práctica,
Sus predecesores habían asumido que los colores eran el resultado de alguna
modificación de la luz blanca "pura". Luego, sin ninguna evidencia de apoyo,
especularon sobre la naturaleza específica de la modificación. Descartes había afirmado
que la luz era un movimiento de ciertas partículas pequeñas y que los colores son
causados por la rotación de las partículas: las partículas de luz que giran más
rápidamente se ven supuestamente como rojas, mientras que las que giran más
lentamente se ven como azules. El destacado científico inglés Robert Hooke ofreció una
teoría diferente. Supuso que la luz blanca era un pulso de onda simétrica, y afirmó que
los colores resultan cuando el pulso se distorsiona. Según su teoría, la luz es roja cuando
la parte anterior del pulso de onda es mayor en amplitud que la parte posterior y es azul
cuando ocurre lo contrario.
Newton vio estas "teorías" por lo que eran: ficciones basadas únicamente en las
fértiles imaginaciones de sus creadores. Rechazó su enfoque especulativo y refutó su
supuesto básico. Demostró que los colores no son el resultado de ninguna modificación
de la luz blanca; más bien, son los componentes elementales de la luz blanca.
El aspecto más radical de la teoría de Newton no consistió en lo que dijo, sino en lo
que se abstuvo de decir. Presentó sus resultados y conclusiones sin comprometerse con
una visión definida sobre la naturaleza fundamental de la luz y los colores. Razonó hasta
donde las pruebas disponibles pudieron llevarlo, y no más. Muchos científicos
reaccionaron al artículo original de Newton con sorpresa y confusión porque estaban
acostumbrados al método cartesiano de deducir conclusiones de las "primeras causas"
imaginadas. Aquí había un artículo sobre colores en el que el autor simplemente ignoró
la controversia sobre si los colores eran partículas rotativas o pulsos de onda
distorsionados o algo más. ¿Faltaban algunas páginas? se preguntaron.
En lugar de omitir nada, Newton había proporcionado lo que se omitió del método
de Descartes: la objetividad. Newton indujo sus conclusiones a partir de los resultados
observados de los experimentos; no los dedujo de "intuiciones". Tuvo cuidado de
identificar el estado epistemológico de sus ideas y de distinguir claramente entre las
que consideraba probadas y las que se basaban en pruebas que no eran concluyentes.
Conocía demasiado bien el minucioso esfuerzo que se requiere para descubrir las
verdades básicas sobre la naturaleza, y no tuvo paciencia con aquellos que intentaron
atajar el proceso con especulaciones vacías.
Newton dijo una vez que "no formuló hipótesis", una declaración que se hizo famosa
y ampliamente incomprendida. Explicando su terminología, escribió: "La palabra
'hipótesis' es usada aquí por mí para significar solo una proposición que no es un
fenómeno ni se deduce de ningún fenómeno, sino asumido o supuesto, sin ninguna
prueba experimental".dieciséisDesafortunadamente, esto no dejó en claro su significado.
No tenía la intención de rechazar de plano todas las hipótesis que carecían de pruebas
experimentales completas; de hecho, usó el término "hipótesis" para referirse a una
afirmación arbitraria, es decir, una afirmación sin apoyo de ninguna evidencia
observacional.
Newton entendió que aceptar una idea arbitraria, incluso como una mera
posibilidad que merece consideración, socava todo el conocimiento de uno. Es
imposible establecer una verdad si se considera válido el procedimiento de fabricar
"posibilidades" contrarias de la nada. Como explicó en una carta a un colega:
[Si] alguien puede ofrecer conjeturas sobre la verdad de las cosas a partir de la mera
posibilidad de hipótesis, no veo por qué estipulación puede determinarse algo cierto en
ninguna ciencia; ya que siempre se pueden idear uno u otro conjunto de hipótesis que
parecerán proporcionar nuevas dificultades. Por eso juzgué que hay que abstenerse de
contemplar hipótesis, como de argumentación indebida…. 17 (Cursiva agregada.)
Aquí, mientras defendía su teoría de los colores, introdujo un nuevo principio crucial
de lógica inductiva. Es la respuesta adecuada a la mayoría de las afirmaciones hechas
por Descartes y los de su calaña, la única respuesta que justifican: la desestimación total.
Newton reconoció que el intento de refutar una afirmación arbitraria es un error
fundamental. Para comprender la naturaleza del mundo, el pensamiento de uno debe
comenzar con la información recibida del mundo, es decir, datos sensoriales. Pero una
idea arbitraria se desprende de tales datos; considerarlo es dejar el reino de la realidad
y entrar en un mundo de fantasía. No se puede adquirir ningún conocimiento haciendo
una excursión de este tipo. Ni siquiera se puede lograr el objetivo equivocado de refutar
una idea arbitraria, porque tales afirmaciones siempre pueden protegerse con otras
afirmaciones arbitrarias. Al entrar en el mundo de la fantasía,
Los sentidos proporcionan nuestro único contacto directo con la realidad. Sin ese
contacto, puede haber una acción cerebral, pero no hay pensamiento. Los giros
mentales de la física cartesiana son como las ruedas giratorias de un automóvil elevado:
a pesar del movimiento, no hay posibilidad de llevar la carretera a ninguna parte. En
cuanto a los científicos que están de acuerdo con Platón y Descartes y, por lo tanto,
rechazan el camino porque es sucio, ruidoso y degradante para sus neumáticos
elevados, pierden sus medios para ir a cualquier parte.
La teoría de los colores de Newton recibió una reacción hostil de tales científicos. Al
principio, Newton reiteró pacientemente cómo realizar los experimentos y qué
conclusiones podían inferirse con certeza de los resultados. Finalmente, estableció una
ley epistemológica en su esfuerzo por adelantarse a todas las discusiones que no se
basaran en los hechos observados. Declaró que cualquier crítica válida de su teoría debe
caer en una de dos categorías: o argumenta que sus observaciones son insuficientes
para apoyar sus conclusiones, o cita observaciones adicionales que contradicen sus
conclusiones. Como él lo expresó:
La teoría que propuse me fue demostrada, no por inferir que es así porque no de otra
manera, es decir, no por deducirla sólo de una refutación de supuestos contrarios, sino
por derivarla de experimentos que concluyen positiva y directamente…. Y, por lo tanto,
desearía que todas las objeciones se suspendieran de hipótesis o de cualquier
[fundamento diferente] a estos dos: de mostrar la insuficiencia de experimentos para
determinar estas preguntas, o probar cualquier otra parte de mi teoría, ... o de producir
otros experimentos que directamente contradígame, si parece que algo así ocurre. 18
Galileo había luchado contra la Iglesia para expulsar la fe religiosa del ámbito de la
ciencia; Newton luchó contra sus compañeros científicos en un esfuerzo por expulsar lo
arbitrario como tal, incluidas las afirmaciones seculares. 19La apelación a la fe es la
exigencia de que las ideas sean aceptadas sobre la base de la emoción más que de la
evidencia y, por tanto, es una especie de arbitrariedad. No importa si la idea está en la
Biblia; por ejemplo, si se le pide a uno que acepte que Josué alargó el día ordenando al
sol que se detenga, o si se le pide a uno que acepte que las partículas de luz blanca se
colorean cuando giran. No hay evidencia para ninguna de las dos afirmaciones, y
considerarlas es rechazar el único medio de conocimiento de la mente: el razonamiento
a partir de hechos observados.
Aunque Galileo fue pionero en el método experimental, Newton fue quien estableció
su papel fundamental en la física moderna. Como señalan dos historiadores de la
ciencia, "El experimento se convirtió en un principio y también en un método con
Newton, quien llegó a ver la base experimental de su filosofía como la característica que
la distingue de otras filosofías naturales y la hace superior a ellas". 20 Su trabajo
experimental en óptica sirve como modelo de cómo debería hacerse la ciencia física.
El Universo Matemático
P ara descubrir la naturaleza del mundo físico, el hombre debe poder relacionar
cualquier hecho con lo que puede percibir directamente. Históricamente, el método que
lo hace posible se aplicó por primera vez a la astronomía.
Comenzamos en la escala de nuestra percepción. Así, el hombre precientífico vio a la
Tierra como la enorme pieza central del universo, rodeada de objetos mucho más
pequeños que se mueven de este a oeste a través del cielo. Casi todos estos objetos
aparecen como meros puntos de luz que decoran el cielo nocturno y sirven para
orientarnos en la Tierra. La atención a sus movimientos llevó a los hombres a dividir
estos puntos de luz en dos categorías: los muchos cientos de “estrellas fijas” visibles, con
posiciones relativas que no cambian; y cinco "estrellas errantes" o "planetas", que se
mueven de formas complejas en relación con las estrellas fijas. Además de las estrellas,
se destacaron dos objetos: el sol y la luna, ambos aproximadamente del mismo tamaño
aparente.
En el siglo V a. C., el filósofo Anaxágoras sugirió que el sol podría tener
aproximadamente el tamaño de la península griega. La mayoría de la gente de la época
pensó que no era plausible que el sol pudiera ser tan grande. Pero dado que las
distancias a los cuerpos celestes eran desconocidas y aparentemente incognoscibles,
nadie vio una manera de resolver el problema.
Sin embargo, dos siglos después, un astrónomo matemático encontró la forma.
Aristarchus comenzó entendiendo que la trigonometría, la rama de las matemáticas que
estudia los triángulos, proporcionó un método para comparar la distancia Tierra-Sol
con la distancia Tierra-Luna. Cuando la luna está exactamente medio llena, la línea del
sol a la luna debe formar un ángulo de noventa grados con la línea de la luna a la Tierra.
Entonces, durante una media luna, Aristarco midió el ángulo entre la línea de visión a la
luna y la línea de visión al sol. Usando las relaciones conocidas entre las longitudes de
los lados y los ángulos de un triángulo rectángulo, su resultado de ochenta y siete
grados implicaba que la distancia Tierra-Sol es aproximadamente veinte veces la
distancia Tierra-Luna. Dado que ambos objetos tienen el mismo tamaño aparente,
concluyó que el diámetro del sol debe ser unas veinte veces mayor que el diámetro de la
luna. (Este método es muy sensible a pequeños errores en el ángulo medido y, por lo
tanto, Aristarco subestimó en gran medida la distancia y el tamaño del sol).
Este resultado no dice nada sobre cómo el sol o la luna se comparan en tamaño con
la Tierra. Para obtener esa información, Aristarco aplicó el razonamiento matemático a
la observación de un eclipse lunar. Primero, tomó medidas durante un eclipse de este
tipo que le permitió comparar el tamaño de la luna con el tamaño de la sombra circular
de la Tierra sobre la luna. En segundo lugar, a partir de sus valores calculados para las
distancias relativas y los tamaños del sol y la luna, utilizó la trigonometría para
relacionar el tamaño de la sombra de la Tierra con el tamaño de la Tierra misma.
Juntando todo esto, concluyó que el diámetro de la luna es aproximadamente un tercio
del de la Tierra y, por lo tanto, el diámetro del sol es aproximadamente seis o siete veces
mayor que el de la Tierra.
La poderosa combinación de observación, medición y matemáticas proporcionó aún
más resultados. Se habían medido los tamaños aparentes del sol y la luna; ambos
cuerpos subtienden un ángulo de aproximadamente medio grado en el cielo. Entonces,
una vez que se calcularon sus tamaños reales (en relación con la Tierra), se podrían
determinar sus distancias a la Tierra. Se encontró que la distancia a la luna era de unos
treinta diámetros terrestres, lo que implica que la distancia al sol es de unos seiscientos
diámetros terrestres.
Quedaba el problema de relacionar estas medidas con distancias que podemos
percibir, ya que nadie puede ver un diámetro de la Tierra. La solución fue
proporcionada por Eratóstenes, el principal astrónomo griego de la generación
posterior a Aristarco. Una vez más, la trigonometría jugó un papel clave a la hora de dar
la respuesta. Eratóstenes sabía que al mediodía del 21 de junio el sol estaba
directamente sobre sus cabezas en la ciudad egipcia de Syene. Por lo tanto, un poste
vertical colocado en el suelo no proyecta sombra en este momento. También sabía que
la ciudad de Alejandría estaba a 500 millas directamente al norte de Syene (usando
unidades inglesas modernas por conveniencia). Colocó un poste vertical en el suelo en
Alejandría, y al mediodía del 21 de junio midió la longitud de la sombra y la comparó
con la longitud del poste. De su conocimiento de los triángulos rectángulos, dedujo que
los rayos del sol formaban un 7. Ángulo de 2 grados con la vertical. Entonces pudo
calcular la circunferencia de la Tierra por medio de una proporción simple; 500 millas
divididas por la circunferencia es igual a 7.2 grados divididos por 360 grados. Llegó al
resultado correcto de 25,000 millas para la circunferencia de la Tierra, lo que implica
que el diámetro de la Tierra es de aproximadamente 8,000 millas. Y una milla, por
supuesto, tiene una relación conocida con una unidad perceptible, el pie.
Los griegos aplicaron las matemáticas más extensamente a la astronomía que a
cualquier otra ciencia. Como resultado, la astronomía se convirtió en la ciencia física
más avanzada de la antigüedad. Por el contrario, se avanzó relativamente poco en física.
La influencia del platonismo convenció a muchos pensadores griegos de que los
cambios físicos y los movimientos de los materiales terrestres no son completamente
inteligibles y, por lo tanto, no son susceptibles de tratamiento matemático. Pero se
pensaba que los cuerpos celestes poseían un mayor grado de perfección y, por lo tanto,
los griegos tenían más confianza en la aplicación de las matemáticas a este ámbito.
Lamentablemente, no pudieron mantener esa confianza. También aquí el platonismo
pasó factura. Al principio, los griegos habían basado su astronomía matemática en ideas
físicas. La Tierra, por su naturaleza, se consideraba inmóvil en el centro del universo; los
cuerpos celestes eran transportados por esferas que giraban uniformemente o se
movían en trayectorias circulares uniformes simplemente debido a la naturaleza física
de su material (el "éter"). Sin embargo, en poco tiempo, los movimientos observados del
sol, la luna y los planetas obligaron a apartarse de estos principios. En lugar de buscar
nuevos principios, los griegos renunciaron al objetivo de comprender los cielos y se
conformaron con "describir las apariencias". El resultado fue la teoría de Ptolomeo, que
empleaba recursos matemáticos (distancias excéntricas, epiciclos, y puntos de
ecuación) que estaban inherentemente desprovistos de cualquier referencia a causas
físicas. Así, las matemáticas se soltaron de sus amarres en la física y, en consecuencia, la
astronomía flotó en aguas estancadas durante los siguientes catorce siglos.
Las matemáticas no son una cadena aislada "pura" de abstracciones y deducciones, y
si lo fuera, no sería más que un juego inútil. Más bien, es la ciencia de relacionar
cantidades entre sí, cantidades que en última instancia están relacionadas con objetos
perceptibles. Como veremos en breve, es mediante la relación de cantidades que los
científicos captan y expresan las relaciones causales.
Figura 4. La teoría geocéntrica debe utilizar el dispositivo no causal de los epiciclos para
describir el movimiento retrógrado.
La teoría heliocéntrica tenía una implicación crucial con respecto a la distancia entre
la Tierra y las estrellas. Las posiciones angulares de las "estrellas fijas" no cambian
notablemente a medida que la Tierra se mueve alrededor del sol. Esto fue sorprendente;
a medida que cambia nuestra ubicación, la dirección de nosotros a la estrella observada
también debería cambiar. La única explicación posible, según la teoría heliocéntrica, es
que la distancia sobre la que se mueve la Tierra (es decir, el diámetro de la órbita de la
Tierra) es insignificante en comparación con la distancia a las estrellas. Dada la
precisión de las posiciones angulares medidas y la estimación de Aristarco de la
distancia Tierra-Sol, esto implicaba que las estrellas debían estar al menos a diez mil
millones de millas de distancia. Esto es dos órdenes de magnitud mayor de lo que había
pensado Ptolomeo; por tanto, las matemáticas de la teoría heliocéntrica requerían un
universo mucho más grande.
Si bien la nueva escala del universo fue difícil de aceptar para algunos, el principal
obstáculo para aceptar la teoría heliocéntrica fue el movimiento de la Tierra misma.
Sobre la base de la teoría griega del movimiento, se pensaba que un movimiento tan
rápido de la Tierra conduciría a efectos obvios y catastróficos (por ejemplo, vientos
increíbles, gente volando de la Tierra al espacio, etc.). En el siglo XVI, la idea de nuestro
mundo girando sobre su eje y orbitando alrededor del sol aún evocaba la reacción
expresada por Ptolomeo: "Pero, de hecho, este tipo de sugerencia sólo tiene que ser
pensado para que se considere completamente ridículo". 4
Para obtener una audiencia para su teoría, Copérnico tuvo que ofrecer alguna
respuesta a esta acusación. No tuvo que dar la respuesta completa (esa ambiciosa tarea
finalmente fue lograda por Newton), pero tuvo que indicar que hay una manera de
resolver la aparente contradicción entre el movimiento de la Tierra y nuestra falta de
conciencia directa de él. Lo hizo citando la relatividad del movimiento. “Todo cambio
aparente en el lugar”, escribió Copérnico, “se produce por el movimiento de la cosa vista
o del espectador, o por los movimientos necesariamente desiguales de ambos…. Si algún
movimiento pertenece a la Tierra, parecerá, en las partes del universo que están afuera,
como si las cosas de afuera estuvieran pasando ”.5Más tarde, agregó: “De hecho, cuando
un barco flota en un mar tranquilo, todo lo que hay afuera les parece a los viajeros
moverse en un movimiento que es la imagen de ellos mismos, y piensan por el contrario
que ellos mismos y todas las cosas con ellos están en reposo. Así que puede suceder
fácilmente en el caso de la Tierra que se crea que todo [el universo de estrellas fijas] se
mueve en un círculo ”.6Entonces, aunque Copérnico no era físico, sí señaló el camino
hacia la nueva física. En el siglo siguiente, Galileo aprovecharía y ampliaría este mismo
ejemplo de la nave para explicar los principios de movimiento subyacentes a la
astronomía heliocéntrica.
Al carecer de una base adecuada en física, Copérnico conservó algunas de las
características no causales de la teoría geocéntrica. Continuó usando epiciclos, que eran
necesarios no para explicar los movimientos retrógrados de los planetas, sino para
compensar la suposición errónea de órbitas circulares uniformes. Además, los círculos
principales en la teoría copernicana todavía estaban centrados en puntos vacíos, con el
sol compensado por una distancia que se eligió libremente para dar el mejor ajuste a los
datos. Tales características tuvieron que ser eliminadas para completar una
transformación de la antigua “astronomía de las apariencias” a la nueva física celeste. A
principios del siglo XVII, esta fue la tarea emprendida por Johannes Kepler.
Kepler fue el mayor astrónomo teórico de su época y tuvo la suerte de heredar la
base de datos de Tycho Brahe, el mayor astrónomo observacional de la generación
anterior. La combinación era exactamente lo que requería la nueva astronomía: las
mediciones más completas y precisas en manos de un brillante teórico comprometido
con la comprensión de los verdaderos movimientos de los cuerpos astronómicos. Como
dijo el propio Kepler, “Tycho posee las mejores observaciones y, en consecuencia, por
así decirlo, el material para la construcción de una nueva estructura; también tiene
trabajadores y todo lo que uno pueda desear. Solo le falta el arquitecto que usa todo
esto según un plan ".7
¿Cuál era el plan de Kepler? El objetivo era identificar los movimientos de los
cuerpos celestes comprendiendo sus causas físicas. “Mi objetivo en esto es mostrar que
la máquina celestial no debe compararse con un organismo divino sino con un
mecanismo de relojería…. "8En un reloj, explicó, los movimientos regulares son
causados por fuerzas naturales que actúan sobre un peso; el sistema solar, propuso,
puede entenderse de manera similar. ¿Por qué medios podemos descubrir las
relaciones causales? En una visión profunda, escribió: "[Como el ojo fue creado para el
color, el oído para el tono, así fue creado el intelecto de los humanos para la
comprensión no sólo de cualquier cosa, sino también de las cantidades". 9 Si nuestras
mentes pueden descubrir los secretos del universo, pensó, la clave deben ser las
matemáticas.
Al principio de su carrera, Kepler reconoció la poderosa evidencia a favor de la
teoría heliocéntrica: el enorme tamaño del sol en relación con los planetas, la relación
entre la velocidad de un planeta y su distancia al sol, y la explicación de la teoría del
movimiento retrógrado y de los planetas. las diferencias observadas entre los planetas
interiores y exteriores. El significado de esta evidencia, pensó, no es simplemente que el
sol es el cuerpo central del sistema solar; el significado, razonó, es que el sol es el cuerpo
dominante en el sistema solar, es decir, que el sol ejerce una fuerza física sobre los
planetas que es la causa de sus órbitas.
El concepto de "fuerza" se había referido originalmente solo a empujones y tirones
observables entre cuerpos en contacto directo entre sí. Pero los fenómenos de la
electricidad y el magnetismo obligaron a los científicos a ampliar el concepto. En el caso
de estos fenómenos, estaba claro que un cuerpo puede ejercer una fuerza física sobre un
cuerpo distante por algún medio imperceptible. En 1600, William Gilbert publicó su
influyente libro On Magnets, que resumía el conocimiento existente sobre la electricidad
y el magnetismo y anunció su descubrimiento de que la Tierra misma es un imán.
Kepler leyó el libro con atención y tomó de él el concepto moderno de "fuerza", que era
un requisito previo de la física celeste.
Kepler pronto encontró más evidencia de su idea de una fuerza solar. Sabía que las
órbitas planetarias no se encuentran todas en el mismo plano. Están inclinados con
respecto al plano de la órbita de la Tierra en cantidades variables (hasta siete grados en
el caso de Mercurio). Cuando determinó cuidadosamente las inclinaciones de las
órbitas, descubrió un hecho crucial: los planos de las órbitas se cruzan en la posición del
sol, y el sol es el único objeto común a los planos orbitales. Así, por el método del
acuerdo, el sol parecía ser la única causa posible de las órbitas. Con este descubrimiento,
Kepler había comenzado el proceso de erigir una nueva estructura a partir de los datos
de Brahe; había llegado a la idea física que serviría de base.
Al principio, el enfoque causal de Kepler condujo a una innovación crucial en la
forma en que analizaba los datos. Copérnico había referido las posiciones planetarias al
centro de la órbita de la Tierra. Dado que el sol estaba desplazado del centro, Copérnico
estaba calculando las posiciones de los planetas en relación con un punto vacío. Kepler
objetó que tal procedimiento era físicamente absurdo y, en cambio, decidió referir todas
las posiciones planetarias directamente a la ubicación del sol. Este cambio de
perspectiva resultaría esencial para su éxito.
Dada esta base, Kepler preguntó: ¿Cómo se mueven los planetas como resultado de
la fuerza solar? Era lógico que se dirigiera a Marte en busca de una respuesta. De todos
los planetas, fue Marte el que más problemas causó tanto a Ptolomeo como a Copérnico.
En ambos modelos orbitales, hubo discrepancias significativas entre las posiciones
angulares observadas y predichas. Por supuesto, tales discrepancias no fueron el único
problema; Kepler también rechazó estos modelos porque ambos usaban epiciclos, lo
que requería que Marte girara alrededor de un punto vacío sin ninguna razón física. En
palabras de Kepler, se trataba de una "suposición puramente geométrica, para la cual no
existe un cuerpo correspondiente en los cielos".10 Dado que su objetivo era desarrollar
una física celeste, el dispositivo arbitrario de los epiciclos no podía tolerarse.
Así que Kepler comenzó su asalto a Marte evitando los epiciclos e intentando
construir la mejor órbita posible utilizando los otros dispositivos matemáticos estándar
en el juego de herramientas del astrónomo. Siguiendo una tradición de dos mil años,
asumió que la órbita era circular. El sol se desplazó a cierta distancia del centro del
círculo y se colocó un “punto de ecuación” al otro lado del punto central. El dispositivo
del punto de ecuación fue introducido por primera vez por Ptolomeo como una forma
de "salvar las apariencias" partiendo del principio del movimiento uniforme. El
movimiento parece uniforme sólo desde el punto de ecuación; es decir, una línea desde
este punto hasta el planeta barrerá ángulos iguales en tiempos iguales. Pero dado que el
punto de ecuación no está en el centro del círculo,Figura 6).
A primera vista, parece que Kepler debería haber rechazado los ecuantes por la
misma razón por la que rechazó los epiciclos; es un punto vacío que controla el
movimiento de un cuerpo físico. Sin embargo, comprendió que a la ecuación se le podía
dar una interpretación física. Al colocar este punto en una ubicación adecuada, podría
modelar la forma en que la velocidad de un planeta varía con su distancia al sol.
Entonces, Kepler comenzó usando la ecuación como un dispositivo matemático
conveniente para modelar una relación causal entre el planeta y el sol.
Figura 6. En el modelo circular original de Kepler para la órbita de Marte, el sol está
desviado del centro y se usa un punto “ecuante” para variar la velocidad.
Renunciar a las órbitas circulares no fue fácil, incluso para un genio innovador como
Kepler. El círculo posee una simetría que carecía de la forma ligeramente aplanada
exigida por sus investigaciones de Marte. Para darle sentido a este resultado, volvió a su
idea de la fuerza solar y buscó una causa física de la asimetría. Hasta ahora, la fuerza
solar había servido como la idea guía que hizo posibles sus descubrimientos. En este
punto, sin embargo, fue desviado temporalmente por especulaciones sobre la
naturaleza específica de la fuerza.
En retrospectiva, podemos ver que el esfuerzo de Kepler por desarrollar una física
celeste estaba condenado al fracaso por una premisa falsa. "[E] sustancia muy corporal",
escribió, "... por naturaleza tiende a permanecer en el mismo lugar en el que se
encuentra".13No comprendía la idea de que una fuerza provoca un cambio en el
movimiento en lugar del movimiento en sí; en otras palabras, no tenía el concepto de
"inercia". Influenciado por la física griega antigua, asumió que cualquier movimiento
debe ser causado por una fuerza en la dirección del movimiento del cuerpo. Combinó
esta suposición con el descubrimiento de Gilbert de que la Tierra es un imán y, por lo
tanto, llegó a su hipótesis: el sol ejerce una fuerza magnética sobre los planetas que los
empuja en sus órbitas.
Kepler elaboró esta hipótesis para dar cuenta de la órbita de forma ovalada de
Marte. La fuerza magnética solar, propuso, tiene dos componentes. Primero, especuló
que el sol está girando rápidamente y este movimiento de alguna manera crea una
fuerza magnética que barre los planetas en círculos. En segundo lugar, los planetas
mismos son imanes, con el polo sur atraído por el sol y el polo norte repelido. Cuando el
polo sur está orientado hacia el sol, la órbita del planeta se acerca; cuando el polo norte
está orientado hacia el sol, la órbita del planeta se aleja más. Este componente
atractivo / repulsivo de la fuerza magnética explica la trayectoria asimétrica y no
circular del planeta.
Se convenció a sí mismo de que tal fuerza solar daría lugar a órbitas en forma de
huevo, es decir, más estrechas en la parte de la órbita cercana al sol y más anchas en la
parte de la órbita más alejada del sol. Luego pasó la mayor parte del año siguiente en un
intento inútil de ajustar la forma del huevo a las observaciones de Marte. Más tarde, tras
reconocer su error, escribió: “Lo que me pasó confirma el viejo proverbio: una perra
apurada produce cachorros ciegos…. El lector debe mostrar tolerancia a mi credulidad
".14
Por supuesto, lo que Kepler merece de nosotros no es "tolerancia", sino nuestra más
alta admiración por su incansable búsqueda de la verdad. Sin embargo, hay cierta
validez en su autocrítica. Su hipótesis sobre la naturaleza específica de la fuerza solar
fue apoyada solo por su intento de conectarla con el magnetismo terrestre. Pero nadie
había observado jamás un imán actuando de la forma en que Kepler suponía que
actuaba el sol sobre los planetas. A pesar de su uso de la palabra "magnético", la fuerza
solar de Kepler era en realidad sui generis. Al final, lo admitió cuando escribió: “Estaré
satisfecho si este ejemplo magnético demuestra la posibilidad general del mecanismo
propuesto. En cuanto a sus detalles, sin embargo, tengo dudas ". 15
Desafortunadamente, sufrió un año difícil mientras perseguía sus especulaciones y
el huevo que habían puesto. A pesar de que estaba en manos de un modelo defectuoso,
el trabajo tuvo un efecto beneficioso: se sumergió completamente en los datos de
observación y en sus cálculos de las distancias sol-Marte. Se había descarriado con el
modelo del huevo, pero nunca perdió de vista las observaciones, e inevitablemente lo
llevaron de regreso a la verdad. La luz empezó a amanecer sobre él cuando descubrió
una peculiar coincidencia numérica. La coincidencia implicó que la distancia desde el sol
hasta un punto del cuadrante es igual al radio mayor de la órbita. Después de algunos
pequeños errores, Kepler reconoció que esta igualdad es una propiedad de una elipse
con el sol en un foco. El hechizo hipnótico de la hipótesis del huevo finalmente se
rompió, y luego comentó:dieciséis No se trataba simplemente de un despertar para
Kepler, sino para la ciencia de la astronomía: se había resuelto uno de los problemas
más destacados de las edades, la órbita de Marte.
Con el conocimiento de la forma precisa de la órbita, podría resolver una
ambigüedad anterior. Pudo demostrar que su "ley del área" se ajustaba mejor a los
movimientos observados de Marte que la ley inversa de velocidad / distancia. Además,
comprendió la relación entre las dos leyes: la ley de velocidad / distancia es correcta, y
equivalente a la ley del área, si no se usa la velocidad total, sino el componente de
velocidad perpendicular a la línea del sol a Marte.
Kepler generalizó inmediatamente sus resultados; lo que fue cierto para Marte fue
cierto para todos los planetas. Así llegó a sus dos primeras leyes del movimiento
planetario: los planetas se mueven en órbitas elípticas con el sol ubicado en un foco, y la
línea del sol a un planeta barre áreas iguales en tiempos iguales. Con la excepción de la
Tierra, no realizó el mismo procedimiento tedioso para determinar los parámetros
elípticos de las otras órbitas planetarias. Tal esfuerzo no habría proporcionado mucha
más evidencia para sus leyes. Usando círculos y ecuaciones, las otras órbitas podrían
modelarse casi dentro de los límites de precisión de los datos de Brahe. (Mercurio
parecería ser una excepción, ya que su órbita se aparta significativamente de un círculo;
sin embargo, debido a su proximidad al sol, los datos eran menos completos y menos
precisos).
Era eminentemente razonable que Kepler no dudara en generalizar desde la órbita
de Marte. Al principio, había citado pruebas sólidas de que los planetas se movían por la
misma causa y, por lo tanto, debían moverse esencialmente de la misma manera.
Además, una de las ventajas clave de la teoría heliocéntrica era que los planetas se
movían de la misma manera; se eliminó la aparente diferencia entre los movimientos de
los planetas "internos" y "externos". En el contexto de la teoría causal de Kepler, el
concepto de “planeta” podría funcionar y funcionó como luz verde para la inducción. Su
investigación se centró en el movimiento planetario; se había centrado en Marte
simplemente porque era el más adecuado para proporcionar las respuestas a sus
preguntas.
Kepler descubrió la teoría correcta del sistema solar utilizando solo un pequeño
subconjunto de la gran base de datos de Brahe. Sus conclusiones se basaron
principalmente en observaciones de Marte y el sol, y los pasos clave en el camino a
menudo se realizaron utilizando solo unos pocos puntos de datos cuidadosamente
seleccionados. Sus cálculos se guiaron en cada paso por su hipótesis bien fundamentada
sobre el papel causal del sol.
El contexto más amplio que lo guió se basó en una amplia gama de datos y muchas
generalizaciones de alto nivel. En astronomía, dependía de todos los conocimientos
descubiertos por los griegos y Copérnico; en matemáticas, dependía del trabajo de
Euclides, Apolonio, Arquímedes y Vieta; En física, hemos visto cómo Kepler hizo uso del
concepto ampliado de "fuerza" que surgió de los estudios de la electricidad y el
magnetismo.
Las dos primeras leyes del movimiento planetario de Kepler fueron las joyas
contenidas en su libro New Astronomy Based on Causation, publicado en 1609. Nueve
años más tarde, Kepler descubrió su tercera y última ley del movimiento planetario. En
contraste con las dos primeras leyes, que especifican la naturaleza de una órbita
individual, la tercera ley establece una relación matemática entre las órbitas y, por lo
tanto, se aplica al sistema solar en su conjunto.
Aunque Copérnico había descubierto que un planeta más alejado del sol se mueve
más lento, la relación matemática exacta había permanecido esquiva. Kepler estaba
convencido de que, dado que las órbitas planetarias tienen la misma causa, deberían ser
matemáticamente iguales de alguna manera. Por lo tanto, comenzó a buscar alguna
función de la distancia media y el período orbital (que es inversamente proporcional a
la velocidad media) que permaneció sin cambios. En 1618, después de muchas pruebas
y errores, encontró lo que había estado buscando. Su tercera y última ley establece que
el cubo de la distancia media al sol dividido por el cuadrado del período orbital es una
constante para todos los planetas. El descubrimiento de esta ley fue el resultado de una
extraordinaria persistencia, que, a su vez,
La publicación de Kepler de sus leyes fue un hito histórico: fueron las primeras leyes
matemáticas exactas que describían el movimiento de los cuerpos (la cinemática de
Galileo no se publicó hasta la década de 1630). En la era post-newtoniana, es fácil dar
por sentadas tales leyes; sin embargo, a principios del siglo XVII, el contexto era
bastante diferente. Con respecto al estado del conocimiento cuando Kepler comenzó su
trabajo, un historiador comenta: “La paciencia y el esfuerzo indescriptibles requeridos
para descubrir los secretos de la naturaleza mediante la experimentación y la
observación aún eran desconocidos. El concepto de leyes de la naturaleza que
establecen relaciones causales entre fenómenos y los pone en fórmulas aún no se
sostenía. Los hombres aún no habían aprendido el método inductivo ... " 17
Kepler hizo su parte para enseñar a los hombres ese método al describir con una
franqueza inusual tanto cómo hizo sus descubrimientos y cómo cometió sus errores.
Desafortunadamente, cualquiera que esté familiarizado con la cosmología
contemporánea tiene motivos para preguntarse si los investigadores de hoy han
aprendido la lección. El propósito de las siguientes secciones es identificar algunos de
los puntos principales.
Matemáticas y causalidad
Antes del surgimiento de la teoría heliocéntrica, la ciencia de la astronomía había
renunciado a la causalidad y, por lo tanto, separó sus matemáticas del mundo físico. La
astronomía ptolemaica fue aceptada durante más de un milenio porque el hombre había
adoptado una actitud muy humilde hacia la naturaleza. En el ámbito material, había
asumido dócilmente que estaba más allá de su capacidad para captar las conexiones
necesarias entre la naturaleza de las cosas y sus acciones. En consecuencia, los
astrónomos solo podían esperar inventar esquemas para "describir las apariencias".
Curiosamente, los escépticos del campo de “describir las apariencias” a menudo
tratan de reclamar a Kepler como uno de los suyos. Insisten en que las leyes del
movimiento planetario no son enunciados causales, sino meras regularidades
descriptivas. Después de todo, argumentan, Kepler desconocía la causa actualmente
aceptada de las órbitas planetarias, la interacción gravitacional de masas. Por lo tanto,
concluyen, no descubrió conexiones causales y sus supuestas leyes son simplemente
descripciones empíricas del movimiento planetario. Según este punto de vista, la
generalización de Kepler desde Marte a los otros planetas fue una suposición
afortunada.
Como hemos visto, una visión tan escéptica contradice el proceso de descubrimiento
real de Kepler y sus conclusiones. Pensó en sus leyes de la siguiente manera: primero, el
sol ejerce una fuerza en cada planeta que hace que se mueva en una órbita elíptica (con
el sol ubicado en un foco); segundo, la fuerza solar hace que cada planeta se mueva de
modo que la línea del sol al planeta barre áreas iguales en tiempos iguales; tercero, la
fuerza solar disminuye con la distancia de una manera que hace que el cubo de la
distancia media al sol dividido por el cuadrado del período orbital sea constante para
todos los planetas. Claramente, estos son enunciados causales, como deben ser para
calificar como leyes.
De hecho, Kepler conocía la causa de las órbitas planetarias: identificó
correctamente la causa como el sol y alguna propiedad de los planetas que responde al
sol. Este fue el conocimiento causal necesario para alcanzar y validar sus
generalizaciones. Posteriormente, Newton descubrió que la propiedad relevante es la
masa, lo que da lugar a la atracción gravitacional. Este era el conocimiento causal más
avanzado necesario para validar las generalizaciones mucho más amplias de Newton,
que subsumían las leyes de Kepler como concretas. Quizás, en el futuro, los físicos
logren una comprensión más profunda de la causa en términos de una teoría física
totalmente consistente del campo gravitacional. Si es así, ese conocimiento sin duda
jugará un papel clave en la validación de generalizaciones aún más amplias.
Las identificaciones causales anteriores no se contradicen entre sí. La afirmación de
Kepler es correcta hasta donde llega, pero dice menos que la de Newton e implica
mucho menos. Y la afirmación de Newton es correcta hasta donde llega, pero Einstein
descubrió más sobre la gravitación y aún hay más por descubrir.
El conocimiento causal necesario para probar una generalización está delimitado
por el alcance de la generalización. Por ejemplo, considere la ley de órbitas elípticas de
Kepler. Si se trata de una ley general y no simplemente de una descripción de
particulares, debemos ser capaces de responder a ciertas preguntas. ¿Órbitas alrededor
de qué? El sol, que se encuentra en un foco de la elipse. ¿Por qué el sol? Porque ejerce
una fuerza sobre el planeta provocando la órbita. Cómo sabemos esto? Aquí citamos la
evidencia de Kepler sobre la fuerza solar: el enorme tamaño del sol, la dependencia de
la velocidad planetaria de la distancia al sol y el hecho de que el sol es el único cuerpo
contenido en todos los planos orbitales. Esto es todo lo que se requiere. A diferencia de,
considere la ley de Newton de que todos los cuerpos se atraen entre sí con una fuerza
que es proporcional al producto de sus masas e inversamente proporcional al cuadrado
de la distancia entre ellos. Las preguntas que debemos responder para validar esta
generalización son demasiado numerosas para enumerarlas aquí, pero pertenecen a los
conceptos de "masa" y "aceleración", las leyes del movimiento y la integración de la
física terrestre con la astronomía (ver la Siguiente capítulo).
Es importante reconocer que el conocimiento causal necesario para probar una
generalización no es el mismo que el conocimiento causal del cual se puede deducir la
generalización. Es un error común sustituir el primero por el segundo en un esfuerzo
por reducir todo razonamiento lógico a la deducción. Según este punto de vista, las leyes
de Kepler son meras hipótesis hasta que se deducen de las leyes de Newton, que son
meras hipótesis hasta que se deducen de leyes más generales, etc. Así, el "conocimiento"
no es más que un esquema piramidal de hipótesis, que en última instancia sólo se
validan mediante una revelación intuitiva de la llamada primera causa. Este enfoque
conduce a dos campos: los escépticos que admiten que carecen de tal intuición y los
racionalistas que fingen tenerla.
Los racionalistas suelen apelar a la simetría, la elegancia y la belleza de su teoría
matemática, afirmando que tales características estéticas agradables implican una
visión real del mundo de las Formas (Platón) o de la mente del Creador (cualquier
religión). Como los escépticos, introducen una brecha entre la causalidad física y las
matemáticas. Los escépticos lo hacen porque consideran que las causas son
incognoscibles y que el formalismo matemático es arbitrario; los racionalistas de la
física lo hacen porque sostienen que las causas fundamentales no son físicas y que las
leyes de la naturaleza pueden captarse independientemente del contacto sensorial con
el mundo físico.
A menudo se afirma que Platón allanó el camino para la revolución científica al
enfatizar el valor de las matemáticas. Pero tal afirmación ignora la esencia del punto de
vista de Platón. Las matemáticas se valoran correctamente como una herramienta para
comprender las leyes causales del mundo físico; Platón, por otro lado, valoraba las
matemáticas como un medio para desviar la mente del mundo físico y dirigirla hacia el
mundo de las Formas. En su opinión, las ideas matemáticas no se derivan del mundo
físico y no se aplican a él excepto de forma aproximada. Tales ideas son innatas en
nosotros desde que nacemos, y sus referentes existen en una dimensión extrasensorial,
no física. Se supone que las matemáticas son una ciencia perfecta que consiste en
conocimiento puro, sin ninguna dependencia del mundo físico.
Esta visión fue un gran obstáculo que tuvo que superar la revolución científica. El
progreso de la ciencia requirió la visión anti-platónica de que el mundo físico es
perfecto, es decir, que es completamente real y digno del estudio más minucioso, y que
las matemáticas son el lenguaje para expresar conexiones causales en el mundo. Esta
fue la idea que motivó a Kepler y Galileo a pasar décadas buscando las leyes
matemáticas exactas que gobiernan la naturaleza, mientras se negaban a aceptar
cualquier inconsistencia entre sus principios y los datos sensoriales.
Trágicamente, Kepler estaba desgarrado por puntos de vista conflictivos sobre la
naturaleza del conocimiento en general y de las matemáticas en particular. Abrió la
puerta a la ciencia moderna, pero la atravesó solo a la mitad. Se vio frenado por su
lealtad parcial a una versión cristianizada del platonismo. Cuando estuvo en las garras
de este punto de vista, buscó causas en la mente de Dios en lugar de en la naturaleza de
las entidades físicas, sancionó las especulaciones descabelladas basadas en la
"intuición" y toleró las brechas resultantes entre la teoría y la observación. Así, Kepler
estuvo con un pie adelante en la Edad de la Razón y un pie atrás en la Edad Media. Al
hacerlo, presenta un caso de estudio único. En la sección anterior vimos los resultados
de su primer método; veamos ahora su segundo método y sus resultados.
El platónico Kepler se guió por su creencia de que el mundo físico fue creado a partir
de la mente Divina, que las ideas matemáticas de Dios son innatas en nosotros y que el
propósito de estudiar el universo físico es que “el pensamiento del Creador sea
reconocido en su naturaleza, y que su sabiduría inagotable brille con más intensidad
".18Por lo tanto, sus explicaciones se basaron en apelaciones a la perfección y la belleza
estética del modelo de Dios para el universo. Consideraba las matemáticas como
independientes y anteriores al mundo físico. "Las cosas matemáticas son las causas de
lo físico", escribió Kepler, "porque Dios desde el principio de los tiempos llevó dentro de
sí mismo en una simple y divina abstracción las cosas matemáticas como prototipos de
las cantidades materialmente planeadas".19 Cuando Kepler siguió este enfoque, pasó
por alto la física y fue directamente a su supuesta fuente: el amor de Dios por las
regularidades matemáticas.
Un ejemplo de cómo el platonismo afectó a la astronomía de Kepler se puede
encontrar en su primer libro, The Cosmic Mystery, publicado en 1596. Los matemáticos
griegos habían descubierto que hay cinco figuras geométricas sólidas y simétricas que
se pueden construir a partir de superficies planas idénticas (un ejemplo es el cubo, que
está formado por seis cuadrados idénticos). Estas figuras, llamadas los cinco sólidos
regulares, se tenían en alta estima debido a la perfección de su simetría. Las órbitas
planetarias, pensó Kepler, debieron haber sido ordenadas por Dios de manera que las
cinco figuras geométricas perfectas encajaran entre ellas, lo que implicaba que debía
haber seis y solo seis planetas.
Al elegir juiciosamente qué figura encajar entre cada par de planetas adyacentes,
Kepler llegó a un esquema que se aproximaba muy aproximadamente a los tamaños
relativos de las órbitas (el error promedio fue de más del 20 por ciento). Qua platónico,
fue más tolerante con las discrepancias con las observaciones; después de todo, Platón
había enfatizado que el mundo físico es un reino imperfecto. Así que, a pesar de la
inexactitud del plan, Kepler declaró extasiado que había descubierto la base matemática
del plan de Dios.
Más tarde, Kepler llevó este enfoque más allá al relacionar aspectos de las órbitas
planetarias con tonos musicales en un intento de entender el sistema solar como una
sinfonía celestial escrita y dirigida por Dios. Los antiguos pitagóricos habían descubierto
las regularidades matemáticas subyacentes a las armonías musicales; Kepler buscó
relacionar estas armonías con la estructura del sistema solar. Por ejemplo, descubrió
que la relación entre la velocidad angular mínima y máxima de Saturno es de
aproximadamente 4: 5, correspondiente al acorde musical conocido como tercio mayor.
De manera similar, la relación entre la velocidad angular más lenta de Júpiter y su
velocidad angular más rápida corresponde a un tercio menor, la de Marte representa la
quinta, y así sucesivamente. Luego comparó las velocidades angulares extremas de
diferentes planetas y logró construir los intervalos de la escala musical completa.
Finalmente, declaró que cuando varios planetas están simultáneamente en los puntos
extremos de sus respectivas órbitas, este esquema da lugar a un motete con cada
planeta cantando su parte asignada. Él concluyó:
Los movimientos celestiales no son más que un canto continuo para varias voces
(percibido por el intelecto, no por el oído)…. Por tanto, ya no es de extrañar que el
hombre, a imitación de su creador, haya descubierto por fin el arte del canto figurado,
desconocido para los antiguos. El hombre quería ... participar de su gozo haciendo
música a imitación de Dios.20
Esta teoría musical del cosmos se publicó en un libro titulado La armonía del mundo.
Al explicar el concepto de "armonía" de Kepler, un historiador escribe:
El sentimiento de armonía surge cuando se produce una coincidencia del orden
percibido con el correspondiente arquetipo innato. El arquetipo en sí es parte de la
mente de Dios y fue grabado en el alma humana por la Deidad cuando creó al hombre a
su propia imagen. El parentesco con la doctrina de Platón de las formas ideales es
claro.21
Un resultado particularmente sorprendente de las premisas filosóficas
contradictorias de Kepler se puede ver en sus puntos de vista sobre la causa de las
mareas oceánicas. Como científico, partió de la evidencia observacional y buscó una
causa física. La correlación entre las mareas y la órbita de la luna lo llevó a la idea
correcta de que las mareas son causadas por una fuerza atractiva que ejerce la luna
sobre los océanos de la Tierra. Sin embargo, cuando consideró el mismo problema
desde la perspectiva de su misticismo platónico / cristiano, buscó una causa espiritual.
Especuló que Dios dotó a los planetas de almas y explicó que las mareas del océano se
deben a la respiración del cuerpo terrestre animado. Las dos explicaciones son polos
opuestos, tan distantes como las ideas filosóficas que las llevaron a ellas. “Dos Keplers,
por así decirlo, uno frente al otro”, escribe su biógrafo, Max Caspar. “Ambos persiguen
hasta su última consecuencia un pensamiento que han captado o que, más bien, los ha
captado. Con un Kepler era el pensamiento de la gravitación, con el otro el del alma de la
Tierra. Ahora chocan. ¿Qué pueden decirse? La contradicción está sin resolver ". 22 Por lo
tanto, tenemos el espectáculo de una mente grande pero conflictiva que fue empujada
simultáneamente en direcciones opuestas, con un camino que conduce a
descubrimientos cruciales y el otro a callejones sin salida.
Por tanto, el legado de Kepler implica mucho más que sus tres leyes del movimiento
planetario. Siguiendo dos métodos opuestos y mostrándonos los resultados, sin saberlo
realizó un experimento en filosofía de la ciencia. Específicamente, probó la naturaleza
de las matemáticas: ¿es la clave para comprender las conexiones causales en este
mundo o la clave para un reino sobrenatural de abstracciones?
Los resultados del experimento no podrían haber sido más decisivos.
r = a + c (cos β)
dónde
r = la distancia del planeta al sol,
a = el radio mayor,
c = la distancia del sol al centro de la elipse, y
β = el ángulo entre la línea de ábsides y la línea del centro al planeta.
La ecuación expresa una relación numérica entre dos variables: la distancia ry el
ángulo β (los otros términos son constantes). En el proceso de razonamiento desde las
observaciones hasta la ley, Kepler descubrió por primera vez esta ecuación y solo más
tarde se dio cuenta de que describe una elipse con el sol en un foco. A principios del
siglo XVII, aún no se conocían las ecuaciones algebraicas que describían figuras
geométricas. Para comprender el sistema solar, Kepler consideró necesario ser pionero
en la rama de las matemáticas que se conocería como geometría analítica.
Nótese que no existe una relación entre estas distancias y ángulos que puedan
observarse y describirse de manera cualitativa. Ni la distancia r ni el ángulo β son
directamente observables; ambos son cognitivamente accesibles sólo por medio de una
larga y compleja cadena de deducciones matemáticas (a partir de observaciones, por
supuesto).
Ahora considere la ley de área de Kepler. Para pequeños cambios en la posición del
planeta, la ley se puede expresar de la siguiente manera:
r2 (∆θ) = constante (∆t)
dónde
∆θ = el cambio en la dirección de la línea del sol al planeta, y
∆t = el intervalo de tiempo durante el cual el planeta se ha movido.
Esta es la forma en que Kepler usó la ley al construir la órbita de Marte. Dado un
modelo que proporcionó valores de r, esta ecuación le permitió calcular el cambio de
posición angular durante cualquier intervalo de tiempo dado (sumando laboriosamente
los cambios durante pequeños intervalos de tiempo). Y, de nuevo, la ley relaciona
variables (r y θ) de las que no tenemos conciencia excepto por medio de las
matemáticas.
Recuerde la forma en que las dos leyes anteriores se complementaron en el proceso
de descubrimiento. Mientras desarrollaba su modelo de la órbita de la Tierra, Kepler
llegó a la ley del área sin saber si era una verdad exacta o simplemente una muy buena
aproximación. Luego usó la ley para predecir las posiciones angulares de Marte y
compararlas con las posiciones angulares observadas. Esto reveló errores de arco de
ocho minutos en el modelo circular de la órbita de Marte, lo que llevó al descubrimiento
de que las órbitas planetarias son elipses. Finalmente, después de descubrir la forma de
la órbita de Marte, Kepler demostró que la ley del área es exacta. De esta manera, las
leyes se descubrieron juntas, y cada una desempeñó un papel en la validación de la otra.
Más importante aún, el papel de las matemáticas en este proceso de descubrimiento
fue fundamental. Los astrónomos no comenzaron por captar la estructura del sistema
solar de una manera aproximada y cualitativa y luego usaron las matemáticas
simplemente para completar los detalles cuantitativos. Más bien, lo contrario es cierto:
fueron los detalles cuantitativos, como los pequeños errores del arco de ocho minutos,
los que llevaron a comprender los principios básicos.
Finalmente, considere la tercera ley de Kepler, que se puede expresar de la siguiente
manera:
a3 / T2 = constante (es decir, el mismo número para todos los planetas)
Recordemos que Copérnico había comparado las órbitas planetarias y enfatizó que
un planeta más alejado del sol se mueve más lento. Sin embargo, tal enunciado
cualitativo tiene poco valor excepto en la medida en que motiva la búsqueda de una ley
matemática. Como veremos en el próximo capítulo, la afirmación de Copérnico habría
sido inútil para Newton; por otro lado, la tercera ley de Kepler permitió a Newton
descubrir la gravitación universal. Una vez más, vemos las matemáticas como el medio
para descubrir y expresar conexiones causales y, en última instancia, como el medio
para integrar tales leyes causales en una teoría fundamental.
Las matemáticas permitieron a los fundadores de la ciencia moderna extraer el
significado completo de sus observaciones, y los resultados fueron a menudo muy
sorprendentes. Estos resultados están implícitos en las observaciones originales, pero
sin las matemáticas tales implicaciones permanecerían ocultas para siempre.
Integración de Newton
G Alileo y Kepler hicieron a un lado los viejos escombros conceptuales y sentaron las
bases de la ciencia moderna. Las categorías antinaturales de movimiento "natural" y
"violento", el extraño aparato celeste de círculos en círculos excéntricos conducidos por
puntos vacíos, fue limpiado para dejar espacio a una nueva estructura, construida por
medio del nuevo método experimental y matemático. . Hemos visto las primeras piezas
de esta nueva estructura: la cinemática de Galileo y la astronomía de Kepler.
También hemos visto los primeros pasos dados hacia la integración de las ciencias
de la física y la astronomía. La Tierra fue identificada como uno de los planetas y el
telescopio reveló que algunos cuerpos celestes tienen características similares a las de
la Tierra: nuestra luna tiene montañas y valles, Júpiter tiene lunas y el sol gira. Sin
embargo, en esta etapa temprana, la conexión entre los reinos terrestre y celestial era
tenue. Aunque Galileo había utilizado la “relatividad del movimiento” para dar sentido
al movimiento de la Tierra, no había nada más que conectara sus leyes del movimiento
terrestre con las leyes del movimiento planetario de Kepler.
¿Cómo se pueden identificar las conexiones fundamentales entre fenómenos que
parecen tan radicalmente diferentes, por ejemplo, entre la caída de una manzana o la
oscilación de un péndulo y un planeta que orbita en una elipse? La clave fue descubrir
una teoría matemática que relacionara los movimientos con las fuerzas que los causan.
Esta tarea fue extraordinariamente ambiciosa; Además de la necesidad de nuevos
experimentos cruciales y datos astronómicos más precisos, requirió el desarrollo de
nuevos conceptos y nuevos métodos matemáticos. Cuando finalmente se completó, se
había creado la ciencia moderna de la física, y los cuerpos celestes ocuparon su lugar
entre sus sujetos, regidos por sus leyes.
El desarrollo de la dinámica
Newton comenzó con un problema que era lo suficientemente simple de resolver, pero
lo suficientemente complejo como para producir nuevos conocimientos cruciales.
Comenzó analizando la forma de movimiento que los griegos habían considerado
perfecta: movimiento circular uniforme. En cierto sentido, era perfecto: estaba
perfectamente adaptado para exponer los errores de los predecesores de Newton e
iluminar los principios de una nueva dinámica.
Como vimos en Capitulo 2Galileo nunca comprendió que los cuerpos se mueven con
velocidad constante en línea recta en ausencia de todas las fuerzas externas. Al carecer
del concepto de "gravedad", sugirió que el movimiento horizontal a velocidad constante
significaba en última instancia un movimiento en un círculo alrededor de la Tierra, que
pensó que podría ocurrir en ausencia de una fuerza externa. EnCapítulo 3, vimos que
Kepler nunca comprendió que cualquier movimiento podría ocurrir en ausencia de una
fuerza; supuso que todo movimiento es el resultado de un empujón externo en la
dirección del movimiento. En el análisis de Newton del movimiento circular, identificó y
rechazó ambos errores.
Antes de Newton, el caso de la luna dando vueltas alrededor de la Tierra se
consideraba completamente diferente del caso de un halcón dando vueltas alrededor de
su presa. Newton, sin embargo, ascendió a un nivel de abstracción que trataba estos dos
fenómenos como iguales; su objetivo era analizar el movimiento circular como tal, y
aplicar lo que encontró a todos y cada uno de los casos del mismo. Su política aquí se
expresa en el dicho que luego identificaría como una "regla de razonamiento": "[A] los
mismos efectos naturales debemos, en la medida de lo posible, asignar las mismas
causas".1
Una parte importante de la motivación de Newton para estudiar el movimiento
circular fueron las órbitas planetarias, que son casi circulares. Pero no comenzó su
análisis considerando los planetas; comenzó con casos en los que la causa del
movimiento es mucho más fácil de identificar. Consideró un peso sujeto al extremo de
una cuerda y se balanceaba en un círculo, y una pelota rodando en un círculo dentro de
un cuenco. En estos casos, ¿cuál es la causa del movimiento circular? Para el peso, es la
tensión en la cuerda; el hombre que sostiene la cuerda debe tirar hacia adentro. En el
instante en que lo suelte, el peso ya no se moverá en círculo, sino que volará
horizontalmente en línea recta (mientras la fuerza de gravedad lo empuja hacia la
Tierra). Para la bola en el cuenco, el movimiento circular es causado por el empuje hacia
adentro ejercido por la superficie del cuenco. Si la bola se escapa del cuenco, entonces
también volará inicialmente en línea recta. En ambos casos, el movimiento circular
uniforme del cuerpo es sostenido por una fuerza constante dirigida hacia el centro del
círculo.
En un cuaderno, Newton escribió una versión temprana de lo que más tarde se
convirtió en su primera ley del movimiento: "Una cantidad siempre se moverá en la
misma línea recta (sin cambiar la determinación o celeridad de su movimiento) a menos
que alguna causa externa la desvíe".2 La causa externa es una fuerza, es decir, un
empujón o un tirón.
Newton reconoció que era crucial distinguir entre el tipo de movimiento que resulta
de una fuerza y el tipo que puede ocurrir en ausencia de fuerza. Los conceptos de
movimiento utilizados por Galileo eran inadecuados para este propósito. Recuerde que
la definición de Galileo de "aceleración constante" se aplicaba solo al caso de
movimiento en una dirección constante. Para él, la aceleración significaba un cambio de
velocidad. En el caso de un movimiento circular uniforme, la velocidad del cuerpo es
constante y, por lo tanto, su "aceleración galileana" es cero. Sin embargo, hay algo
esencialmente igual en los casos de aceleración estudiados por Galileo y en el caso del
movimiento circular uniforme: en ambos hay un cambio en el movimiento que resulta
de una fuerza aplicada sobre el cuerpo. Se necesitaba un concepto ampliado de
"aceleración" para integrar estas instancias.
Para estudiar y comprender los efectos de las fuerzas, el movimiento tenía que
caracterizarse en términos tanto de su magnitud como de su dirección. Así se formó el
concepto de "velocidad", y la "aceleración" se definió entonces como la tasa de cambio
de velocidad. Tanto la velocidad como la aceleración son cantidades vectoriales, es
decir, son integraciones de magnitud y dirección. La formación de estos conceptos fue
un paso revolucionario que hizo posible la ciencia de la dinámica.
Armado con estos conceptos, Newton podría preguntarse: ¿Cuál es la aceleración de
un cuerpo que se mueve con rapidez constante en un círculo? Por simetría, supo que la
aceleración es constante y siempre dirigida hacia el centro del círculo. ¿Pero cuál es su
magnitud? Consideró un intervalo de tiempo corto en el que el cuerpo se mueve a través
de un pequeño arco en el círculo. Durante este tiempo, el cuerpo se ha desviado de un
camino recto por una pequeña distancia, d. Para los casos de aceleración constante,
Galileo había dado la ley matemática que relaciona la distancia d con la aceleración y el
intervalo de tiempo. Usando la ley de Galileo y la geometría clásica, Newton pudo
derivar una ecuación que expresaba la aceleración como una función de la cuerda del
arco, el intervalo de tiempo y el radio del círculo.
En su siguiente paso, Newton hizo uso de un nuevo concepto, "límite", que se
encuentra en la base del cálculo, la rama de las matemáticas que había descubierto. A
medida que el intervalo de tiempo anterior se acorta progresivamente, la cuerda del
arco se vuelve cada vez más parecida al arco mismo. En el "límite", es decir, cuando el
intervalo de tiempo se acerca a cero, la relación entre la longitud de la cuerda y la
longitud del arco se acerca a uno. Por lo tanto, en este límite, la cuerda se puede
reemplazar con el arco. Newton hizo esta sustitución y llegó a su ley de movimiento
circular uniforme: la magnitud de la aceleración en cualquier punto del círculo es igual a
la rapidez del cuerpo al cuadrado dividida por el radio del círculo.
Newton no asumió nada sobre la naturaleza específica de la fuerza que causa esta
aceleración. Su análisis se basó únicamente en el hecho de que una fuerza hace que un
cuerpo se desvíe del movimiento en línea recta a velocidad constante y, por lo tanto, con
el fin de estudiar las fuerzas, debemos definir la aceleración como se indicó
anteriormente. Por tanto, su ley no está restringida por las causas físicas que operan en
un caso particular; es aplicable a cualquier cuerpo que se mueva uniformemente en
círculo.
Fue en esta etapa cuando Newton centró su atención en los planetas. Si las órbitas se
aproximan como circulares y si expresamos la velocidad en función del radio y el
período, entonces la ley de Newton implica que la aceleración de un planeta es
proporcional a su radio orbital dividido por su período al cuadrado. Luego recordó que,
según la tercera ley de Kepler, el período al cuadrado es proporcional al radio al cubo. Al
combinar estas dos relaciones, obtuvo un resultado extraordinario: el sol ejerce una
fuerza de atracción en cada uno de los planetas, provocando aceleraciones que son
inversamente proporcionales al cuadrado de la distancia del planeta al sol.
A continuación, consideró la luna y su órbita aproximadamente circular alrededor de
la Tierra. Sabía que tal movimiento implica que la Tierra ejerce una fuerza atractiva
sobre la Luna. Como siempre buscaba conectar hechos dispares pero relacionados,
Newton pensó en preguntar: ¿Es la fuerza de atracción de la Tierra de la misma
naturaleza que la fuerza solar, es decir, causa aceleraciones que también varían como el
inverso del cuadrado de la distancia? Si la Tierra tuviera varias lunas a diferentes
distancias, entonces la pregunta podría responderse comparando las diferentes
aceleraciones. Pero solo tenemos una luna, entonces, ¿cómo podría Newton determinar
la variación de la aceleración con la distancia?
La respuesta está en el concepto mismo de aceleración. El concepto identifica una
similitud esencial entre el movimiento circular uniforme y la caída libre: un cuerpo en
movimiento circular se aleja continuamente de una trayectoria recta y acelera hacia el
centro del círculo. Así, la luna cae hacia la Tierra con una aceleración constante, al igual
que un cuerpo que cae cerca de la superficie de la Tierra. Galileo había estudiado la
caída libre terrestre, y fue esta aceleración la que Newton pudo comparar con la de la
luna. Este es un ejemplo histórico de un concepto que funciona como luz verde a la
inducción. La legendaria comparación de Newton entre la luna y la manzana que cae fue
exigida por el concepto de vector de aceleración (alcanzado inductivamente).
Se conocían las cantidades necesarias para hacer la comparación. La distancia de la
manzana al centro de la Tierra es un radio de la Tierra y la distancia a la Luna es de
sesenta radios de la Tierra. Si la aceleración varía como el inverso del cuadrado de la
distancia, entonces la aceleración de la manzana será mayor que la aceleración de la
luna por el factor (60) 2. Utilizando datos aproximados sobre la caída libre y el tamaño
de la Tierra, Newton calculó la relación de aceleraciones y encontró una concordancia
aproximada con la ley del cuadrado inverso. Así, la gravedad terrestre parecía ser la
misma fuerza que mantiene a la luna en su órbita y que el sol ejerce sobre los planetas.
El sueño de Kepler de una ciencia integrada que abarcara la física y la astronomía ya no
era simplemente un sueño; con este cálculo, se convirtió en una posibilidad real.
Este fue el nacimiento de la idea de la gravitación universal, pero estuvo lejos de ser
la prueba de ello. En esta etapa inicial, Newton tenía muchas más preguntas que
respuestas. Por ejemplo, ¿qué pasa con el hecho de que las órbitas reales son elipses, no
círculos? ¿Y cuál es la justificación para usar un radio de la Tierra como la distancia
entre la manzana y la Tierra? Gran parte de la Tierra está más cerca de la manzana y
mucho más lejos; ¿Por qué atraería la Tierra desde su centro? Además, si la gravedad es
verdaderamente universal y cada trozo de materia atrae al resto de la materia, las
implicaciones y complejidades son abrumadoras. Por ejemplo, ¿cuál es el efecto de la
atracción de la luna hacia la Tierra, o de la atracción del sol hacia la luna, o de la
atracción de un planeta hacia otros planetas? ¿Qué pasa con los cuerpos extraños como
los cometas, que se mueven de manera tan diferente?
La principal dificultad a la que se enfrentó Newton no fue que tales preguntas
estuvieran aún sin respuesta. La dificultad radicaba en que aún no se podían responder,
no sin una comprensión mucho más profunda de la relación entre fuerza y movimiento.
Una cosa es decir que es necesario empujar o tirar para cambiar la velocidad de un
cuerpo; otra hazaña es identificar la ley matemática exacta que relaciona la fuerza
externa con la aceleración del cuerpo, y otra hazaña más identificar una ley que nos dice
qué le sucede al cuerpo que ejerce la fuerza. Newton estaba empezando a desarrollar las
herramientas cognitivas que necesitaría para probar la gravitación universal.
Hemos visto cómo Newton comprendió que la velocidad de un cuerpo permanece
constante en ausencia de una fuerza externa, que es su primera ley de movimiento.
Ahora sigamos los pasos principales del razonamiento que condujeron a su segunda y
tercera leyes del movimiento.
El concepto de "fuerza" se origina a partir de sensaciones de presión que
experimentamos directamente cuando sostenemos un peso o cuando empujamos o
tiramos de un cuerpo. La fuerza tiene magnitud y dirección, y los científicos aprendieron
a medir la magnitud usando balanzas, carros de acero y escalas de resorte. El concepto
de "aceleración", por otro lado, es un desarrollo más avanzado. Fue Galileo quien explicó
por primera vez cómo se podía calcular la aceleración lineal a partir de tiempos y
distancias medidos, y ahora hemos visto el concepto expandido de un escalar a una
cantidad vectorial. En esta etapa, cuando Newton investiga la relación matemática de la
fuerza y la aceleración, ambas cantidades están claramente definidas y se pueden medir
independientemente.
Además, ya se había descubierto un hecho clave. La fuerza es directamente
proporcional a la aceleración, y esto ha sido probado por experimentos en los que se
varió la fuerza de una manera conocida y se midió la aceleración resultante. Las
investigaciones de Galileo de una bola rodando por un plano inclinado proporcionaron
los primeros experimentos de este tipo.
Galileo describió un procedimiento para medir directamente la fuerza sobre la
pelota.3Primero, dijo, sujete la bola a un peso conocido por medio de una cuerda y
coloque una polea en la parte superior del plano inclinado. Coloque la bola en el plano
inclinado con la cuerda sobre la polea y el peso colgando verticalmente. Luego ajuste el
peso hasta que equilibre exactamente la pelota; este peso es la fuerza sobre la pelota en
la dirección de su movimiento restringido hacia abajo del plano. El resultado de esta
medición es lo que cabría esperar: la fuerza sobre la pelota es simplemente el
componente de su peso en la dirección de la inclinación, es decir, es el peso de la pelota
multiplicado por la relación altura-longitud de la avión.
Por lo tanto, podemos cuadriplicar la fuerza sobre la pelota simplemente
cuadruplicando la altura del avión (manteniendo la misma longitud). Si lo hacemos,
encontramos que el tiempo de descenso es la mitad de lo que era antes, lo que implica
que la aceleración se ha cuadruplicado, es decir, ha aumentado en el mismo factor que la
fuerza. Alternativamente, usando el método de Galileo para medir la velocidad final de
la pelota (verCapitulo 2), podemos demostrar experimentalmente que la altura inicial es
proporcional al cuadrado de la rapidez final. Con un poco de álgebra, se puede
demostrar que esta relación también implica que la fuerza es directamente
proporcional a la aceleración.
El péndulo proporciona otro experimento que lleva a la misma conclusión. El
período de un péndulo cicloide es independiente de la amplitud, y se puede demostrar
matemáticamente que este hecho también implica una proporcionalidad directa entre
fuerza y aceleración. Debido a que los experimentos del péndulo y el plano inclinado
eran tan conocidos, Newton dio por sentada esta proporcionalidad y nunca se molestó
en presentar su prueba inductiva en detalle.
Por supuesto, todavía no tenía una ley de movimiento en forma de ecuación. Todavía
faltaba un concepto, y se puede sentir la frustración de Newton en algunas de sus
primeras notas. En un momento, escribió: "Así como el cuerpo A es para el cuerpo B,
también debe hacerlo el poder o la eficacia, el vigor, la fuerza o la virtud de la causa que
engendra la misma cantidad de velocidad ..."4Mientras escribía, Newton debió haberse
estado preguntando: ¿qué pasa con el cuerpo A exactamente y qué pasa con el cuerpo B?
Nadie se había formado todavía un concepto claro de "masa".
Los griegos habían propuesto que toda la materia está dotada de "pesadez" o
"ligereza". Se afirmó que los elementos tierra y agua eran intrínsecamente pesados,
mientras que el aire y el fuego son intrínsecamente ligeros. Estas propiedades fueron
consideradas como la causa del movimiento vertical natural. El concepto griego inválido
de "ligereza" era una luz roja que impedía a cualquiera descubrir que toda la materia
tiene la propiedad "masa". En 1643, Evangelista Torricelli realizó un experimento
crucial que eliminó esta luz roja del camino de la física moderna.
Torricelli trató de explicar un hecho que era bien conocido por los ingenieros de
minas: una bomba no puede levantar agua a más de diez metros por encima de su nivel
natural. La primera pregunta que se hizo Torricelli fue: ¿Por qué funciona una bomba?
En otras palabras, cuando un extremo de un tubo se inserta en el agua y el aire sale del
tubo, ¿por qué sube el agua al interior del tubo? La respuesta comúnmente aceptada fue
que "la naturaleza aborrece el vacío", pero esta respuesta implica que la ausencia de
materia en el tubo es la causa del movimiento del agua, es decir, "la nada" es
literalmente empujar el agua hacia el tubo. Para Torricelli era obvio que aquellos que
intentaron explicar el efecto haciendo referencia a la nada, de hecho, no habían
explicado nada.
En cambio, Torricelli identificó algo que explicaba el efecto: el peso del aire
presionando la superficie del agua. Cuando se elimina el aire del tubo, la atmósfera
exterior que presiona la superficie del agua empuja el agua hacia arriba del tubo. Es
similar a la acción de una palanca; el peso del aire elevará el mismo peso de agua (por
unidad de superficie). Por tanto, el peso de toda la atmósfera sobre una superficie
particular debe ser igual al peso de treinta y cuatro pies de agua sobre esa superficie.
La idea de Torricelli implicaba que la presión del aire levantaría el mismo peso de
cualquier fluido. Por ejemplo, 2,5 pies de mercurio pesan lo mismo que treinta y cuatro
pies de agua; por lo tanto, cuando se coloca un tubo de vacío en una piscina de mercurio,
el mercurio debe subir 2,5 pies por el tubo. Torricelli hizo el experimento y observó
precisamente este resultado. Tenga en cuenta que usó el método de acuerdo aquí: la
misma causa (es decir, el mismo peso de aire) conduce al mismo efecto (es decir,
aumenta el mismo peso de fluido). Experimentos posteriores de Blaise Pascal y Robert
Boyle utilizaron el método de la diferencia para llegar a la misma conclusión. Estos
experimentos demostraron que la disminución de la cantidad de aire por encima de la
superficie del fluido da como resultado una menor subida de fluido en el tubo; es decir,
a medida que eliminamos la causa, el efecto desaparece.
Por lo tanto, se demostró que incluso el aire es pesado. Contrariamente a los griegos,
no existe la propiedad de la "ligereza" absoluta. Cuando algo se eleva en el aire, lo hace
porque es menos pesado que el aire que desplaza. En otras palabras, tal elevación
"natural" se explica por el principio de flotabilidad de Arquímedes, un principio que se
aplica tanto al aire como al agua. Después del trabajo de Torricelli, los científicos
aceptaron el hecho de que toda la materia es pesada.
El siguiente paso fue aclarar el significado de "pesadez". Los griegos habían
considerado la pesadez como una propiedad intrínseca del cuerpo. Sin embargo, pesar
un cuerpo es medir la magnitud de su "empuje hacia abajo", y esto depende de algo más
que del propio cuerpo. Como hemos visto, Newton se dio cuenta de que la pesadez es
una medida de la atracción gravitacional de la Tierra y esta fuerza varía con la posición
del cuerpo en relación con la Tierra. En la década de 1670 se descubrió evidencia
adicional para esta conclusión. Dos astrónomos, Edmund Halley y Jean Richer,
descubrieron de forma independiente que los relojes de péndulo oscilan más
lentamente cerca del ecuador que en latitudes más altas, e infirieron correctamente que
las sacudidas del péndulo pesan menos cerca del ecuador. Por lo tanto, la "pesadez"
surge de tres factores: la naturaleza del cuerpo, la naturaleza de la Tierra,
Pero, ¿cuál es la propiedad del cuerpo que contribuye a su pesadez? Newton lo
identificó como la "cantidad de materia" o "masa" del cuerpo. Su razonamiento hizo uso
tanto del método de la diferencia como del método de acuerdo. Primero, consideró dos
cuerpos sólidos del mismo material, pesados en el mismo lugar. Se encuentra que sus
pesos son precisamente proporcionales a sus volúmenes, y la constante de
proporcionalidad es una característica invariante de cada material puro e
incompresible. Por tanto, el peso de un cuerpo es proporcional a su "cantidad de
materia"; al duplicar el volumen hemos duplicado la cantidad de materia y el peso se ha
duplicado (método de diferencia). En segundo lugar, Newton consideró un material
compresible como la nieve. Podemos pesar una muestra de nieve, luego comprimirla a
un volumen más pequeño y luego pesarla nuevamente.
Newton preguntó entonces cómo afecta la masa de un cuerpo a su movimiento
cuando se aplica una fuerza. Es obvio que la masa afecta el movimiento; para provocar
una aceleración particular, se requiere una fuerza mayor para una mayor cantidad de
materia (por ejemplo, empujar un automóvil requiere más esfuerzo que empujar una
bicicleta). Pero, ¿cuál es la relación exacta? Para responder a la pregunta, necesitaba un
experimento en el que la aceleración se mantenga constante mientras se varían la masa
del cuerpo y la fuerza aplicada. Newton no tuvo que buscar muy lejos para encontrar
tales experimentos; Galileo los había hecho cuando investigó la caída libre.
Desde lo alto de una torre, Galileo había dejado caer dos bolas de plomo que diferían
mucho en tamaño y peso. Supongamos que la bola más grande tiene un volumen diez
veces mayor que el de la bola más pequeña; por tanto, su cantidad de materia, o masa,
era diez veces mayor. La fuerza sobre cada bola es simplemente su peso; Al usar una
balanza o una barra de acero, podemos determinar que el peso de la bola más grande es
diez veces el peso de la bola más pequeña. Entonces, considerando la bola más grande
en relación con la bola más pequeña, hemos aumentado tanto la fuerza como la masa en
un factor de diez. Sin embargo, Galileo demostró que la aceleración de la caída libre
sigue siendo la misma. Sabemos que la aceleración es exactamente proporcional a la
fuerza, por lo que debe ser exactamente inversamente proporcional a la masa (de modo
que los factores de diez se cancelen). Este resultado concuerda con nuestra experiencia
común; implica que para un cuerpo de mayor masa se requiere una fuerza
proporcionalmente mayor para lograr una aceleración particular. Newton llegó así a su
segunda ley del movimiento: la fuerza aplicada es igual al producto de la masa del
cuerpo por su aceleración, o F = mA.
El alcance de esta generalización es impresionante. Puede parecer sorprendente que
Newton pudiera llegar a una ley fundamental tan completa a partir de las observaciones
y experimentos que se han descrito. Pero una vez que uno tiene la idea de agrupar todos
los empujones y tirones bajo el concepto de "fuerza", y de agrupar todos los cambios de
velocidad bajo el concepto de "aceleración", y de atribuir a todos los cuerpos una
propiedad llamada "masa" y de buscando una relación matemática entre estas
cantidades medidas, entonces unos pocos experimentos bien diseñados pueden dar
lugar a una ley. En esta etapa, sin embargo, la prueba de esta ley universal aún no está
completa. Depende no solo de lo anterior, sino de toda la evidencia presentada en esta
sección y la siguiente; es decir, la ley es parte de una teoría que debe evaluarse en su
conjunto.
Hemos visto cómo esta ley se basa en el principio de Galileo de que todos los
cuerpos caen con igual aceleración. Debido a que este principio era tan crucial para su
teoría del movimiento, Newton exigió que se estableciera mediante experimentos más
precisos que los de Galileo. Quería demostrar más allá de toda duda que la masa inercial
de un cuerpo —la propiedad por la cual resiste la aceleración— es exactamente
proporcional a su peso.
Newton se dio cuenta de que el péndulo proporcionaba los medios para tal
demostración experimental. Dedujo de F = mA que la masa inercial de un péndulo es
proporcional a su peso multiplicado por el período al cuadrado (asumiendo que la
longitud del péndulo se mantiene constante). Por tanto, si el período es siempre el
mismo para todas y cada una de las oscilaciones del péndulo, la masa inercial debe ser
exactamente proporcional al peso. Utilizando un recipiente pequeño como péndulo,
Newton varió tanto la masa como el material de los péndulos; llenó el recipiente con
oro, plata, vidrio, arena, sal, madera, agua e incluso trigo. Todas las sacudidas oscilaron
hacia adelante y hacia atrás con el mismo período, y realizó el experimento con tal
cuidado que fácilmente podría haber detectado una diferencia de una parte entre mil.
(El creador de la física moderna tenía pasión por la medición precisa).
Hasta ahora, Newton se había centrado en el movimiento de un cuerpo sujeto a una
fuerza aplicada. En esta etapa, centró su atención en la fuerza en sí y su origen: es
ejercida por otro cuerpo. ¿Qué le pasa a este otro cuerpo?
Para responder a la pregunta, Newton necesitaba estudiar la interacción de dos
cuerpos en condiciones en las que se conocen las fuerzas y se puede medir con precisión
el movimiento posterior de ambos. Ideó el experimento perfecto utilizando un péndulo
doble con sacudidas colisionando. Usó péndulos con una longitud de diez pies, y midió y
compensó cuidadosamente los pequeños efectos de la resistencia del aire. Varió la masa
de las sacudidas y sus amplitudes iniciales, y luego midió sus amplitudes finales después
de la colisión.
Galileo había demostrado que la velocidad de una sacudida en la parte inferior de la
oscilación es proporcional a la cuerda del arco a través del cual ha oscilado. Por tanto,
en el momento de la colisión, Newton conocía la velocidad relativa de ambas sacudidas.
Además, a partir de sus mediciones de las amplitudes finales, pudo calcular la velocidad
relativa de ambas sacudidas inmediatamente después de la colisión. Los resultados del
experimento mostraron que la masa del primer bob multiplicada por el cambio de su
velocidad es igual a la masa del segundo bob multiplicada por el cambio de su velocidad.
Dado que la fuerza ejercida sobre cada sacudida es igual al producto de su masa y su
cambio de velocidad, Newton había demostrado que las sacudidas ejercen fuerzas entre
sí que son iguales en magnitud y en dirección opuesta.
Newton realizó este experimento con péndulos de acero, vidrio, corcho e incluso
lana enrollada. En su elección de materiales, varió deliberadamente la dureza de las
sacudidas y, por lo tanto, demostró que su ley se aplicaba tanto a las colisiones elásticas
como a las inelásticas. Dado que todas las colisiones caen en una de estas dos categorías,
su generalización siguió: siempre que dos cuerpos ejercen fuerzas entre sí por medio
del contacto directo, las fuerzas son iguales en magnitud y se dirigen de manera
opuesta.
Newton luego investigó el caso de las fuerzas sin contacto, es decir, fuerzas que
actúan sobre distancias por medios imperceptibles. Colocó un imán y un poco de hierro
en un trozo de madera e hizo flotar la madera en aguas tranquilas. El imán y el hierro
estaban separados por una corta distancia y cada uno ejercía una fuerte fuerza de
atracción sobre el otro. Sin embargo, la embarcación no se movió, lo que implica que las
dos fuerzas eran de igual magnitud y se dirigían de manera opuesta, dando lugar a una
fuerza neta cero.
¿La ley también se aplica a los cuerpos que se atraen gravitacionalmente? Newton
respondió que sí y dio un argumento convincente. Dado que la Tierra atrae todos los
materiales en su superficie, era razonable suponer (y luego se probaría) que cada parte
de la Tierra atrae a todas las demás partes. Así que considere la atracción mutua, por
ejemplo, de Asia y América del Sur. Si estas dos fuerzas no fueran iguales y opuestas,
habría una fuerza neta en la Tierra como un todo y, por lo tanto, la Tierra provocaría su
aceleración. Esta autoaceleración continuaría indefinidamente y provocaría
perturbaciones en la órbita de la Tierra. Pero no se observan tales perturbaciones; por
el contrario, la aceleración de la Tierra está determinada por su posición en relación con
otros cuerpos (principalmente el sol). Por lo tanto, las fuerzas de atracción mutuas
ejercidas por dos partes de la Tierra deben ser iguales y opuestas.
En este punto, Newton había demostrado que su ley se aplica a las fuerzas
gravitacionales, las fuerzas magnéticas, las colisiones elásticas y las colisiones
inelásticas, es decir, reunió evidencia sobre el rango de fuerzas conocidas y no encontró
excepciones. Había llegado así a su tercera ley del movimiento: todas las fuerzas son
interacciones de dos cuerpos, y los cuerpos siempre ejercen fuerzas entre sí que son
iguales en magnitud y en dirección opuesta.
Al considerar un solo cuerpo, el concepto “velocidad” identificaba aquello que
permanecía igual en ausencia de una fuerza externa (esta es la primera ley). En el caso
de dos cuerpos que interactúan, Newton identificó una "cantidad de movimiento" total
que permanece igual antes y después de la interacción. Esta cantidad, que ahora
llamamos "momento", es el producto de la masa de un cuerpo y su velocidad. La tercera
ley de Newton implica que la cantidad de movimiento total de dos cuerpos que
interactúan siempre permanece igual, siempre que no exista una fuerza externa.
Además, este principio de "conservación del impulso" se aplica incluso a un sistema
complejo de muchos cuerpos que interactúan; dado que es cierto para cada interacción
individual, también es cierto para la suma.
Después de formar el concepto de "impulso", Newton podría dar una formulación
más general de su segunda ley. En su forma final, que es aplicable a un cuerpo o sistema
de cuerpos, la ley establece que la fuerza externa neta es igual a la tasa de cambio del
momento total. Esta forma de la ley se puede aplicar de manera sencilla a casos más
complejos (por ejemplo, imagine dos cuerpos que chocan y explotan en muchos
cuerpos).
Newton reconoció que sus tres leyes del movimiento están íntimamente
relacionadas. Hemos visto que la tercera ley prohíbe la autoaceleración de la Tierra,
pero observe que tal fenómeno también está prohibido por la primera y segunda leyes,
que identifican la causa de la aceleración como una fuerza externa. Dado el hecho de que
las fuerzas son interacciones de dos cuerpos, la coherencia con la segunda ley exige que
estas interacciones se ajusten a la tercera ley. Las leyes nombran aspectos relacionados
de una teoría integrada del movimiento; de hecho, cuando se da a la segunda ley su
formulación general, tanto la primera como la tercera pueden considerarse sus
corolarios. Por lo tanto, las leyes se refuerzan mutuamente y, por lo tanto, la evidencia
experimental de la tercera ley también cuenta como evidencia de la segunda ley.
He esbozado los principales pasos mediante los cuales Newton indujo sus leyes del
movimiento. En su declaración final, las leyes parecen engañosamente simples. Pero
ahora podemos apreciar que están muy lejos de ser evidentes. Para alcanzarlos, Newton
necesitaba conceptos complejos de alto nivel que no existían antes del siglo XVII,
conceptos como "aceleración", "límite", "gravedad", "masa" y "momento". Necesitaba
una variedad de experimentos que estudiaran la caída libre, el movimiento en plano
inclinado, péndulos, proyectiles, presión de aire, péndulos dobles e imanes flotantes. Se
basó en las observaciones que habían llevado a la teoría heliocéntrica del sistema solar,
en la experiencia de tirar hacia adentro para hacer oscilar un cuerpo en un círculo, en
las observaciones que determinaban la distancia a la luna, en los instrumentos
inventados para medir. fuerza, e incluso sobre el conocimiento químico de cómo
purificar materiales (ya que esto jugó un papel en la formación del concepto "masa").
Sus leyes se aplican a todo lo que observamos en movimiento, y las indujo a partir de
conocimientos que abarcan esa enorme base de datos.
Sin embargo, durante el siglo pasado, algunos filósofos, físicos e historiadores de la
ciencia han afirmado que las leyes del movimiento no son realmente leyes en absoluto;
más bien, son meras definiciones aceptadas por convención. Este punto de vista se
deriva de la filosofía empirista y fue famoso por Ernst Mach. 5Los empiristas consideran
la segunda ley como una definición conveniente del concepto "fuerza", que
supuestamente no tiene ningún significado excepto como un nombre para el producto
de masa y aceleración; de manera similar, argumentan que la tercera ley equivale a una
definición conveniente de "masa". Quienes defienden tales puntos de vista se han dejado
la incómoda tarea de responder algunas preguntas obvias. ¿Por qué una definición
particular es "conveniente", mientras que cualquier definición alternativa sería
cognitivamente desastrosa? ¿Qué pasa con las fuerzas estáticas que existen y se pueden
medir en ausencia de aceleración? ¿Cómo es posible que el concepto "fuerza" se haya
formado milenios antes que los conceptos "masa" y "aceleración"? No se han recibido
respuestas de los discípulos de Mach.
Newton no anticipó el escepticismo que se volvió desenfrenado en la era post-
kantiana. Consideró obvio el hecho de que las leyes del movimiento son verdades
generales alcanzadas por inducción y, por lo tanto, no se desvió de su camino para
enfatizar el punto. De hecho, consideraba que las leyes del movimiento no eran
controvertidas, razón por la cual su discusión sobre ellas en los Principia es tan concisa.
Veía estas leyes como el medio para su fin, no como el fin en sí mismo. Las leyes nos
permiten razonar desde los movimientos observados hasta las fuerzas que los causan, y
luego razonar desde estas fuerzas conocidas hasta todos sus diversos efectos. Como dijo
Newton, "[E] l todo el peso de la filosofía parece consistir en esto: desde los fenómenos
de los movimientos para investigar las fuerzas de la naturaleza, y luego desde estas
fuerzas para demostrar los otros fenómenos".6 Aclaró su significado al proporcionar un
ejemplo a gran escala de este programa.
La teoría atómica
La unificación de la química
Anteriormente, dejamos a los químicos enfrentando un problema. Habían descubierto
pruebas sólidas a favor de la teoría atómica, pero las ideas falsas sobre la naturaleza de
los gases y los enlaces químicos habían llevado a muchos a negar la posibilidad de
moléculas de gas diatómico, lo que los llevó a rechazar la hipótesis de Avogadro, lo que
los dejó incapaces de llegar a los pesos atómicos correctos, lo que llevó a un nido de
problemas, incluidas las contradicciones con la ley de Dulong-Petit de capacidades
caloríficas. El hecho de que las moléculas de gas elemental a menudo constan de más de
un átomo tuvo que aceptarse antes de que la química pudiera liberarse de las
contradicciones.
Una pista importante para resolver este problema provino del mismo tipo de
experimentos que se habían utilizado para justificar la teoría iónica de la unión
excesivamente simplificada. Cuando se emplearon baterías potentes en experimentos
de electrólisis, algunos químicos notaron un "olor a electricidad" en el electrodo
positivo. Era el mismo olor que se había notado anteriormente en experimentos que
involucraban descargas eléctricas en el aire. Los químicos se dieron cuenta de que en
tales experimentos se estaba produciendo un gas nuevo, al que llamaron "ozono".
El primer avance en cuanto a la identidad de este gas lo realizó en 1845 Jean de
Marignac, profesor de química en Ginebra. Marignac demostró que el ozono podría
producirse mediante una descarga eléctrica a través del gas oxígeno ordinario, y
concluyó que el ozono debe ser un alótropo del oxígeno. La existencia de dos gases de
oxígeno muy diferentes parecía imposible de explicar a menos que los átomos de
oxígeno pudieran combinarse con otros átomos de oxígeno. Aquí había un resultado
experimental que contradecía directamente el argumento en contra de las moléculas de
gas diatómico. El propio Berzelius, uno de los principales defensores de la teoría iónica
de la unión, reconoció la importancia de este descubrimiento. Ya no era razonable negar
que las moléculas de gas pudieran ser combinaciones de átomos idénticos.
Por tanto, el descubrimiento del ozono, en combinación con la derivación de
Waterston de la ley de los gases, debería haber llevado a la aceptación de la hipótesis de
Avogadro en la década de 1840. Sin embargo, por razones que se explicarán en el
próximo capítulo, hubo un fuerte sesgo en contra de la teoría atómica y, en
consecuencia, el artículo de Waterston nunca se publicó. Como resultado, la confusión
generalizada sobre los pesos atómicos persistió durante más tiempo del necesario. Fue
un físico alemán, August Kroenig, quien finalmente repitió la derivación de Waterston y
la publicó en 1856.
A diferencia de Waterston, Kroenig no señaló explícitamente que la teoría atómica
de los gases proporcionó una validación fundamental de la hipótesis de Avogadro. Sin
embargo, al menos un químico comprendió la implicación. En 1858, Stanislao
Cannizzaro presentó la solución al problema de los pesos atómicos en un documento
histórico titulado "Bosquejo de un curso de filosofía química". El documento es un
modelo de pensamiento claro sobre un tema que había estado sumido en la oscuridad y
las contradicciones durante décadas.
Cannizzaro mostró cómo integrar todos los datos relevantes para llegar a un
conjunto de pesos atómicos determinados de forma única. La hipótesis de Avogadro
formó la pieza central de su argumento. Muchos de los elementos más comunes, por
ejemplo, hidrógeno, carbono, nitrógeno, oxígeno, azufre, cloro, se combinan de diversas
formas para formar gases. Se midieron las densidades de vapor de los gases. Además, en
los gases compuestos, se conocía el porcentaje en peso de cada elemento. El producto de
la densidad del vapor y el peso porcentual da la densidad de masa de cada elemento del
gas. Dado que el número de moléculas es siempre el mismo para volúmenes iguales
(según la hipótesis de Avogadro), estas densidades de masa son proporcionales al
número de átomos del elemento que están contenidos en la molécula de gas. Por tanto,
se puede determinar la composición atómica de las moléculas de gas, y luego se pueden
deducir los pesos atómicos relativos de los elementos. Cannizzaro demostró que si al
hidrógeno (el elemento más ligero) se le asigna un peso atómico de 1, entonces el peso
del carbono es 12, el nitrógeno es 14, el oxígeno es 16 y el azufre es 32.
Una vez que se conocieron los pesos atómicos de estos elementos, se podrían
determinar los pesos de la mayoría de los demás elementos en relación con ellos. En los
casos en que persistían las ambigüedades, Cannizzaro a menudo las resolvía utilizando
la ley de Dulong-Petit de capacidades caloríficas. Por lo general, los pesos atómicos
candidatos diferían en un factor de dos, con un valor conforme a la ley de Dulong-Petit y
el otro valor contradeciéndola.
En 1860, Cannizzaro aprovechó la oportunidad para presentar su artículo en una
importante conferencia celebrada en Karlsruhe, Alemania. Este famoso encuentro se
convirtió en un punto de inflexión para la química del siglo XIX; en unos pocos años, la
mayoría de los químicos aceptaron los pesos atómicos correctos. Un profesor de
química, Lothar Meyer, expresó su reacción al artículo de Cannizzaro con las siguientes
palabras: “Fue como si me cayeran escamas de los ojos, la duda se desvaneciera y fuera
reemplazada por un sentimiento de certeza pacífica”.dieciséis
Una vez eliminado su mayor obstáculo, los químicos lograron un rápido progreso
durante la siguiente década. Con los pesos atómicos correctos, podrían determinar las
fórmulas moleculares correctas. Surgió un patrón que llevó al nuevo concepto de
"valencia", que se refiere a la capacidad de un átomo de combinarse con otros átomos.
Por ejemplo, un átomo de carbono se puede combinar con hasta otros cuatro átomos, un
átomo de nitrógeno con tres, un átomo de oxígeno con dos y un átomo de hidrógeno con
uno. En sentido figurado, se puede pensar en la valencia como el número de "ganchos"
que tiene un átomo para unirse a otros átomos.
El concepto de "valencia" fue introducido por primera vez por el químico inglés
Edward Frankland, quien había llegado a la idea mientras estudiaba las diversas formas
en que el carbono se combina con los metales.17Frankland fue uno de los primeros
químicos en hacer uso de modelos de estructura molecular de bolas y alambres; en tales
modelos, la valencia de un átomo corresponde al número de cables conectados a la bola.
En 1861 escribió: “El comportamiento de los cuerpos organometálicos enseña una
doctrina que afecta a los compuestos químicos en general, y que puede llamarse la
doctrina de la saturación atómica; cada elemento es capaz de combinarse con un cierto
número de átomos; y este número nunca se puede superar ... "18Primero identificó esta
"ley de valencia" en la década de 1850, pero en muchos casos las valencias que
inicialmente asignó a los átomos estaban equivocadas. En 1866, una vez corregidos los
errores, Frankland expresó su agradecimiento a Cannizzaro: “No olvido cuánto debe
esta ley en su actual desarrollo a la labor de Cannizzaro. De hecho, hasta que este último
colocó los pesos atómicos de los elementos metálicos sobre su base consistente actual,
el desarrollo satisfactorio de la doctrina fue imposible ”. 19
En 1869, una revista inglesa publicó un artículo de revisión sobre la teoría atómica
que se refería a la valencia como "la nueva idea que está revolucionando la
química".20Esto no fue una exageración. A principios de ese año, el químico ruso Dmitry
Mendeleyev había propuesto una clasificación sistemática de los elementos químicos,
basada en las propiedades del peso atómico y la valencia, "que unificaba y racionalizaba
todo el esfuerzo de la investigación química".21
Varios químicos habían notado anteriormente que existen grupos naturales de
elementos químicos que poseen propiedades similares. Seis de estos grupos (conocidos
en ese momento) son: (1) litio, sodio y potasio; (2) calcio, estroncio y bario; (3) flúor,
cloro, bromo y yodo; (4) oxígeno, azufre, selenio y telurio; (5) nitrógeno, fósforo,
arsénico y antinomia; y (6) carbono, silicio y estaño. En cada grupo, los elementos
tienen la misma valencia y afinidades eléctricas similares.
Mendeleyev construyó una tabla de todos los elementos conocidos en orden de peso
atómico creciente y notó que los elementos similares se repiten a intervalos definidos.
Así anunció su "ley periódica": Las propiedades de los elementos son funciones
periódicas de sus pesos atómicos. En la versión moderna de su tabla, que se presenta en
todos los cursos de introducción a la química, los elementos aparecen en orden de peso
atómico ascendente en las filas horizontales, y las columnas verticales contienen
elementos de la misma valencia.
Mendeleyev señaló que "los lugares vacantes se producen por elementos que tal vez
se descubran con el tiempo". Al comprender cómo se relacionan otras propiedades de
un elemento con su peso atómico y valencia, se dio cuenta de que "es posible predecir
las propiedades de un elemento aún desconocido". Por ejemplo, había un espacio debajo
del aluminio que se llenó cuando se descubrió el galio en 1875, y otro espacio debajo del
silicio que se llenó cuando se descubrió el germanio en 1886. Mendeleyev predijo las
propiedades de ambos elementos, y sus predicciones fueron notablemente precisas. Con
la construcción de la tabla periódica, los elementos químicos ya no se separaron de
forma aislada; la teoría atómica había hecho posible conectarlos juntos en un todo
inteligible.22
Los pesos atómicos y valencias correctos también condujeron a avances en la nueva
frontera de la investigación química: la determinación de la estructura molecular. En
1861, el químico ruso Alexander Butlerov describió el ambicioso objetivo de este nuevo
programa de investigación: “Solo es posible una fórmula racional para cada compuesto,
y cuando se hayan derivado las leyes generales que gobiernan la dependencia de las
propiedades químicas de la estructura química, esta fórmula será representan todas
estas propiedades ".23Butlerov se dio cuenta de que no era suficiente conocer el número
de átomos y sus identidades; Para comprender las propiedades de un compuesto, se
debe determinar la disposición espacial de los átomos dentro de la molécula. Uno de los
primeros grandes triunfos de este programa fue el descubrimiento de la estructura
molecular del benceno.
La existencia del benceno se conocía desde hacía décadas. En 1825, la Portable Gas
Company de Londres le pidió a Michael Faraday que analizara un misterioso
subproducto líquido del proceso que generaba gas natural para la iluminación. Por
destilación, obtuvo la primera muestra de benceno puro, un compuesto que estaba
destinado a ser de gran utilidad tanto en la teoría química como en la práctica
industrial. El intento de análisis de Faraday, sin embargo, no fue del todo exitoso. Sin la
hipótesis de Avogadro y con la suposición de que el peso atómico del carbono es seis en
lugar de doce, llegó a la fórmula molecular incorrecta de C2H.
Después del trabajo de Cannizzaro, la fórmula molecular del benceno se identificó
correctamente como C6H6, pero su estructura seguía siendo un misterio. Era un
compuesto muy estable que podía convertirse en muchos derivados sin descomponerse.
Esto fue sorprendente, dado que la proporción de hidrógeno a carbono era tan baja. Por
el contrario, el compuesto acetileno (C2H2) tiene la misma relación baja hidrógeno-
carbono y es altamente reactivo.
El estudio de los derivados del benceno, es decir, compuestos en los que uno o más
de los átomos de hidrógeno son reemplazados por un átomo (o grupo de átomos)
diferente, reveló otra propiedad interesante. Se encontró, por ejemplo, que solo se
forma un compuesto de clorobenceno cuando un átomo de cloro se sustituye por
cualquiera de los átomos de hidrógeno. Por tanto, los átomos de hidrógeno deben
ocupar posiciones indistinguibles en la estructura, lo que implica que la molécula de
benceno es muy simétrica.
La estructura molecular del benceno que explica tanto su estabilidad como su
simetría fue propuesta por primera vez en 1861 por Loschmidt. Los seis átomos de
carbono forman un anillo hexagonal simétrico, con un átomo de hidrógeno unido a cada
carbono. La naturaleza tetravalente del carbono implica que el anillo debe mantenerse
unido alternando enlaces simples y dobles; de esta manera, cada átomo de carbono usa
tres de sus enlaces en átomos de carbono adyacentes y el cuarto en el átomo de
hidrógeno.
Desafortunadamente, el libro de Loschmidt recibió solo una pequeña impresión de
un editor desconocido y, en consecuencia, pocos químicos lo leyeron. La mayoría de los
químicos se enteraron de esta estructura propuesta del benceno por el famoso químico
alemán August Kekule, quien la publicó en 1865. Kekule fue mucho más lejos que
Loschmidt al realizar un extenso estudio de muchos isómeros de derivados del benceno.
Por ejemplo, demostró que el diclorobenceno, el triclorobenceno y el tetraclorobenceno
existen cada uno en tres formas isoméricas diferentes, exactamente como lo predice la
estructura del anillo hexagonal. En 1872, Kekule informó que "no había salido a la luz
ningún ejemplo de isomería entre los derivados del benceno que no pudiera explicarse
completamente por la diferencia en las posiciones relativas de los átomos sustituidos
por hidrógeno".24Fue un logro histórico: los químicos ahora tenían el conocimiento y las
técnicas experimentales necesarias para inferir la distribución espacial de los átomos en
las moléculas. Las moléculas en sí mismas no se podían ver, pero tampoco podían
esconderse.
El caso del benceno se simplificó por el hecho de que la molécula tiene una
estructura plana. En la mayoría de las moléculas, los átomos se distribuyen en tres
dimensiones. El estudio de las estructuras moleculares tridimensionales se denomina
estereoquímica y sus orígenes se remontan al primer gran descubrimiento de Louis
Pasteur.
En 1846, Pasteur comenzó un estudio del tartrato de sodio y amonio, una sustancia
cristalina que se sabía que era ópticamente activa (es decir, que gira el plano de la luz
polarizada). Cuando miró los pequeños cristales con una lupa, notó que eran sutilmente
asimétricos; había una pequeña faceta en un lado que no aparecía en el otro lado. Pensó
que esta asimetría podría ser la causa de la actividad óptica. Así que decidió examinar
los cristales de racemato de sodio y amonio, un isómero ópticamente inactivo del
tartrato. Si los cristales del racemato fueran simétricos, tendría una fuerte evidencia de
que la asimetría en el tartrato provoca la rotación de la luz.
En cambio, Pasteur descubrió que los cristales racémicos se presentaban en dos
variedades, ambas asimétricas y cada una la imagen especular de la otra. Usando pinzas,
separó cuidadosamente los dos tipos de cristales. Uno de los cristales era idéntico al
tartrato y hacía girar el plano de luz polarizada en la misma dirección. El cristal de
imagen especular hizo girar la luz en la misma cantidad pero en la dirección opuesta. El
racemato es ópticamente inactivo porque el efecto de un cristal se cancela por el efecto
de su imagen especular.
¿Por qué es esto relevante para la estructura molecular? Porque estos compuestos
isoméricos rotan el plano de la luz polarizada incluso cuando están disueltos en
solución. La asimetría que causa la rotación persiste después de que el cristal se rompe
en las moléculas que lo componen. Pasteur concluyó que la asimetría es una propiedad
de las propias moléculas. En 1860, escribió: “¿Están los átomos… agrupados en la
espiral de una hélice derecha, o están situados en los ápices de un tetraedro regular, o
están dispuestos de acuerdo con alguna otra disposición asimétrica? No sabemos. Pero
de esto no hay duda de que los átomos poseen una disposición asimétrica como la de un
objeto y su imagen especular ”.25
La respuesta a la pregunta de Pasteur fue proporcionada por Jacobus van 't Hoff en
1874. Van' t Hoff se dio cuenta de que las estructuras de la imagen especular y la
actividad óptica resultante podrían explicarse si los cuatro enlaces de un átomo de
carbono apuntan a los vértices de un tetraedro (una pirámide triangular). En esta
disposición, siempre que cuatro átomos diferentes (o grupos de átomos) se unan al
carbono en el centro del tetraedro, será posible crear dos isómeros que son imágenes
especulares. La estructura tetraédrica de los enlaces de carbono explicó los resultados
de Pasteur y los otros casos conocidos de actividad óptica en compuestos orgánicos (por
ejemplo, ácido láctico o gliceraldehído).
Además, la disposición simétrica tridimensional de enlaces de carbono de Van 't Hoff
proporcionó la solución a otro problema. La suposición de una estructura plana con los
cuatro enlaces de carbono dispuestos en un cuadrado había llevado a la predicción de
isómeros inexistentes. Por ejemplo, considere el compuesto dicloruro de metilo, que
tiene la fórmula CH2Cl2. La estructura plana predice dos isómeros; los átomos de cloro
pueden estar en un lado del cuadrado o diagonalmente opuestos entre sí. En la
estructura tetraédrica, sin embargo, todos los arreglos son idénticos, lo cual fue
consistente con el análisis de laboratorio que pudo aislar solo un dicloruro de metilo.
Dos décadas antes, el objetivo de comprender las propiedades de los compuestos en
términos de la disposición espacial de los átomos en las moléculas parecía inalcanzable.
Ahora se había logrado. La teoría atómica había integrado la ciencia de la química y
demostró su poder explicativo de manera dramática. Con respecto a la contribución de
Van 't Hoff, un historiador escribe: “En 1874, la mayoría de los químicos ya habían
aceptado la teoría de la estructura, y ahora aquí estaba la prueba definitiva. A todos los
efectos, se resolvió el gran debate sobre si los átomos y las moléculas existían
realmente, cuyas raíces se remontan a Dalton y, antes que a él, a los antiguos ”. 26
Esto es verdad; a mediados de la década de 1870, la evidencia de la teoría atómica
era abrumadora. Ya no eran posibles las dudas razonables.
El método de la prueba
Los científicos del siglo XIX descubrieron la naturaleza fundamental de la materia de la
misma manera que los científicos del siglo XVII descubrieron las leyes fundamentales
del movimiento. A lo largo de este capítulo, hemos visto el mismo método en
funcionamiento, es decir, conceptos objetivos que funcionan como luces verdes para la
inducción, el papel del experimento y las matemáticas en la identificación de leyes
causales y la integración a gran escala que culmina en la demostración. Analicemos
ahora los pasos que llevaron a este magnífico logro.
Lavoisier comprendió que el lenguaje es más que una condición previa necesaria
para expresar nuestros pensamientos sobre el mundo; nuestros conceptos conllevan un
compromiso de generalizar sobre sus referentes y, por tanto, dirigen y posibilitan
nuestra búsqueda de leyes. Como dijo, si los químicos aceptaban el lenguaje propuesto,
"deben seguir irresistiblemente el rumbo marcado por él".
El lenguaje de Lavoisier guió a los químicos por el camino que finalmente condujo a
la teoría atómica. Su sistema exigía que se respondieran ciertas preguntas para
conceptualizar adecuadamente un material: ¿es una sustancia o una mezcla? Si es una
sustancia, ¿se puede descomponer en diferentes elementos? En los casos en que
diferentes sustancias están hechas de los mismos elementos, ¿cómo se distinguen las
sustancias? Estas son las preguntas que ponen a los químicos en un camino para
descubrir las leyes de la composición constante y las proporciones múltiples y,
finalmente, para identificar los pesos relativos de los átomos y las fórmulas moleculares
de los compuestos.
Al igual que en el caso de la física, el camino hacia la química moderna primero
necesitaba ser despejado mediante la eliminación de conceptos inválidos. Por ejemplo,
Lavoisier lideró la batalla contra el concepto “flogisto”, que se refería al supuesto
elemento asociado al fuego. Se pensaba que una vela encendida liberaba flogisto al aire
circundante. Si la vela se coloca en un recipiente cerrado, la llama se extingue cuando el
aire se satura y no puede absorber más flogisto. El gas restante que no permitiría la
combustión, que era nitrógeno puro, se identificó como aire normal más flogisto.
Cuando se aisló la parte del aire que sí favorecía la combustión, es decir, el oxígeno, se la
identificó como aire normal menos flogisto. Se cometió un error similar cuando el agua
se descompuso por primera vez en hidrógeno y oxígeno. El hidrógeno se identificó
como agua más flogisto,
Sin embargo, mediante análisis cuantitativo, se descubrió que una sustancia en
combustión gana peso mientras que el aire circundante pierde peso. Aquellos que
siguieron el rumbo marcado por el concepto "flogisto" se vieron obligados entonces a
atribuir a este elemento una masa negativa. Si los químicos hubieran continuado por
este camino y hubieran admitido la posibilidad de elementos con masa negativa,
habrían abandonado el principio que les permitía distinguir elementos de compuestos,
y el progreso de la química se habría detenido abruptamente. Afortunadamente, la
mayoría de los químicos descartaron la idea de "masa negativa" como arbitraria.
Siguieron a Lavoisier cuando rechazó el flogisto e identificó la combustión como el
proceso de una sustancia que se combina con el oxígeno.
El lenguaje químico de Lavoisier proporcionó parte de la base, pero hemos visto que
la teoría atómica requería la formación de muchos otros conceptos. Casi todas las leyes
que contribuyeron a la prueba de la teoría hicieron uso de un nuevo concepto crucial.
Está la hipótesis de Avogadro y el concepto de "molécula", la ley de Dulong-Petit y los
conceptos de "calor específico" y "peso atómico", la ley de electrólisis de Faraday y el
concepto de "ion", la ley de los gases de Waterston y el concepto de "energía"
( integrando movimiento y calor), las leyes de Maxwell de los procesos de transporte
gaseoso y el concepto de "camino libre medio", y la ley periódica de Mendeleyev y el
concepto de "valencia". En cada caso, los hechos dieron lugar a la necesidad de un nuevo
concepto, y luego ese concepto permitió captar una relación causal que había sido
inaccesible sin él.
Dado un marco conceptual válido, las relaciones causales se descubrieron mediante
la experimentación. En algunos casos, se indujeron directamente a partir de los datos
experimentales (por ejemplo, la ley de los gases de Charles, la ley de la composición
constante, la ley de las proporciones múltiples y la ley de combinar los volúmenes de
gas). Estas leyes se alcanzaron y validaron independientemente de la teoría atómica. En
otros casos, como lo ilustra la teoría cinética de los gases, las leyes se dedujeron
matemáticamente de premisas sobre los átomos que se basaban en datos
experimentales; estas leyes fueron luego confirmadas por experimentos adicionales.
Todos los experimentos discutidos en este capítulo contribuyeron a la demostración
de la teoría atómica. Sin embargo, algunos de ellos se destacan como cruciales. El mejor
ejemplo es el experimento de Maxwell que muestra que la viscosidad gaseosa es
independiente de la densidad. La teoría atómica ofreció una explicación simple para
este sorprendente resultado, una explicación que se basa en el hecho de que los gases
consisten en partículas muy separadas que se mueven libremente entre colisiones. Por
el contrario, una teoría del continuo de la materia parecería implicar que un medio más
denso debería ofrecer una mayor resistencia al movimiento a través de él. Así, este
experimento aisló un caso en el que la teoría atómica hacía una predicción que la
diferenciaba de cualquier teoría del continuo.
Un experimento u observación "crucial" confirma la predicción de una teoría al
tiempo que contradice las teorías alternativas. Un buen ejemplo de la astronomía lo
proporcionan las observaciones telescópicas de Venus de Galileo, que mostraron una
gama completa de fases a medida que el planeta se movía alrededor del sol. Estas
observaciones fueron predichas por la teoría heliocéntrica y contradecían
rotundamente la teoría de Ptolomeo. Otro ejemplo se puede encontrar en óptica: la
recombinación de Newton del espectro de color para producir luz blanca fue predicha
por su teoría, y contradecía las teorías alternativas propuestas por Descartes y Hooke.
Muchos filósofos de la ciencia niegan que cualquier experimento en particular pueda
considerarse "crucial". Este rechazo de experimentos cruciales se remonta a Pierre
Duhem y Willard Quine, y se le conoce comúnmente como la tesis de Duhem-Quine.
Argumentaron que ningún experimento por sí solo puede desempeñar un papel
decisivo en la validación o refutación de una teoría amplia. En un sentido trivial, esto es
cierto: un experimento, considerado de forma aislada, no puede realizar tal función. Sin
embargo, los resultados de un solo experimento —cuando sus implicaciones no son
eludidas por hipótesis arbitrarias y cuando se juzga dentro del contexto total del
conocimiento— pueden jugar y desempeñan regularmente un papel tan decisivo. La
evaluación de los nuevos datos como cruciales depende del contexto.
El experimento proporciona acceso a las matemáticas mediante la medición
numérica. Al comienzo de una investigación, se pueden realizar experimentos no
cuantitativos para determinar si un efecto ocurre en circunstancias específicas. Tales
experimentos caracterizan la historia temprana de la química, la electricidad y el calor.
Sin embargo, a medida que avanza la investigación, los experimentos deben implicar la
realización de mediciones numéricas. Los descubrimientos descritos en este capítulo
dependieron por completo de mediciones realizadas con balanzas de masa de precisión,
termómetros, barómetros, amperímetros, aparatos para determinar las densidades de
vapor, etc. Las leyes causales integradas por la teoría atómica son ecuaciones que
expresan relaciones entre los datos numéricos.
Con respecto a la química, podemos plantear la misma pregunta que hicimos
anteriormente sobre la astronomía: ¿Qué progreso fue posible sin las matemáticas?
Encontramos una respuesta similar. Así como un pastor antiguo podía usar sus
observaciones del cielo como un reloj y una brújula, un químico primitivo podía usar su
conocimiento de las reacciones con el propósito práctico de purificar metales o
sintetizar tintes. Sin embargo, tanto en astronomía como en química, esta etapa
prematemática consistió en una lista muy larga de elementos de conocimiento
separados, sin forma de comprender las relaciones causales que los conectan. Ambos
campos se convirtieron en ciencias solo cuando las medidas numéricas se unificaron
mediante leyes expresadas en forma matemática.
El mismo punto se ve en el estudio del calor. Los experimentos cualitativos de
Rumford y Davy proporcionaron una fuerte evidencia de que el calor era una forma de
movimiento interno, pero la idea no condujo a ninguna parte durante los siguientes
cuarenta y cinco años. Por el contrario, cuando Joule midió la relación cuantitativa entre
el calor y el movimiento, abrió las compuertas a nuevos descubrimientos. La
temperatura se identificó con la energía cinética promedio de las moléculas y, en veinte
años, la teoría cinética de los gases había explicado una enorme variedad de datos.
En la ciencia física, las verdades cualitativas son meros puntos de partida; pueden
sugerir un curso de investigación, pero esa investigación sólo tiene éxito cuando llega a
una relación causal entre cantidades. Entonces se desata el poder de las matemáticas; Se
pueden identificar conexiones entre hechos que anteriormente parecían no tener
ninguna relación (p. ej., colisiones elásticas en mecánica y flujo de calor entre cuerpos, o
la capacidad calorífica de un elemento y la masa de sus átomos, o los volúmenes de los
gases que reaccionan y la composición de las moléculas. , o conducción de calor en gases
y tamaño de moléculas). Las matemáticas son el medio que tiene el científico para
integrar su conocimiento.
Consideremos ahora el resultado final del método inductivo: la demostración de una
teoría física. Una teoría es un conjunto integrado de principios en los que se basa todo
un tema; como tal, subsume y explica los hechos particulares y las leyes más estrictas.
Debido a la naturaleza abstracta de una teoría, puede ser difícil para un científico
decidir cuándo la evidencia ha culminado en una prueba. Sin embargo, esta pregunta es
de gran importancia práctica. Si el estándar de prueba de un científico es demasiado
bajo, puede aceptar fácilmente una teoría falsa y realizar una investigación que no lleve
a ninguna parte (las teorías basadas en el flogisto y el calórico son buenos ejemplos).
Pero el hecho de no aceptar una teoría probada en nombre de supuestos "estándares
más altos" es igualmente desastroso; dado que el progreso ulterior en el campo
depende de la teoría,
Hemos visto que la evidencia de los átomos se acumula durante un período de siete
décadas. Por supuesto, este progreso no se detuvo a mediados de la década de 1870;
cada década a partir de entonces, más descubrimientos se sumaron al poder explicativo
de la teoría. Pero estos descubrimientos posteriores no contribuyeron a la prueba, que
ya estaba completa. Repasemos ahora la evidencia e identifiquemos los criterios de
prueba.
En el primer tercio del siglo XIX, se descubrieron cuatro leyes que sustentaban la
naturaleza atómica de los elementos químicos: (1) los elementos se combinan en
unidades discretas de masa para formar compuestos; (2) las reacciones gaseosas
involucran unidades enteras de volumen; (3) un elemento sólido tiene una capacidad
calorífica que es proporcional al número de unidades de masa discretas; (4) la cantidad
de electricidad generada por una reacción química es proporcional al número de
unidades de masa discretas que reaccionan en los electrodos. Además, el
descubrimiento de alótropos e isómeros proporcionó evidencia adicional para la teoría
atómica, que tenía el potencial de explicarlos como diferentes arreglos espaciales de los
mismos átomos.
Estas leyes incluyen una gran cantidad de datos que abarcan los campos de las
reacciones químicas, el calor y la electricidad. Al atribuir a los átomos o moléculas las
masas, los volúmenes gaseosos, las cantidades de calor y las cargas eléctricas
adecuadas, la teoría atómica podría ofrecer explicaciones de las cuatro leyes. ¿Por qué
esto no es suficiente para probar la teoría?
El problema era que los científicos no tenían razones independientes para asignar a
los átomos y moléculas las propiedades necesarias para explicar estas leyes. Considere
la hipótesis de Avogadro, que se introdujo para explicar la ley de combinar volúmenes.
Inicialmente, la hipótesis no podía conectarse con otros conocimientos sobre los gases
y, como hemos visto, chocaba con puntos de vista ampliamente sostenidos (pero falsos)
sobre los enlaces químicos y la causa de la presión gaseosa. Un punto similar se aplica a
la explicación atómica ofrecida por Dulong y Petit para su ley de capacidades caloríficas.
No pudieron dar ninguna razón por la cual cada átomo debería absorber la misma
cantidad de calor, y no pudieron conectar su hipótesis con otros conocimientos sobre el
calor y la temperatura. Por lo tanto, en esta etapa,
Hemos visto cómo estas dudas fueron finalmente superadas por descubrimientos
sobre la naturaleza del calor y los gases. Los experimentos que estudiaron la conversión
del movimiento en calor proporcionaron una fuerte evidencia de que la temperatura es
una medida de la energía cinética interna. Esta idea se integró con la ley Dulong-Petit;
era razonable esperar que los átomos en equilibrio térmico tuvieran la misma energía
cinética promedio. Además, cuando la idea se combinó con un modelo molecular simple
de gases, podría usarse para derivar la ley básica que relaciona la presión, el volumen y
la temperatura de un gas. La hipótesis de Avogadro surgió de este análisis como
consecuencia, conectando así la hipótesis con la ley de los gases de Charles y con las
leyes del movimiento de Newton.
Esto fue casi suficiente para transformar la idea de Avogadro de una hipótesis en
una ley. Sin embargo, aún podían surgir dudas razonables sobre el modelo simple de
"bola de billar" de las moléculas de gas que se había asumido en la derivación de la ley
de Charles. La teoría no fue del todo convincente hasta que pudo explicar otras
propiedades conocidas de los gases. Por tanto, el trabajo de Maxwell fue crucial; cuando
desarrolló y amplió el modelo para explicar los procesos de transporte gaseoso (es
decir, difusión, conducción de calor y viscosidad), entonces el rango de datos integrados
por la teoría cinética de los gases no dejó motivos legítimos para un escepticismo
persistente.
Dada la fuerza de esta evidencia, los químicos se vieron obligados a aceptar la idea
de Avogadro junto con todas sus implicaciones. ¿Fue probada entonces la teoría
atómica? No del todo, por una razón. La química había estado sumida en el caos durante
décadas, y los químicos tardaron algún tiempo en utilizar su nuevo conocimiento sobre
los átomos para integrar y explicar los hechos de su ciencia. Una vez que identificaron
los pesos atómicos y valencias correctos, el desarrollo de la tabla periódica y el triunfo
de la teoría de la estructura molecular completaron la demostración.
En esta etapa, la evidencia de la teoría atómica satisfizo tres criterios que son
esenciales para la prueba de cualquier teoría amplia.
Primero, cada concepto y cada generalización contenida en la teoría debe derivarse
de observaciones mediante un método válido. Una teoría probada no puede tener
conceptos como "flogisto" o "espacio absoluto", ni relaciones causales que no se deriven
de los datos de observación. A menudo se afirma que una buena teoría predice
correctamente algunas observaciones y no contradice ninguna. Este criterio
comúnmente establecido es necesario, por supuesto, pero está muy lejos de ser
suficiente; puede satisfacerse con teorías falsas o incluso arbitrarias. Hemos visto que la
teoría atómica tiene una relación diferente con los datos: cada ley subsumida por la
teoría fue rigurosamente inducida a partir de los resultados de los experimentos.
En segundo lugar, una teoría probada debe formar un todo integrado. No puede ser
un conglomerado de partes independientes que se ajustan libremente para ajustarse a
los datos (como fue el caso de la astronomía ptolemaica). Más bien, las diversas partes
de la teoría están interconectadas y se refuerzan mutuamente, de modo que la negación
de cualquier parte conduce a contradicciones en todo el conjunto. Una teoría debe tener
esta característica para que la evidencia la requiera. De lo contrario, no se podría llegar
a una evaluación concluyente sobre la relación entre la evidencia y la teoría; en el mejor
de los casos, se podría evaluar sólo la relación entre la evidencia y partes de la teoría.
Por otro lado, cuando una teoría es un todo integrado, entonces la evidencia para
cualquier parte es evidencia para el todo.
A mediados de la década de 1870, la teoría atómica cumplió este criterio. Se
encontró que las propiedades de los átomos que habían sido hipotetizadas para explicar
un conjunto de hechos experimentales eran indispensables en la explicación de otros
hechos y leyes. Por ejemplo, la hipótesis de Avogadro comenzó como una explicación de
una ley que gobierna las reacciones químicas de los gases, y luego se convirtió en una
parte esencial de una teoría que derivaba las propiedades físicas de los gases de la
mecánica newtoniana. No se puede negar la hipótesis de Avogadro sin contradecir la
explicación de media docena de leyes y cortar la conexión entre los átomos y las leyes
del movimiento. De manera similar, la hipótesis atómica de Dulong y Petit no explica
simplemente las capacidades caloríficas de los sólidos; se convirtió en parte de una
teoría que relacionaba el calor con el movimiento atómico en todos los materiales.
Para concretar aún más este punto, consideremos las consecuencias de hacer un
pequeño cambio en la teoría. Por ejemplo, imagine que los científicos se negaron a
corregir la fórmula molecular propuesta por Faraday para el benceno, C2H. Las
mediciones de la densidad de vapor del gas benceno contradecirían la hipótesis de
Avogadro, que tendría que ser rechazada junto con la teoría cinética de los gases que la
implica. Además, dado que esta fórmula incorrecta implica la valencia incorrecta para el
carbono, los químicos también se verían obligados a rechazar la ley periódica de
Mendeleyev y la teoría de las estructuras moleculares en química orgánica. Las
consecuencias de este único cambio dejarían toda la teoría atómica en ruinas. Cuando
una teoría es un todo, las partes no pueden ajustarse libremente; están limitados por
sus relaciones con el resto de la teoría y los hechos en los que se basa.
El tercer criterio se refiere al rango de datos integrados por la teoría. El alcance de
una teoría probada debe estar determinado por los datos a partir de los cuales se
obtiene; es decir, la teoría no debe ser más amplia ni más estrecha de lo que se requiere
para integrar los datos. Este criterio no es independiente de los dos primeros;
simplemente hace explícita una implicación crucial. Si la teoría es demasiado amplia, la
evidencia no la necesita y, por lo tanto, viola el primer criterio (en tal caso, la teoría
puede ser una hipótesis legítima, pero no puede considerarse probada). Si la teoría es
demasiado estrecha, no logrará la integración descrita por el segundo criterio.
Por ejemplo, cuando Kepler integró las observaciones de los planetas de Brahe, llegó
a leyes que estaban restringidas al movimiento planetario. Para que Newton alcanzara
las leyes universales, tuvo que incluir datos sobre los movimientos de cuerpos
terrestres, lunas, océanos y cometas. De manera similar, a principios del siglo XIX,
cuando la teoría atómica solo se apoyaba en datos de la química, solo se podían llegar a
conclusiones sobre la naturaleza discreta de las reacciones químicas. En esta etapa era
una hipótesis que la teoría podría generalizarse a una teoría fundamental de la materia.
Para llegar a esta generalización, los científicos necesitaban una serie de datos que
los obligaran a considerar los átomos como unidades básicas de materia, no
simplemente como unidades de reacciones químicas. El avance se produjo cuando los
físicos explicaron la naturaleza del calor y los gases en términos de átomos de cierto
tamaño que se movían de acuerdo con las leyes de Newton. Las leyes del movimiento se
aplican a la materia como materia, no a los elementos químicos como elementos
químicos. Cuando estas propiedades físicas de los materiales pudieron explicarse
mediante átomos en movimiento, la teoría atómica se convirtió en una teoría
fundamental de la materia que reunió en un todo las leyes que gobiernan las reacciones
químicas, el movimiento, el calor, la corriente eléctrica y las diversas propiedades de los
gases.
Los tres criterios describen la relación entre una teoría probada y la evidencia que la
respalda. Cuando todos los aspectos de la teoría se inducen a partir de los datos (no se
inventan a partir de la imaginación), y la teoría forma un todo cognitivo (no una
colección independiente de leyes), y el alcance de la teoría se deriva objetivamente del
rango de datos, entonces la teoría es verdaderamente una integración (criterio 2) de los
datos (criterio 1), ni más ni menos (criterio 3).
Un concepto válido debe satisfacer criterios similares; se deriva de observaciones
(no un producto de la fantasía), es una integración de concretos similares (no una mera
colección), y su definición no debe ser demasiado amplia ni demasiado estrecha. Por
supuesto, existen muchas diferencias entre un concepto y una teoría científica. Sin
embargo, los criterios de validación son similares, porque se trata de principios amplios
que identifican cómo una facultad conceptual forma adecuadamente un todo cognitivo.
Estos criterios no se pueden cuantificar. Sería ridículo afirmar, por ejemplo, que se
requieren 514 pruebas para probar una teoría fundamental. Sin embargo, los criterios
identifican dentro de límites estrechos cuando la evidencia culmina en prueba. La teoría
atómica, obviamente, no fue probada antes del trabajo culminante de Maxwell sobre la
teoría cinética de los gases, publicado en 1866, mientras que la integración necesaria de
datos físicos y químicos se había logrado claramente cuando se confirmó la predicción
del galio de Mendeleyev en 1875. Habrá espacio para un debate racional sobre si la
teoría atómica se evalúa adecuadamente como se demostró en 1870. Pero poco está en
juego en tal debate.
La afirmación de que la teoría atómica fue probada en 1875 no significa que no dejó
preguntas sin respuesta. Por el contrario, la teoría dio lugar a todo un reino de
preguntas sin respuesta muy importantes. Por ejemplo, las mediciones de la capacidad
calorífica parecían implicar que las moléculas diatómicas se mueven rápidamente y
giran a temperaturas normales, pero no vibran como se esperaba: ¿por qué no? Hubo
muchas preguntas sobre la naturaleza de los enlaces químicos, por ejemplo: ¿Por qué
algunos átomos parecen tener una valencia variable y en qué se diferencian estos
átomos de los que tienen una valencia constante? Hubo preguntas sobre la interacción
de los átomos y la luz, por ejemplo: ¿Por qué cada tipo de átomo emite y absorbe luz en
longitudes de onda características específicas? Además, había evidencia que apoyaba la
opinión de que los átomos contienen partículas cargadas eléctricamente: si es así,
¿Cómo podría distribuirse la carga de una manera que sea consistente con la estabilidad
de los átomos? Sin embargo, tales cuestiones no arrojaron dudas sobre la teoría
atómica; más bien, lo presuponían. Las preguntas se referían a la nueva frontera que la
teoría hizo posible: la investigación de la estructura atómica. Las respuestas se
descubrieron en las primeras décadas del siglo XX.
El mundo submicroscópico de los átomos es accesible solo mediante una cadena de
razonamiento muy larga y compleja. Durante más de dos milenios, la idea de los átomos
no fue más que una esperanza, una esperanza de que algún día, de alguna manera, la
mente del hombre pudiera llegar mucho más allá de lo que le dan sus sentidos y captar
la naturaleza fundamental de la materia. Esto no podría hacerse mediante un salto
imprudente hacia un vacío cognitivo; los científicos tenían que descubrir el método de
proceder paso a paso desde las observaciones hasta el conocimiento de los átomos,
mientras permanecían en tierra firme. No es posible ni deseable ningún atajo de este
proceso; cada paso del viaje es su propia recompensa, aportando una valiosa pieza de
conocimiento que es condensado e integrado por la teoría final.
La naturaleza del método inductivo ahora está clara.
6.
Crecimiento de la planta
A principios del siglo XVII, el químico holandés JB van Helmont investigó la causa del
crecimiento de las plantas. La mayoría de la gente de la época pensaba que las plantas
absorben material del suelo y lo convierten en madera y follaje, pero esto era
simplemente una suposición plausible. Van Helmont intentó llegar a una respuesta
definitiva a la pregunta realizando un experimento cuantitativo.
Llenó una gran maceta con doscientas libras de tierra seca. Luego plantó un árbol
joven de sauce, que pesaba cinco libras, y cubrió el suelo para evitar la acumulación de
polvo del aire. Durante cinco años agregó solo agua destilada o agua de lluvia a la
maceta. Cuando finalmente quitó el sauce, descubrió que pesaba 169 libras, pero la
tierra había perdido solo unas pocas onzas de peso. Van Helmont concluyó: "Por lo
tanto, 164 libras de madera, corteza y raíz han surgido solo del agua". 3 En general,
concluyó que el crecimiento de las plantas es un proceso en el que el agua se transforma
en las sustancias que componen las plantas.
El experimento utilizó el método de la diferencia: Van Helmont se centró en el hecho
de que había agregado un factor, el agua, y el resultado fue el crecimiento del sauce.
Ciertamente demostró que muy poco del peso adicional del árbol provenía del suelo. Sin
embargo, ahora sabemos que solo aproximadamente la mitad de la madera de sauce
fresca es agua. El error de Van Helmont fue rechazar la posibilidad de que las plantas
absorbieran material del aire. Mucho más tarde, en la década de 1770, los experimentos
realizados por Joseph Priestley y Jan Ingenhousz demostraron que las plantas a la luz
del sol absorben dióxido de carbono y liberan oxígeno. 4 Gran parte de su peso es
carbono, que obtienen del aire.
Irónicamente, fue Van Helmont quien originó el concepto "gas" e identificó el gas
que ahora llamamos dióxido de carbono como un producto de la quema de carbón
vegetal o madera. Entonces, ¿por qué descartó la posibilidad de que un gas en el aire
pudiera ser una causa esencial del crecimiento de las plantas?
Algunos de los experimentos de Van Helmont lo llevaron a concluir que los gases "no
se pueden retener en recipientes ni reducir a una forma visible". 5Cuando mezcló ácido
nítrico y sal amoniacal en un recipiente de vidrio cerrado, por ejemplo, descubrió que se
producían gases que reventaban el recipiente. Cuando comprimió aire en una "pistola
de aire" y luego lo soltó, descubrió que el aire se expandía explosivamente con una
fuerza suficiente para impulsar una pelota a través de una tabla. Para él, esta naturaleza
"salvaje" e "indomable" de los gases parecía prohibir la posibilidad de que pudieran ser
absorbidos para formar parte de una planta.
Por supuesto, todos sabían que los animales terrestres deben respirar aire para
vivir. Sin embargo, todavía no se entendía la naturaleza de la respiración. Van Helmont
pensó que el aire se “entremezclaba” con la sangre en nuestros pulmones y
desempeñaba un papel esencial en calentarlo, pero no comprendió que se absorbe parte
del aire (oxígeno) y se exhala otro gas (dióxido de carbono). Del mismo modo, cuando
estudió la combustión, no comprendió que implica el consumo de aire. Observó que una
vela encendida en un recipiente cerrado provoca una disminución en el volumen de
aire, pero pensó que la llama estaba consumiendo algo que existía en los espacios entre
partículas de aire. Entonces, sus ideas hipotéticas sobre la respiración y la combustión
se hicieron consistentes con su afirmación de que los gases no se pueden convertir en
sustancias líquidas o sólidas.
Otros fenómenos parecían contradecir la visión de Van Helmont de los gases como
"salvajes" e "indomables". El vapor obviamente se condensa en agua, y él sabía de ácidos
gaseosos que se disolvían en agua. En estos casos, sin embargo, intentó proteger su
punto de vista introduciendo una distinción entre "vapores condensables" y verdaderos
"gases". Pero la protección que ofrecía esta falsa distinción era ilusoria. En cuanto al
crecimiento de las plantas, simplemente modificó la pregunta, que pasó a ser: ¿Cómo
supo que una planta no absorbe los “vapores condensables” que existen en el aire? El
hecho es que Van Helmont no ofreció ningún argumento convincente para eliminar el
aire como factor causal en el crecimiento de las plantas. Su conclusión sobre la
naturaleza de los gases no fue una integración de todos los datos disponibles, sino más
bien un salto de unos pocos hechos a una amplia generalización.
Hubo problemas más amplios que guiaron el pensamiento de Van Helmont. Como
muchos filósofos de la naturaleza antes que él, le sorprendió el papel omnipresente del
agua en la naturaleza. El agua existe en forma de vapor, líquido y sólido; llena grandes
océanos, cae del cielo, forma ríos y da forma a nuestro mundo; reacciona y / o disuelve
muchas sustancias; y es esencial para toda la vida. Siguiendo una larga tradición que
comenzó con Thales, Van Helmont identificó al agua como el elemento fundamental que
se puede modificar de innumerables formas. Incluso conectó sus puntos de vista sobre
la naturaleza del agua y el gas con sus puntos de vista metafísicos sobre la relación entre
la materia y el espíritu.6 Estas creencias formaron parte del trasfondo que lo predispuso
a aceptar el agua como única fuente de crecimiento vegetal.
Note la complejidad del contexto que es relevante para interpretar un experimento
aparentemente simple. La elasticidad de los gases, la naturaleza de la respiración y la
combustión, las similitudes y diferencias entre los gases y su conceptualización
adecuada, el papel prominente del agua en los procesos naturales, la relación entre la
materia y la "esencia" de un cuerpo, todas estas consideraciones influyeron Van
Helmont al llegar a su conclusión. Tal es la naturaleza del razonamiento inductivo; los
resultados de un experimento particular se interpretan por medio de todo el marco
conceptual de uno. Por eso la inducción es difícil y válida cuando se realiza
correctamente. Van Helmont se extravió en el tema del crecimiento de las plantas por
los errores en su marco conceptual, que contenía numerosos elementos que no se
derivaban de los hechos observados, es decir,
Acidez
Un científico con un marco conceptual válido aún puede cometer un error. Un buen
ejemplo lo proporciona el análisis de Lavoisier sobre la causa de la acidez.
Los ácidos son compuestos que son corrosivos, tienen un sabor amargo, se tornan
rojo tornasol azul y reaccionan con las bases para formar sustancias neutras. Lavoisier
planteó la hipótesis de que estas propiedades se derivan de algún elemento que todos
los ácidos tienen en común. Por tanto, su enfoque fue utilizar el método del acuerdo;
estudió los ácidos conocidos y trató de identificar su elemento común.
Descubrió que algunas sustancias se transforman en ácidos cuando se queman en
presencia de vapor de agua. La combustión de fósforo, azufre y carbono dio lugar a
ácido fosfórico, ácido sulfúrico y ácido carbónico. Por lo tanto, parecía que el elemento
que se absorbe en la combustión, es decir, el oxígeno, también podría ser la causa de la
acidez.
La investigación de Lavoisier sobre el ácido nítrico pareció proporcionar más apoyo
a esta idea. En 1776 combinó ácido nítrico con mercurio para formar una sal blanca
(nitrato de mercurio), que se descompuso para formar óxido de mercurio rojo y gas
óxido nítrico. Al calentarlo más, el óxido rojo se descompuso en mercurio metálico y gas
oxígeno. Recogió los gases en jarras de campana sobre agua. Cuando combinó el óxido
nítrico y el oxígeno en presencia de agua, completó el círculo y regeneró el ácido nítrico
original. Pero Lavoisier malinterpretó este resultado; pasó por alto la presencia crucial
de agua y supuso que el ácido era un producto de los dos gases. Más tarde, en 1783,
descubrió que el agua es un compuesto de hidrógeno y oxígeno. Al pasar por alto el
papel del agua en su síntesis de ácidos,
Lavoisier continuó acumulando pruebas que parecían apoyar su idea de que el
oxígeno es esencial para la acidez. Investigó dos ácidos orgánicos (acético y oxálico) y
demostró que ambos contienen oxígeno. Además, demostró que el azufre forma dos
ácidos, y que el que tiene mayor contenido de oxígeno es el ácido más fuerte (hoy
expresamos este resultado diciendo que el H2SO4 es más ácido que el H2SO3).
La teoría de la acidez del oxígeno de Lavoisier se enfrentó a un obstáculo
importante. Había un ácido muy conocido y muy fuerte, denominado ácido "muriático",
que no se había demostrado que contuviera oxígeno. El ácido muriático se descompone
en gas hidrógeno y otro gas verde. Lavoisier se refirió al gas verde como ácido
“oximuriático”, haciendo así explícito su suposición de que era la parte del ácido
muriático en la que eventualmente se encontraría oxígeno. Pero pasaron los años y
nadie logró extraer oxígeno del gas "oximurático". Finalmente, en 1810, después de que
se hubieran probado en vano los métodos más efectivos de extracción de oxígeno,
Humphry Davy declaró que el gas verde es un elemento y recomendó que se le llamara
"cloro". De modo que el ácido clorhídrico proporcionó el contraejemplo que refutó la
teoría del oxígeno de Lavoisier.
En cuanto a la forma, el error de Lavoisier es como el viejo chiste sobre el hombre
que prometió dejar de emborracharse en las fiestas. El hombre recordó que en una
fiesta había estado bebiendo bourbon con soda; en otro, whisky con soda; en otro,
brandy y refresco. Evidentemente, la soda era el factor común y la causa de su
intoxicación. Así que decidió beber su whisky solo.
Este tipo de error es relativamente fácil de corregir. Cuando el hombre se
emborrache con bourbon puro en la próxima fiesta, se dará cuenta de que el refresco
era irrelevante. Luego buscará un factor común en el bourbon, el whisky y el brandy. De
manera similar, cuando se descubrió que todos los ácidos que contienen oxígeno de
Lavoisier también tienen hidrógeno, y que el ácido muriático contiene hidrógeno pero
no oxígeno, entonces el hidrógeno fue reconocido como el único elemento común a
todos los ácidos conocidos. Más tarde, la teoría de la acidez del hidrógeno se demostró
cuando se descubrió que las bases neutralizan los ácidos al absorber un ión de
hidrógeno de ellos (que normalmente se combina con un ión hidroxilo para formar
agua).
La teoría de la acidez de Lavoisier ilustra la naturaleza precaria de una
generalización que se deriva de una regularidad observada más que de una conexión
causal. Lavoisier no tenía evidencia de que las bases actúen sobre el oxígeno cuando
neutralizan un ácido. En ausencia de tal conocimiento, no tenía motivos suficientes para
afirmar que el oxígeno se encontraría necesariamente en todos los ácidos. Por tanto,
podemos caracterizar su error como la falacia de sustituir una causa por una
regularidad observada.
Corriente eléctrica
Hubo un gran interés por la electricidad durante la Ilustración. Se descubrió que
algunos materiales conducen electricidad y otros no; que la carga eléctrica existe en dos
variedades, llamadas positivas y negativas; esa carga se puede almacenar en "frascos de
Leyden", que luego se pueden descargar a través de un conductor; que el rayo es una
descarga atmosférica; y que las cargas opuestas se atraen y las cargas similares se
repelen con una fuerza que varía con el cuadrado inverso de la distancia. Pero incluso
después de décadas de estudio intensivo, la única forma conocida de generar
electricidad era frotando materiales diferentes, y el único movimiento conocido de
electricidad fue la descarga momentánea que se produjo durante un intervalo de tiempo
demasiado corto para medirlo. Cerca del final del siglo XVIII, sin embargo,
Galvani era profesor de anatomía en la Universidad de Bolonia y se interesó por los
efectos de la electricidad en los animales. Anteriormente se había descubierto que las
descargas eléctricas a través de animales podían causar contracciones musculares, y
Galvani investigó este fenómeno utilizando ranas disecadas y descargas de un
generador de electricidad estática. Sin embargo, su avance se produjo cuando no estaba
usando el generador en absoluto. En un experimento, descubrió que cuando se sujetaba
una rana con un gancho de bronce a través de su médula espinal y se colocaban sus
patas en una caja plateada, conectar el gancho y la caja provocaba contracciones
musculares que hacían que la rana muerta pareciera saltar y bailar. . Galvani se dio
cuenta de que la electricidad se movía a través de los músculos de las patas de la rana,
pero su origen era un misterio.
Este descubrimiento tuvo implicaciones cruciales tanto para la física como para la
biología. Desde la perspectiva del físico, Galvani había descubierto una nueva forma de
generar un flujo de electricidad. Desde la perspectiva del biólogo, aparentemente había
descubierto el mecanismo físico que controla el movimiento de nuestros cuerpos: la
contracción de nuestros músculos es causada de alguna manera por la electricidad que
puede fluir a través de nuestros nervios.
Dado que Galvani era biólogo, no es de extrañar que su enfoque principal fuera la
rana en lugar del anzuelo de bronce o la caja de plata. Desarrolló una teoría en la que la
fuente de la electricidad está en el animal, mientras que los metales desempeñan el
papel pasivo de meros conductores que permiten que fluya la electricidad. Su teoría
afirmaba que los músculos almacenan electricidad de la misma manera que los frascos
de Leyden, y que cuando se completa un circuito conductor, la descarga resultante
provoca la contracción.
Galvani notó que solo se observaron fuertes contracciones musculares cuando se
usaron dos metales diferentes (por ejemplo, bronce y plata). Cuando colocó la rana
sobre una superficie de hierro y usó un gancho de hierro, el efecto no ocurrió. Pero no
pudo apreciar la importancia de este hecho y su teoría no ofrece ninguna explicación. Si
los metales actúan simplemente como conductores, entonces debería haber observado
las contracciones musculares en el experimento que usó solo hierro. Inicialmente,
Galvani no pareció reconocer que la necesidad de dos metales diferentes planteaba un
grave problema para su teoría.
Fue Alessandro Volta, profesor de física de la Universidad de Pavía, quien aprovechó
el hecho que la teoría de Galvani pasó por alto. Volta se convenció de que la fuente de
electricidad eran las diferentes propiedades de los dos metales, y era la rana la que
desempeñaba el papel pasivo de simplemente proporcionar un fluido conductor entre
los metales. En una serie de experimentos, demostró que cuanto más separados estaban
los dos metales en la siguiente serie (zinc, estaño, plomo, hierro, cobre, platino, oro,
plata), mayor era la corriente eléctrica.
En un intento por demostrar que la rana no participó en la producción de
electricidad, Volta realizó un experimento en el que la rana (y cualquier otro fluido
conductor) se eliminó por completo. Adjuntó un disco de cobre y un disco de zinc a las
manijas aislantes y luego presionó los discos juntos. Cuando se separaron, utilizó un
delicado electroscopio para demostrar que ambos discos habían adquirido una carga
eléctrica (el zinc era positivo y el cobre negativo). Entonces, una transferencia de carga
eléctrica es causada por el mero contacto de dos metales diferentes. Esto, afirmó Volta,
era lo que había ocurrido en los experimentos de Galvani: el contacto de los dos metales
había provocado un flujo de electricidad que a su vez había provocado las contracciones
musculares de la rana.
Galvani no estaba convencido y respondió realizando un experimento en el que los
metales se eliminaron por completo. Cuando sostuvo una rana disecada por un pie y la
balanceó vigorosamente para que el nervio ciático tocara el músculo de la otra pierna,
observó contracciones del músculo. Este fue un caso en el que el contacto entre el
nervio y el músculo provocó un flujo de electricidad y contracciones musculares, sin
presencia de metales. Galvani consideró este experimento como una refutación decisiva
de la teoría de Volta.
Volta y Galvani habían cometido cada uno un error similar. En sus esfuerzos por
localizar la causa en los metales o en la rana, cambiaron las condiciones experimentales
de una manera que introdujeron factores causales que no estaban presentes en el
experimento original. En el caso de la rana bailando sobre la caja de plata, el contacto
entre metales diferentes no puede ser la causa porque no es necesario ese contacto; el
efecto ocurre cuando el experimentador agarra el gancho de bronce con una mano
mientras toca la caja plateada con la otra mano (en otras palabras, el experimentador
mismo puede ser el camino conductor entre los dos metales). Asimismo, Galvani se
engañó con su experimento en el que se eliminaron los metales; su vigoroso balanceo de
la rana había causado una lesión muscular, que había estimulado el nervio y provocado
contracciones. Pero el experimento original no había implicado tal daño; había sido un
simple paso de salto, no un baile de swing.
Aunque la “teoría del contacto” de Volta era insostenible, sus investigaciones
refutaron la idea de Galvani de que el fenómeno fue causado por una capacidad especial
de los animales para almacenar y descargar electricidad. Mientras mantenía las mismas
otras condiciones relevantes, Volta demostró que el animal podía ser reemplazado por
una solución salina o ácida entre los dos metales, y el efecto —un flujo de electricidad—
aún ocurría. Este descubrimiento lo llevó a inventar la batería eléctrica. En marzo de
1800, escribe un artículo en el que describe cómo generar una corriente eléctrica
continua con discos de zinc y plata separados por cartón empapado en agua salada.
Cuando Volta anunció su invención, aún se desconocía la causa de la corriente
eléctrica. Pero no siguió siendo un misterio por mucho tiempo. Un mes después de
recibir el artículo de Volta, Anthony Carlisle y William Nicholson construyeron una
batería y observaron evidencia de reacciones químicas que ocurrían en las superficies
metálicas. Utilizaron su batería para realizar el primer experimento de electrólisis,
descomponiendo el agua en hidrógeno y oxígeno gaseoso. Este experimento histórico
inspiró a Humphry Davy a investigar el fenómeno. Solo siete meses después, Davy
escribió:
[La batería] actúa sólo cuando la sustancia conductora entre las placas es capaz de
oxidar el zinc; y que, en la medida en que una mayor cantidad de oxígeno entra en
combinación con el zinc en un tiempo dado, también es proporcional la potencia de la
[batería]. Por lo tanto, parece razonable concluir, aunque con nuestra cantidad actual de
hechos no podemos explicar el modo exacto de funcionamiento, que la oxidación del
zinc en la batería y los cambios químicos relacionados con ella son de alguna manera la
causa de los problemas eléctricos. efectos que produce. 7
Se necesitaron décadas para identificar el "modo exacto de funcionamiento", es
decir, la disociación de moléculas en iones cargados eléctricamente y la reacción de esos
iones en los electrodos, pero la causa esencial se entendió en 1800: la corriente eléctrica
es generada por una sustancia química. reacción que involucra los metales y el fluido
que los conecta.
De modo que Galvani tenía razón al afirmar que la rana de sus experimentos
desempeñaba un papel indispensable en la generación de la corriente eléctrica: los
fluidos de la rana proporcionaban la solución salina esencial para la reacción. Pero Volta
tenía razón al afirmar que los metales tienen un papel crucial en la generación de
electricidad, no simplemente en transportarla. Ambos se equivocaron únicamente al
negar la afirmación del otro. La causa no se pudo encontrar en uno de los factores, sino
solo en la interacción química de los dos.
La principal lección ilustrada por estos errores es la importancia de los controles
experimentales adecuados. Galvani y Volta pensaron que habían realizado
experimentos cruciales que refutaban la afirmación del otro, pero los experimentos
fueron defectuosos. Cuando Galvani eliminó los metales y aún observó un efecto, y
cuando Volta eliminó todo menos los metales y aún vio un efecto, ambos cambiaron las
condiciones del experimento original de la “rana bailarina” de una manera que dejó
ambigua la interpretación de sus resultados.
En un nivel más amplio, podemos ver el peligro potencial de ser perjudicado por la
experiencia especializada de uno. Como biólogo, Galvani parecía predispuesto a
encontrar la causa en el animal; como físico, Volta parecía predispuesto a encontrar la
causa en las propiedades físicas de los metales. Fue Davy, un químico, quien identificó
correctamente la causa como una interacción compleja que involucra ambos factores.
Edad de la Tierra
Examinemos otra famosa controversia que involucra un choque entre diferentes
ciencias. Durante las últimas cuatro décadas del siglo XIX, el físico británico Lord Kelvin
entabló un animado debate con los geólogos. Para explicar un cuerpo de evidencia en
rápido crecimiento, los geólogos proponían una historia cada vez más larga de la Tierra.
Habían descubierto que los procesos naturales que dan forma a nuestro mundo ocurren
muy lentamente y, por lo tanto, su ciencia tenía un requisito básico: el tiempo. Pero se
encontraron en conflicto con uno de los físicos más destacados de la época. Kelvin no les
daría el tiempo que necesitaban; se convenció de que las leyes fundamentales de la
física implicaban un límite superior muy restrictivo en la edad de la Tierra.
Durante la mayor parte de la historia de la humanidad, las personas intentaron
comprender el mundo que les rodeaba como resultado de eventos cataclísmicos
repentinos, globales y en el pasado (generalmente de origen sobrenatural). Sin
embargo, a finales del siglo XVIII, James Hutton identificó el principio que dio origen a la
geología moderna: “El presente”, escribió, “es la clave del pasado…. No se utilizarán
poderes que no sean naturales del globo, no se admitirán acciones que no sean aquellas
de las que conocemos el principio, y no se alegarán sucesos extraordinarios para
explicar una apariencia común ".8Hutton y los geólogos que siguieron su ejemplo
explicaron las características de la Tierra por medio de las fuerzas naturales que
observamos hoy: viento, lluvia, reacciones químicas, corrientes oceánicas y fluviales,
expansión y contracción causada por cambios de temperatura, elevación de áreas
terrestres causada por hundimientos. sedimentos oceánicos, los lentos movimientos de
los glaciares y los efectos acumulativos de los volcanes y terremotos locales.
Por supuesto, se necesita mucho tiempo para que la erosión hídrica excave un valle y
las presiones mecánicas para levantar una cadena montañosa. Determinar cuánto
tiempo fue un tema central para la geología del siglo XIX. Al estimar las tasas de erosión
y depósito de sedimentos, los geólogos comenzaron a construir la línea de tiempo para
la formación de los diversos estratos que observaron en la corteza terrestre. Llevaron a
cabo estudios detallados de las grandes cuencas fluviales del mundo, midiendo y
analizando el contenido sedimentario que se arrastra hacia el mar. En la década de 1870
habían llegado a un acuerdo sobre la tasa media de erosión continental. También
recopilaron datos de todo el mundo sobre las tasas de procesos que resultan en la
renovación de masas de tierra.
Para su crédito, Kelvin fue el primero en reconocer un posible conflicto entre las
leyes de la física y la nueva geología. Los geólogos afirmaban que la temperatura y otras
condiciones físicas en la Tierra se habían mantenido aproximadamente constantes
durante los últimos cien millones de años. El sol y la Tierra, sin embargo, tienen una
cantidad limitada de energía, que están gastando a un ritmo prodigioso. Esta disipación
de energía debe eventualmente causar una disminución de la temperatura que dejará a
la Tierra estéril y sin vida. Para Kelvin, la pregunta era: ¿Las leyes de la física sancionan
o vetan la línea de tiempo propuesta por los geólogos?
Para responder a la pregunta, Kelvin comenzó por considerar las posibles fuentes de
energía solar y terrestre. Rápidamente se convenció a sí mismo de que la energía
liberada en las reacciones químicas exotérmicas era demasiado pequeña para
desempeñar un papel significativo. Además, dado que el sol y la Tierra son
eléctricamente neutrales, la energía no podría ser de origen electromagnético. Eso
parecía dejar solo una posibilidad: la fuente principal de energía en el sistema solar es
de naturaleza gravitacional.
El sistema solar, argumentó Kelvin, debe haber comenzado como una gran nebulosa
gaseosa. A medida que la materia se condensaba, la energía potencial gravitacional se
convertía en energía cinética, es decir, calor. Así, la Tierra era originalmente una bola
fundida extremadamente caliente, que se ha estado enfriando desde entonces.
"Podemos seguir con la imaginación", escribió, "todo el proceso de reducción de
nebulosa gaseosa a lava líquida y metales, y la solidificación del líquido desde las
regiones centrales hacia afuera".9
En la década de 1860, Kelvin realizó su primer análisis de la velocidad a la que la
Tierra está perdiendo calor. Reconoció que los parámetros requeridos para el cálculo no
se conocían con precisión, pero argumentó que se sabía lo suficiente para hacer una
estimación razonable. Para la temperatura del núcleo de la Tierra, usó el punto de
fusión de las rocas superficiales; para la conductividad térmica de la Tierra, utilizó el
valor medido para las rocas superficiales; para el gradiente de temperatura en la
superficie de la Tierra, usó una medida de aproximadamente un grado Fahrenheit por
cada quince metros. Con estos parámetros, llegó a una tasa de pérdida de calor que
implicaba que la corteza terrestre se había formado hace menos de cien millones de
años. Contrariamente a los geólogos, las condiciones observadas hoy podrían haber
existido solo durante una pequeña fracción de ese tiempo. Kelvin declaró su conclusión
de manera inequívoca:10
En las décadas que siguieron, Kelvin amplió y perfeccionó sus cálculos de formas
que intensificaron el conflicto. Sus estimaciones de la edad de la Tierra disminuyeron
constantemente y, lo que es más importante, llegó a un límite superior muy restrictivo
en la edad del sol. Incluso cuando asumió que la energía del sol se reponía en parte por
la caída de meteoros, la energía perdida en la radiación era de tal magnitud que se vio
obligado a concluir: “Creo que sería sumamente imprudente asumir como probable algo
más de veinte millones. años de la luz del sol en la historia pasada de la tierra, o
contando con más de cinco o seis millones de años de luz solar por venir ". 11
Kelvin era un físico matemático brillante y sus cálculos eran esencialmente
correctos. Dejando a un lado las objeciones, debemos admitir que su conclusión se
deriva de sus premisas. Sin embargo, todo el análisis se basó en la generalización de que
la energía de las estrellas y sus planetas satélites se deriva de la energía potencial
gravitacional de la nebulosa gaseosa primigenia (complementada por la caída de
meteoros). Si esto fuera cierto, los sistemas solares se volverían fríos y oscuros en un
tiempo relativamente corto (decenas de millones de años). Entonces, al evaluar el punto
de vista de Kelvin, la pregunta clave es: ¿Qué tan fuerte fue el argumento a favor de esta
premisa básica?
La forma del argumento fue un proceso de eliminación. En ese momento, solo se
conocían tres posibles fuentes de energía interna del sol y la Tierra: química,
electromagnética y gravitacional. Kelvin citó buenas razones para descartar los dos
primeros, que dejaron a la energía gravitacional como el único candidato viable. Este
tipo de argumento puede ser válido, pero conlleva una gran carga de prueba. Hay que
poder argumentar que se han identificado todas las posibilidades; no puede haber
ninguna razón para sospechar la existencia de otras fuentes de energía.
Sin embargo, la evidencia citada por los geólogos arroja dudas sobre el argumento
de Kelvin. Los geólogos no habían elaborado una teoría arbitraria; sus conclusiones
integraron una impresionante variedad de observaciones, incluidos estudios cuidadosos
de los estratos de la corteza terrestre y tasas medidas de erosión y depósitos. Aquí el
error de Kelvin fue adoptar una actitud que se puede calificar de "elitista"; parecía
pensar que la evidencia de la física triunfa sobre la evidencia de la geología. Pero los
hechos son hechos y todos exigen el mismo respeto. La física es la ciencia fundamental,
lo que significa que integra la más amplia gama de hechos. Pero esto no implica que los
hechos de la geología estén subordinados a los hechos de la física. En este caso, los
hechos de la geología proporcionaron alguna evidencia (indirecta) de la existencia de
una fuente de energía no descubierta omitida del análisis de Kelvin.
Había otra razón para dudar de que la gravitación proporcionara la única fuente de
energía posible. Como vimos en el último capítulo, la teoría atómica abrió una nueva
frontera en la ciencia física. Una gran cantidad de datos, que tratan temas como enlaces
químicos, afinidades eléctricas, ionización y emisión de luz, proporcionó evidencia de
que los átomos tienen una estructura compleja. Sin embargo, se sabía poco sobre esta
estructura. ¿Cuál es la naturaleza de las partes que componen los átomos, cómo se
distribuye esta materia subatómica dentro del átomo y qué fuerzas la mantienen unida?
A finales del siglo XIX, varios descubrimientos habían planteado estas cuestiones
fundamentales pero aún no habían arrojado luz sobre las respuestas. En este contexto,
Kelvin no pudo descartar razonablemente la posibilidad de que la energía interna de los
átomos proporcione una fuente importante de calor.
El geólogo estadounidense del siglo XIX Thomas Chamberlin señaló precisamente
este punto. El escribio:
¿Es nuestro conocimiento actual relativo al comportamiento de la materia en
condiciones tan extraordinarias como las que se obtienen en el interior del sol lo
suficientemente exhaustivo como para justificar la afirmación de que allí no residen
fuentes de calor desconocidas? Cuál puede ser la constitución interna de los átomos es
todavía una cuestión abierta. No es improbable que sean organizaciones complejas y
sedes de enormes energías. Ciertamente, ningún químico cuidadoso afirmaría que los
átomos son realmente elementales o que pueden no estar encerrados en ellos energías
de primer orden de magnitud…. Probablemente tampoco estarían dispuestos a afirmar
o negar que las extraordinarias condiciones que residen en el centro del sol no liberen
una parte de esta energía.12
A principios del siglo XX, los físicos demostraron que la posibilidad sugerida por
Chamberlin era una realidad. Marie y Pierre Curie descubrieron que se libera una
cantidad extraordinaria de energía en la desintegración de los átomos radiactivos. Esta
importante fuente de calor terrestre se había omitido del análisis de Kelvin. Además,
Ernest Rutherford, el descubridor del núcleo atómico, escribió en 1913: “A la enorme
temperatura del sol, parece posible que pueda tener lugar un proceso de transmutación
en elementos ordinarios análogo al observado en el conocido radio- elementos." Por lo
tanto, concluyó, "El tiempo que el sol puede continuar emitiendo calor a la tasa actual
puede ser mucho más largo que el valor calculado a partir de datos dinámicos
ordinarios".13 La fuente específica del suministro aparentemente inagotable de calor
solar se identificó en la década de 1930 cuando los físicos descubrieron la fusión
nuclear.
Además de proporcionar la energía que falta en el análisis de Kelvin, el campo
emergente de la física nuclear también proporcionó un medio preciso para calcular la
edad de la Tierra. Los elementos radiactivos se desintegran a velocidades invariables en
productos conocidos. Por lo tanto, la edad de una roca se puede determinar a partir de
la abundancia relativa de su elemento radiactivo y sus productos de desintegración. En
1904, Rutherford analizó una pieza de mineral de uranio y calculó su edad en
setecientos millones de años.14 Al año siguiente, el físico británico Robert Strutt midió el
contenido de helio de una sal de bromuro de radio y estimó su edad en dos mil millones
de años.15 De repente, la situación se invirtió: los físicos insistían en que la Tierra es
mucho más antigua de lo que los geólogos se habían atrevido a sugerir.
Kelvin supuso que las leyes básicas de la física ya se conocían a finales del siglo XIX.
Se mostró reacio a admitir la posibilidad de que las investigaciones sobre las fronteras
de la física, incluidas las investigaciones sobre la estructura atómica, pudieran conducir
al descubrimiento de nuevos tipos de fuerzas y energía. En 1894, esta actitud fue
expresada por el físico estadounidense Albert Michelson:
[I] parece probable que la mayoría de los grandes principios subyacentes se hayan
establecido firmemente y que se busquen avances adicionales principalmente en la
aplicación rigurosa de estos principios a todos los fenómenos que se encuentran bajo
nuestro conocimiento…. Un físico eminente [Lord Kelvin] ha señalado que las verdades
futuras de la ciencia física deben buscarse en el sexto lugar de los decimales. dieciséis
Por tanto, el error básico de Kelvin puede describirse como la falacia de la "fijación
cognitiva". Es instructivo contrastar su actitud con la de Isaac Newton, el principal
campeón del método inductivo. Newton siempre consideró sus leyes del movimiento y
la gravitación como una base sobre la que construir, nunca como el edificio completo de
la física. Era muy consciente de la amplia gama de fenómenos que seguían sin
explicación. Comenzó su carrera con muchas preguntas y, a lo largo de su vida, a pesar
de que descubrió tantas respuestas, su lista de preguntas solo creció. Cuando Newton
examinó las fronteras de la ciencia física, vio muchas áreas de investigación, por
ejemplo, electricidad, magnetismo, luz, calor, química, de las que esperaba que
surgieran nuevos principios. Kelvin, por otro lado, tenía un estado de ánimo más
"deductivo"; en su opinión, la tarea principal del físico es encontrar nuevas aplicaciones
de los principios conocidos. Esta actitud lo llevó a concluir que la energía de un sistema
solar debe ser de origen gravitacional y, por lo tanto, lo llevó a perder la batalla con la
geología moderna.
Fusión fría
Es posible cometer el tipo de error opuesto, que se puede llamar la falacia de la
"promiscuidad cognitiva". Un científico comete este error cuando elige abrazar una
nueva idea a pesar de la evidencia débil y un contexto que hace que la idea sea
inverosímil. Un claro ejemplo de esta falacia lo proporcionaron los recientes
proponentes de la fusión nuclear "fría".
En 1989, Stanley Pons y Martin Fleischmann anunciaron que habían logrado una
reacción sostenida de fusión de deuterio en un experimento de electrólisis a
temperatura ambiente. El experimento consistió en hacer pasar una corriente eléctrica
entre un electrodo de paladio y un electrodo de platino sumergido en un baño de agua
pesada que contenía algo de litio. Los dos químicos informaron que el calor generado en
tales experimentos era mucho mayor de lo que podría explicarse por cualquier reacción
química. En un caso, afirmaron, el electrodo de paladio se derritió y quemó un agujero
en el piso del laboratorio. Llegaron a la conclusión de que el deuterio del agua pesada se
absorbía dentro de la red de átomos de paladio, donde los núcleos de deuterio se
comprimían con suficiente presión para provocar la fusión.
Para decirlo suavemente, esta fue una idea radical. Los físicos habían estado
estudiando la fusión de deuterio desde la década de 1930 y el proceso se entendía bien.
La reacción ocurre solo cuando los núcleos están muy juntos, y esto requiere una
enorme energía para superar la repulsión eléctrica entre los protones. Tales reacciones
ocurren dentro del sol porque la temperatura central es de más de diez millones de
grados y, por lo tanto, la energía requerida está disponible. Pero, ¿cómo es posible que
los núcleos de deuterio se acerquen tanto entre sí en un experimento de electrólisis a
temperatura ambiente?
Pons y Fleischmann no ofrecieron respuesta a esta pregunta básica. Como
experimentadores, su objetivo era demostrar que se produjo el efecto. Se contentaron
con dejar que los teóricos se enfrentaran a la problemática cuestión de cómo podría
ocurrir. Fue una tarea difícil para los teóricos, ya que la fusión fría parecía contradecir
todo lo conocido sobre física nuclear.
Como evidencia experimental, Pons y Fleischmann se basaron principalmente en sus
observaciones del exceso de calor. La teoría científica, sin embargo, no puede ponerse
patas arriba cada vez que hay una explosión inexplicable en un laboratorio de química.
La evidencia requerida para respaldar una afirmación de fusión de deuterio es clara:
uno debe detectar los productos de la reacción. Estos productos incluyen helio,
neutrones y rayos gamma con una energía específica. El helio debería haber estado
incrustado en el electrodo de paladio, y una cantidad letal de neutrones y gammas
debería haber estado volando por el laboratorio. Todos los esfuerzos para detectar
estos productos fallaron y ningún investigador sufrió efectos nocivos por la radiación.
El episodio de la fusión fría se convirtió rápidamente en un circo mediático en el que
la política y los sueños de premios Nobel prevalecieron sobre los hechos científicos.
Pons y Fleischmann habían gritado "¡Fuego!" y causó mucha emoción innecesaria.
Inicialmente, muchos científicos se tomaron en serio las afirmaciones. Los laboratorios
de todo el país realizaron sus propios experimentos de fusión fría en un intento de
reproducir los resultados. Estos científicos pensaron que era mejor adoptar una actitud
de “mente abierta”. Como dijo un investigador, “[Pons y Fleischmann] dijeron que esto
podría ser un proceso nuclear desconocido hasta ahora. ¿Quién sabe? Si es un proceso
desconocido, tal vez no produzca neutrones. Siempre puedes racionalizar cualquier
cosa…. De una forma u otra tiene que haber una prueba definitiva, y queríamos ser
nosotros quienes la probara definitivamente ”.17
Pero no es cierto que uno pueda "racionalizar cualquier cosa", no si "racionalizar"
significa dar un argumento racional. El término "mentalidad abierta" es un "paquete de
oferta" no válido; se utiliza para equiparar al pensador con el escéptico y, por lo tanto,
para sancionar a este último. Pero el pensador que integra activamente la evidencia
para llegar a nuevas ideas no tiene nada en común con el escéptico, que se siente libre
de afirmar posibilidades sin la evidencia requerida. Como hemos visto anteriormente,
una mente que está abierta a cualquier "posibilidad", independientemente de su
relación con el contexto total del conocimiento, es una mente separada de la realidad y,
por lo tanto, cerrada al conocimiento.
Pons y Fleischmann sugirieron la existencia de una nueva fuente de energía que aún
no había sido identificada por los físicos, tal como lo hicieron los geólogos a fines del
siglo XIX. Pero Pons y Fleischmann no estaban justificados al hacerlo, mientras que los
geólogos estaban justificados. La diferencia en los dos casos radica en el contexto del
conocimiento. A finales del siglo XIX, los físicos apenas comenzaban a explorar la
estructura del átomo y la energía oculta que contiene; no podían descartar la
posibilidad de que esa energía pudiera desempeñar un papel importante en el
calentamiento del sol y la Tierra. Por el contrario, Pons y Fleischmann invadieron un
área de la física que ya había sido investigada a fondo.
La idea de la fusión fría persistió durante más tiempo del necesario. Inicialmente se
le dio más crédito de lo que merecía, pero los científicos pronto aplicaron los estándares
adecuados de evidencia experimental. Después de unos meses, la idea fue desacreditada
y descartada.
Racionalismo
La física de René Descartes proporciona una excelente ilustración del método
racionalista. Descartes es conocido principalmente como el padre de la filosofía
moderna, pero su obra más extensa, Principios de la filosofía, es un tratado que trata
principalmente de la ciencia física. Cuando Descartes publicó su física (1644), la
revolución científica ya había cosechado muchas victorias: las obras de Gilbert, Kepler,
Bacon, Harvey y Galileo se leían en gran parte de Europa. Sin embargo, en lugar de
unirse a esta revolución, Descartes rechazó el mismo método que había hecho posible
los descubrimientos de sus predecesores.
Según Descartes, el conocimiento no comienza con la percepción sensorial; más
bien, comienza con ideas "claras y distintas" que están "implantadas naturalmente" en
nuestras mentes. La veracidad de estas ideas está asegurada por su claridad intrínseca y
por la perfección moral de Dios, que no nos engañaría implantándonos ideas falsas. En
efecto, Descartes asumió que poseemos un ojo interior para percibir verdades
abstractas, y todo el resto del conocimiento se basa en última instancia en esta
conciencia introspectiva. El escribio:
Llamo "clara" a la percepción que está presente y manifiesta a una mente atenta: así
como decimos que vemos claramente aquellas cosas que están presentes en nuestro ojo
atento y actuamos sobre ellas con suficiente fuerza y manifestación. Por otro lado, llamo
"distinta" a la percepción que, aunque clara, está tan separada y delimitada de todas las
demás que no contiene absolutamente nada excepto lo que es claro. 19
Ésta era la versión de Descartes de la intuición mística en la que todos los
racionalistas deben confiar. Después de rechazar el único criterio objetivo para evaluar
la verdad o la falsedad, la evidencia observacional, el racionalista se queda con el
criterio subjetivo del místico: el sentimiento. A pesar de poseer la postura de un firme
defensor de la razón, acepta las ideas que siente que son verdaderas, es decir, aquellas
ideas en las que quiere creer. Declara que estas ideas tienen cualidades intrínsecas
especiales que hacen que su verdad se manifieste. En ciencia, Descartes se encontró
impresionado por una serie de ideas "claras y distintas" que lo llevaron a construir la
primera "teoría del todo".
Descartes comenzó su física con la intuición de que la extensión es la única
propiedad fundamental e irreductible de la materia. Siguiendo una tradición que se
remonta a Platón, intentó reducir el mundo físico a combinaciones de unas pocas
formas geométricas básicas. Los racionalistas suelen tener una gran admiración por la
geometría, que consideran una ciencia ideal porque supuestamente consiste en
verdades deducidas de axiomas evidentes. Además, suelen sentirse alienados del
mundo físico, que a menudo se niega a ajustarse a sus ideas. De modo que el sueño de
reemplazar los cuerpos físicos obstinados con formas geométricas ideales es muy
atractivo para el racionalista.
Toda la materia, afirmó Descartes, está compuesta por tres tipos de partículas
elementales, que se distinguen solo por sus tamaños, formas y movimientos. El escribio:
[Algunas] personas pueden verse inducidas a preguntar cómo sé cómo son estas
partículas…. Tomé los principios más simples y más conocidos, cuyo conocimiento está
naturalmente implantado en nuestras mentes; y trabajando a partir de ellos consideré,
en términos generales, en primer lugar, cuáles son las principales diferencias que
pueden existir entre los tamaños, formas y posiciones de los cuerpos que son
imperceptibles para los sentidos simplemente por su pequeño tamaño, y, en segundo
lugar, qué efectos observables resultaría de sus diversas interacciones. 20
En otras palabras, no hizo observaciones, no hizo experimentos y no se dedicó a
razonar desde los efectos hasta las causas subyacentes. En cambio, miró hacia adentro y
ofreció un mundo imaginativo "claro y distinto" que era más imaginativo que cualquier
cuento de hadas.
Descartes no tuvo problemas para llegar a las leyes del movimiento que gobiernan
sus formas elementales. Partiendo de la inmutabilidad de Dios, dedujo que siempre se
conserva la “cantidad de movimiento” total. Esto puede parecer una anticipación del
principio de conservación del momento de Newton, pero no lo es. Descartes definió la
"cantidad de movimiento" como el producto del volumen y la velocidad, que es bastante
diferente del producto de Newton de la masa y la velocidad. Cuando Descartes usó su
principio para analizar y predecir los resultados de las colisiones elásticas, llegó al
resultado correcto solo en el caso especial de dos cuerpos con volúmenes iguales,
densidades de masa iguales y velocidades directas iguales pero opuestas. En todos los
demás casos, su teoría da una respuesta incorrecta. "La experiencia", admitió, "a
menudo parece contradecir las reglas que acabo de explicar". 21Sin embargo, asumió que
las aparentes contradicciones podrían atribuirse a los efectos del medio o la naturaleza
inelástica de las colisiones. Su método lo liberó de preocuparse por las observaciones.
Terminó la discusión de sus leyes del movimiento con el comentario: “Estos asuntos no
necesitan prueba ya que son evidentes por sí mismos. Las demostraciones son tan
seguras que aunque nuestra experiencia parezca mostrarnos lo contrario, deberíamos
estar obligados a tener más fe en nuestra razón que en nuestros sentidos ”. 22
Mediante este método racionalista, el "conocimiento" llegó tan fácilmente que
Descartes no pudo detenerse. Explicó la naturaleza de los planetas, las lunas y los
cometas y la causa de sus movimientos. Describió la formación del sistema solar, la
naturaleza de las manchas solares y la causa de nuevas estrellas (es decir, supernovas).
La parte del libro que trata de la astronomía termina con esta afirmación: "Creo que
aquí he dado una explicación satisfactoria de absolutamente todos los fenómenos que
observamos en los cielos sobre nosotros".23 Solo una generación después de que Kepler
inaugurara la ciencia de la astronomía física, Descartes afirmó haberla completado.
La última parte del libro de Descartes trata de los fenómenos terrestres. Ofreció
explicaciones sobre las mareas oceánicas, los terremotos, los volcanes, los rayos, la
formación de montañas, el magnetismo, la electricidad estática, las interacciones
químicas y la naturaleza del fuego. Al final de esta sección, volvió a dejar de lado la
modestia y escribió: "No hay nada visible o perceptible en este mundo que no haya
explicado".24Como ha señalado un historiador de la ciencia: “Descartes no dejó nada
intacto…. Los Principios fue un triunfo de la imaginación fantástica que,
desafortunadamente, nunca ha dado con una explicación correcta ". 25Por supuesto, hay
una razón por la que nunca "dio con" la verdad: como hemos visto, la ciencia no es un
juego de adivinanzas. Las generalizaciones de Descartes no se correspondían con la
realidad porque no las derivó inductivamente de observaciones de la realidad.
A diferencia de la inducción, el método del racionalismo no es autocorrector. Si una
teoría está validada por cualidades intrínsecas como la claridad o la belleza matemática,
entonces no puede ser derrocada por la evidencia observacional. La teoría es
simplemente una integración de abstracciones flotantes, separada de los datos
perceptuales y, por lo tanto, invulnerable a tales datos. Cuando lo desee, el racionalista
siempre tiene la libertad de adornar aún más su teoría con características “hermosas”,
es decir, arbitrarias, para deducir cualquier hecho particular.
La física cartesiana fue derrocada solo cuando Newton rechazó el racionalismo y
demostró el poder del método inductivo, que luego ganó una amplia aceptación durante
la Ilustración. Desafortunadamente, el compromiso con este método no duró.
Empirismo
Dos filósofos muy influyentes del siglo XVIII —David Hume e Immanuel Kant—
desarrollaron teorías del conocimiento que socavan todos los aspectos esenciales del
método inductivo.26
Como resultado, el siglo XIX se convirtió en un campo de batalla, con los científicos
atrapados en el fuego cruzado entre el enfoque ejemplificado por Newton y Lavoisier, y
un enfoque radicalmente nuevo de la ciencia que surgió de la filosofía empirista
poskantiana. Esta nueva visión, denominada “positivismo” por el filósofo francés
Auguste Comte, redefinió el objetivo básico de la ciencia. Los científicos ya no debían
preocuparse por descubrir la verdadera naturaleza de las entidades que existen
independientemente en un mundo físico real; cualquier intento de captar la naturaleza
de las entidades externas fue descartado como "metafísica especulativa". No tenemos
conciencia directa de tales entidades, afirmaron los positivistas, sino solo de las
"apariencias" subjetivas. Por tanto, el objetivo adecuado de la ciencia debe limitarse a
describir meramente las regularidades en el comportamiento de estas apariencias.
Los seguidores de Newton habían dado por sentado que la tarea de un científico es
identificar la causa subyacente de los eventos que observamos, es decir, identificar la
naturaleza de una cosa que necesita sus acciones. Los positivistas, sin embargo,
afirmaron que tal causa es incognoscible. Debe haber límites estrictos, insistieron, en las
preguntas que los científicos pueden hacer. No tiene sentido investigar aspectos de las
apariencias que no aparecen, por la simple razón de que no existen tales aspectos. Una
cosa real puede tener muchas propiedades que no se pueden ver, pero una apariencia
subjetiva no tiene tales propiedades ocultas; por definición, es lo que aparece a nuestros
sentidos. Si la razón se restringe a un "mundo interior de apariencias", entonces Kant
había declarado la conclusión inevitable:
Las ciencias naturales nunca nos revelarán la constitución interna de las cosas, que,
aunque no sean la apariencia, pueden servir como base última para explicar las
apariencias. Tampoco la ciencia necesita esto para sus explicaciones físicas…. Porque
estas explicaciones deben basarse únicamente en aquello que, como objeto de los
sentidos, puede pertenecer a la experiencia….27
Esta prohibición de investigar la "constitución interna de las cosas" ganó una amplia
influencia durante el mismo período en el que los científicos estaban descubriendo
abundantes pruebas a favor de la composición atómica de la materia. El resultado fue
uno de los episodios más extraños de la historia de la ciencia, durante el cual muchos
químicos y físicos rechazaron e incluso hicieron una cruzada contra una teoría
extraordinariamente exitosa.
Inicialmente, el surgimiento del positivismo tuvo el efecto de desacelerar el
progreso hacia la prueba de la teoría atómica. La teoría de Dalton fue, en efecto,
censurada por los autores de los libros de texto de química; presentaron su ley de
proporciones múltiples como una mera regularidad empírica, ignorando la explicación
atómica de la misma.28De manera similar, hubo una gran resistencia entre los químicos
a la aceptación de la hipótesis de Avogadro, que fue considerada por los positivistas
como “metafísica” más que como ciencia propiamente dicha. Y cuando Waterston aplicó
la dinámica newtoniana a las moléculas para explicar la ley de los gases de Charles, los
editores de Philosophical Transactions of the Royal Society se negaron a publicar su
artículo, rechazándolo como “nada más que una tontería, inadecuado incluso para su
lectura ante la Sociedad. "29
A medida que se acumulaban las pruebas de los átomos, se intensificaba la oposición
positivista a la teoría. En 1867, poco después de que Maxwell publicara su obra triunfal
sobre la teoría atómica de los gases, se celebró una reunión de la Chemical Society en
Londres. El evento principal de esta reunión fue un artículo titulado “Química ideal” de
Benjamin Brodie, quien ofreció un nuevo enfoque que rechazaba por completo los
átomos. Un historiador resume la visión filosófica de Brodie de la siguiente manera: “El
verdadero objeto de la ciencia no es explicar, sino describir. No podemos preguntarnos
qué es el agua, solo qué hace o en qué se convierte. No tenemos forma de captar la
realidad subyacente de las cosas, por lo que deberíamos contentarnos con la
descripción precisa de lo que hacen las cosas ... "30
¿Cómo evita un químico hacer declaraciones sobre la "realidad subyacente" y se
limita a describir meramente los cambios observables? Esta fue la pregunta que Brodie
abordó en su presentación. La clave de la respuesta, afirmó, era un nuevo sistema de
clasificación. Brodie propuso un sistema que trataba los cambios químicos, en lugar de
las sustancias químicas, como primarios (intentando así evadir la pregunta de qué está
cambiando). Los cambios se describen mediante ecuaciones químicas que nombran las
cantidades de reactivos y las cantidades de productos. Por ejemplo, dos litros de vapor
pueden convertirse en un litro de hidrógeno y un litro de peróxido de hidrógeno. O, por
ejemplo, dos litros de gas cloruro de hidrógeno pueden convertirse en un litro de
hidrógeno y un litro de cloro.
En la teoría de Brodie, las sustancias no se clasifican en términos de su naturaleza
esencial, sino por el número y tipo de operaciones necesarias para producirlas.
Implementó esta idea agrupando sustancias químicas que aparecen en lugares similares
en ecuaciones similares. En los dos ejemplos anteriores, tanto el peróxido de hidrógeno
como el cloro aparecen como productos junto con el hidrógeno en ecuaciones que
tienen los mismos coeficientes. Por lo tanto, según Brodie, estas dos sustancias deben
agruparse y designarse mediante combinaciones similares de símbolos. Por lo tanto, el
cloro está representado por símbolos que lo hacen parecer un compuesto en lugar de un
elemento.
La teoría provocó algunas críticas en la reunión. Con un toque de sarcasmo, Maxwell
dijo que le sorprendió saber que el hidrógeno y el mercurio eran operaciones más que
sustancias. Además, algunos químicos se quejaron de que el sistema de Brodie se basaba
en puntos de partida que se eligieron arbitrariamente, y diferentes opciones habrían
resultado en un esquema de clasificación diferente. Sin embargo, la reacción a la teoría
fue sorprendentemente positiva. Un autor señala que "a pesar de algunas críticas, el
tono de todos los oradores fue respetuoso y, en ocasiones, halagador". 31Después de la
reunión, la revista Chemical News dedicó casi todo un número a la teoría de Brodie,
llamándola "La química del futuro". La teoría también fue elogiada en la North British
Review, que afirmó que la idea de los átomos seguía siendo tan dudosa como lo había
sido dos milenios antes.32
Dado que Brodie se rebelaba contra la idea misma de la explicación causal, sus
puntos de vista se describen con mayor precisión como una "antiteoría" en lugar de una
teoría. Recibió una audiencia respetuosa solo porque había sentimientos generalizados
de desconfianza y hostilidad hacia los átomos. La fuente de estos sentimientos fue el
positivismo.
La hostilidad se hizo evidente en la reunión cuando Brodie ridiculizó el uso de
modelos atómicos de estructura molecular. Leyó a la audiencia el siguiente anuncio de
una revista científica: “Los hechos fundamentales de la combinación química pueden ser
simbolizados ventajosamente por bolas y alambres, y aquellos estudiantes prácticos que
requieran una demostración tangible de tales hechos aprenderán con placer que un
conjunto de modelos para la construcción de la fórmula glíptica ahora se puede obtener
por una suma comparativamente pequeña ".33Este es un anuncio perfectamente
razonable para kits de modelos moleculares, que ayudan a los químicos y estudiantes a
comprender la disposición espacial de los átomos en una molécula. Sin embargo, cuando
Brodie leyó el anuncio, tuvo que esperar a que se calmara la risa burlona antes de
continuar. Dio por sentado que tales modelos eran ridículos y gran parte de su
audiencia estuvo de acuerdo. Brodie luego comentó que el anuncio era una clara
evidencia de que la química había ido "por un camino equivocado", un camino que
estaba "completamente fuera de las reglas de la filosofía". 34
El químico que había presentado estos modelos moleculares de bola y alambre,
Edward Frankland, estaba en la reunión. Recordemos que Frankland fue pionero en la
idea de valencia atómica, que corresponde al número de cables que tiene un átomo para
unirse a otros átomos. En su libro de texto Lecture Notes for Chemistry Students, hizo
un amplio uso de estos modelos para explicar la naturaleza de los compuestos en
términos de su estructura molecular. Este fue un avance crucial, y los modelos ya habían
demostrado ser de enorme utilidad, particularmente en química orgánica.
Sin embargo, fue Brodie quien recibió un apoyo generalizado mientras atacaba y
ridiculizaba, y fue Frankland quien dio marcha atrás mientras se sentía avergonzado y
aislado. En su respuesta, Frankland trató débilmente de defender sus modelos diciendo:
"Ciertamente no me imagino que pueda surgir ningún mal de tales representaciones
simbólicas ..."35Luego enfatizó que nunca pretendió que los modelos fueran
representaciones precisas de algo real. Concedió todo el asunto con la siguiente
confesión: "No puedo hacer nada mejor que afirmar, simple y rápidamente, que ni creo
en los átomos mismos, ni creo en la existencia de centros de fuerza". 36 Cuando se le
preguntó por qué los químicos deberían usar la teoría atómica, Frankland afirmó que la
teoría sirve "como una especie de escalera para ayudar al químico a progresar de una
posición a otra en su ciencia".37 Nunca explicó cómo una teoría falsa puede funcionar
como un medio indispensable para hacer avanzar una ciencia.
Muchos científicos se sintieron obligados a adoptar esta posición contradictoria. Uno
de los químicos en la reunión, William Odling, había hecho importantes
descubrimientos sobre la estructura molecular de ciertos ácidos y sales; sin embargo, se
rió de lo que llamó "el maravilloso libro ilustrado de Frankland". 38 En la reunión, Odling
comentó: "[T] aquí hay algunos que, como yo, no creen en los átomos y mantienen la
idea de los átomos en segundo plano tanto como sea posible". 39No rechazó los átomos
en la práctica; se dio cuenta de que sin la teoría atómica no podría realizar su
investigación. Pero mantuvo los átomos en un "segundo plano" y se negó a reconocer su
realidad. Por lo tanto, cometió un crimen epistemológico que solo puede describirse
como "robo de teorías", es decir, apropiarse de una teoría a la que uno no tiene derecho.
En Francia, la controversia sobre los átomos estalló en 1877 en una reunión de la
Academia de Ciencias de París, donde Marcelino Berthelot entabló un acalorado debate
con Adolphe Wurtz. Ambos eran químicos destacados; Wurtz fue uno de los pocos
defensores vocales de la teoría atómica en Francia, y Berthelot fue un oponente
apasionado de la teoría. Después de que Wurtz citó la abundante evidencia de los
átomos y presentó sus argumentos, Berthelot respondió con su famosa pregunta
retórica: "¿Quién ha visto una molécula gaseosa o un átomo?"40 Luego declaró: "Lo
único que [la teoría atómica] ha hecho ha sido mezclar las mallas de sus hipótesis con
nuestras leyes demostradas, y esto en gran detrimento de la enseñanza de la ciencia
positiva".41
Un siglo antes, Francia había sido líder mundial en química. Sin embargo, durante el
siglo XIX, la mayoría de los químicos de las universidades francesas detuvieron su
investigación al nivel de las leyes empíricas y se negaron a avanzar hacia una teoría
causal. Berthelot expresó la actitud positivista en la raíz de este estancamiento durante
una conversación con otro químico a mediados de la década de 1880. Mientras
explicaba por qué hizo una cruzada contra la teoría atómica, Berthelot declaró: “No
quiero que la química degenere en una religión; No quiero que el químico crea en la
existencia de átomos como el cristiano cree en la presencia de Cristo en la hostia de
comunión ”.42Su colega le dijo que no se preocupara; después de todo, tranquilizó a
Berthelot, los átomos son sólo una ayuda mental y pocos creen en su existencia real.
En la década de 1880, la evidencia de la composición atómica de la materia excedía
cualquier estándar de prueba razonable. Rechazar átomos era similar a rechazar la
teoría heliocéntrica del sistema solar. La teoría atómica había integrado y explicado los
campos de la química, la cristalografía, la electrólisis, la teoría de los gases y la
termodinámica. Pero solo había una forma de evidencia que Berthelot aceptaría: los
atomistas debían presentarle un átomo que pudiera sostener en la mano y mirar. En
ausencia de tal "apariencia", insistió en que aceptar la existencia de los átomos era
simplemente un acto de fe. Así, aceptó la falsa alternativa entre empirismo y
racionalismo, y eligió actos de mirada en blanco sobre actos de fe ciega.
En física, el más famoso e influyente de los positivistas de finales del siglo XIX fue
Ernst Mach. Cuando era adolescente, Mach había leído a Kant y llegó a la opinión de que
la realidad no era más que una "multiplicidad de sensaciones". Adoptó una perspectiva
en la que todo el mundo de entidades físicas se desvaneció, dejando solo una sucesión
caleidoscópica de apariencias no relacionadas. Después de descartar la idea de
causalidad como "formalmente oscura", argumentó que el objetivo de la ciencia era
simplemente identificar ecuaciones matemáticas que describen patrones en los
fenómenos observados. Evidentemente, la teoría atómica era incompatible con tal punto
de vista. "Lo que nos representamos detrás de las apariencias existe sólo en nuestro
entendimiento", escribió. “[Tales representaciones] sólo tienen el valor de ayudas a
nuestra memoria cuya forma, por ser arbitraria e irrelevante, 43
Según Mach, una teoría científica es simplemente una mnemotecnia arbitraria. Tiene
la misma función que la canción del alfabeto, que ayuda al niño a recordar letras al
conectarlas con una melodía. Por supuesto, los investigadores exitosos no consideran
las teorías de esta manera; no las usan para recordar experiencias pasadas, sino para
explicar esos sucesos pasados y predecir fenómenos nunca antes vistos. También los
utilizan para llevar astronautas a la luna, diseñar plantas de energía nuclear,
revolucionar nuestras vidas con computadoras de alta velocidad o salvar nuestras vidas
con nuevos medicamentos y equipos de diagnóstico médico. Las teorías tienen tal poder
cuando identifican correctamente las relaciones causales fundamentales.
Las premisas básicas de Mach lo llevaron a hacer afirmaciones que solo pueden
describirse como extrañas. Al discutir la composición del agua, por ejemplo, escribió:
“Decimos que el agua consiste en oxígeno e hidrógeno, pero este oxígeno e hidrógeno
son meramente pensamientos o nombres que, a la vista del agua, nos mantenemos listos
para describir fenómenos que son no presente pero que volverá a aparecer cada vez que
descompongamos el agua ”.44De modo que el oxígeno y el hidrógeno no se refieren a los
elementos que componen el agua; más bien, se refieren solo a las burbujas de gas que
vemos durante un experimento de electrólisis. (Los positivistas posteriores darían el
siguiente paso y afirmarían que el nombre "Aristóteles" no se refiere al filósofo griego,
sino solo a nuestras experiencias perceptivas cuando leemos sobre el nombre en un
libro).
A principios del siglo XX, científicos influyentes de toda Europa todavía negaban la
realidad de los átomos. Además de Mach, estaban Karl Pearson en Inglaterra, Henri
Poincaré y Pierre Duhem en Francia, Wilhelm Ostwald y Georg Helm en Alemania, y sus
numerosos seguidores. Eran como miembros de una “sociedad de la Tierra plana”,
excepto que ocupaban puestos universitarios destacados y publicaban artículos en
revistas de prestigio.
Finalmente, los descubrimientos hechos en la primera década del siglo XX
convencieron a algunos positivistas (pero no a Mach) de reconocer el valor heurístico
de la teoría atómica. Por ejemplo, Ostwald hizo esta concesión cuando Einstein
identificó las colisiones con moléculas como la causa del movimiento “browniano”
observado de partículas muy pequeñas (pero perceptibles). La exitosa integración de
ciencias enteras no había dejado impresionado a Ostwald; reconsideró su oposición a la
teoría atómica sólo después de ver pequeñas partículas rebotar. Esto es típico de la
"conversión" que tuvo lugar entre los positivistas. Dado que su epistemología los
restringió a abstracciones cercanas al nivel perceptivo, solo este tipo de evidencia
observacional más directa podría tener algún impacto en ellos.
Aunque los átomos fueron aceptados con un encogimiento de hombros pragmático,
la filosofía que se les opuso sobrevivió. Continuó ejerciendo una fuerte influencia en la
próxima frontera de la investigación: la física subatómica. En la década de 1920, los
fundadores de la teoría cuántica rechazaron explícitamente la causalidad y se limitaron
a desarrollar un formalismo matemático que describe y predice eventos
observables.45Así, el legado del positivismo permanece con nosotros hasta nuestros
días. Ha pasado más de un siglo desde el descubrimiento del electrón y el núcleo
atómico; sin embargo, los físicos aún no tienen una teoría causal de los procesos
subatómicos, y la prohibición de desarrollar tal teoría rara vez se cuestiona.
El método empirista conduce al estancamiento.
***
A lo largo de este libro, hemos visto que las ciencias físicas dependen de otras dos
ciencias: las matemáticas y la filosofía.
El papel fundamental de las matemáticas está ampliamente reconocido, pero la
razón sigue siendo un misterio. Las matemáticas son el lenguaje de la ciencia física, pero
¿por qué? Aunque la pregunta se ha formulado durante siglos, no se ha ofrecido una
respuesta racional.
Históricamente, la respuesta más popular ha sido que Dios es un matemático y eligió
crear el universo en consecuencia. Pero la eficacia de las matemáticas no se explica por
la afirmación arbitraria de que "Dios lo hizo"; nada se hace inteligible al referirse a los
deseos de una entidad sobrenatural ininteligible que actúa por medios ininteligibles.
Desde el siglo XVII, los científicos han rechazado las supersticiones sobre fenómenos
como cometas, plagas y volcanes y las han reemplazado con explicaciones naturales. Es
hora de que hagamos lo mismo por el papel de las matemáticas.
La filosofía proporciona la visión básica de la existencia y del conocimiento que es
necesaria para perseguir las ciencias especializadas. Hoy, sin embargo, los físicos se
resisten a admitir su dependencia de la filosofía, un campo que se ha hundido en el
escepticismo y ha perdido la capacidad de responder (o incluso de formular) preguntas
interesantes. Los físicos tienen razón cuando descartan la corriente principal de la
filosofía contemporánea por considerarla irrelevante para su trabajo. Pero se equivocan
al juzgar un campo por sus practicantes irracionales, y son ingenuos al pensar que
pueden escapar de las cuestiones fundamentales de la filosofía. Hemos visto que los
diferentes enfoques de la física adoptados por Descartes, Newton y Mach tenían sus
raíces en diferentes sistemas de filosofía. Las ideas filosóficas de los científicos a veces
quedan implícitas y no expresadas,
Reconocer la dependencia de la física de la filosofía implica una responsabilidad
para el físico: debe llegar a sus conclusiones filosóficas utilizando el mismo rigor lógico
que exige para llegar a sus conclusiones científicas. Esto implica una obligación para la
filosofía, que sólo puede imponer tal respeto si está a la altura de los altos estándares
que prescribe para las ciencias especializadas. Las generalizaciones de la filosofía deben
ser inducidas a partir de datos de observación por el mismo método que define una
filosofía racional.
Comencemos por desmitificar la relación entre matemáticas y física. Luego, en la
siguiente sección, examinaremos si la ciencia fundamental que identifica los principios
de un método inductivo adecuado puede realmente seguir ese método. Finalmente,
veremos cómo el colapso de la filosofía ha afectado a la física contemporánea.
La ciencia de la filosofía
De Platón a Descartes, de Kant a Hegel, los filósofos racionalistas han intentado deducir
la naturaleza del mundo a partir de ideas "a priori", y su espectacular fracaso ha hecho
mucho por desacreditar la filosofía a los ojos de los físicos. La filosofía no nos dice la
naturaleza específica del mundo, pero sí nos dice que hay un mundo, que tiene una
naturaleza y debe actuar en consecuencia, y que descubrimos esa naturaleza siguiendo
ciertos principios de método.
La filosofía es la ciencia que define la relación entre una conciencia volitiva y la
realidad. Por tanto, es la ciencia fundamental de la vida humana, sobre la que descansan
todas las disciplinas más especializadas. Es la voz que nos dice cómo seguir esas
disciplinas mientras permanecemos en contacto cognitivo con la realidad en cada
punto, lo cual es un requisito previo para lograr con éxito metas racionales en cualquier
campo. Todas las demás ciencias presuponen lo esencial de una visión racional del
universo, del conocimiento y de los valores.
La filosofía es y debe ser un tema inductivo en todas las ramas excepto en la
metafísica. (Véase el primer capítulo del libro del Dr. Peikoff Objectivism: The
Philosophy of Ayn Rand para una discusión de cómo conocemos los axiomas
metafísicos, que son la base de todo pensamiento.) Las ideas normativas de la filosofía
no son innatas; deben aprenderse comenzando con la observación perceptiva y luego
avanzando en la jerarquía necesaria, como en la ciencia física. Todo conocimiento de la
realidad debe adquirirse sobre la base de la observación, incluido el conocimiento de
cómo adquirir conocimiento. La inducción es ineludible en todos los temas.
Los datos integrados por generalizaciones filosóficas provienen principalmente de
dos fuentes. La primera es la experiencia personal, incluida la conciencia introspectiva
de los procesos conscientes de uno y el estudio de los demás. La introspección es
claramente una fuente de datos indispensable, ya que la filosofía estudia la conciencia y
un individuo tiene acceso directo solo a la suya propia. La segunda fuente de datos
importante es la historia, que Rand alguna vez llamó "el laboratorio de la filosofía".
Obviamente, hay muchas generalizaciones sobre el conocimiento y los valores que se
pueden descubrir mediante un estudio del antiguo Egipto versus la antigua Grecia,
Atenas versus Esparta, la Edad Media versus el Renacimiento, la Revolución Americana
versus la Revolución Francesa, Alemania Oriental versus Alemania Occidental antes de
Berlín. La pared se derrumbó, y así sucesivamente.
Para dar una breve indicación del proceso inductivo en filosofía, volvamos a la
pregunta planteada al comienzo de este libro: ¿Cuál es el método adecuado para llegar a
generalizaciones sobre el mundo físico? Ahora nos preguntamos: ¿Qué generalizaciones
inductivas debían captarse antes de que fuera posible pensar en esta pregunta?
Claramente, debemos comprender la necesidad de un método. Uno de los primeros
pasos aquí es reconocer que somos falibles. Una idea no es verdadera simplemente
porque se nos ocurra o porque deseamos que sea verdadera; a veces nos equivocamos.
Los niños comprenden esto muy temprano en su desarrollo, y la gente ciertamente lo
sabía cuando todavía vivían en cuevas. Un hombre de las cavernas que confundió una
planta venenosa con una comestible pronto se enteró de que había cometido un error.
Por supuesto, la falibilidad por sí sola no nos lleva muy lejos hacia el descubrimiento
de un método racional. La solución primitiva al problema del error fue confiar en alguna
autoridad supuestamente infalible, por ejemplo, el jefe de la tribu, el médico brujo o las
revelaciones del faraón de los dioses. La humanidad tardó mucho en descubrir que
existe un método basado en hechos mediante el cual un individuo puede llegar a sus
ideas y probarlas.
Este descubrimiento fue posible cuando los filósofos de la antigua Grecia captaron la
distinción crucial entre conceptos y percepciones. Platón fue el primero en identificar
claramente las diferencias entre estas dos formas de conciencia. Los conceptos son
universales, es decir, se refieren a todos los existentes de un tipo dado, mientras que las
percepciones son la conciencia directa de los particulares; los conceptos son productos
del pensamiento, mientras que las percepciones son el resultado automático de la
interacción de nuestros sentidos con el mundo físico; los conceptos son estables,
mientras que las percepciones cambian con las circunstancias y con los cambios en los
cuerpos percibidos.
Desafortunadamente, Platón usó estas diferencias para argumentar que los
conceptos no pueden originarse en nuestra percepción del mundo físico, sino que deben
tener su fuente en un mundo sobrenatural de ideas. Al asignar conceptos y percepciones
a dos mundos diferentes y, por lo tanto, abrir una brecha entre ellos, redujo su filosofía
al misticismo y abandonó la búsqueda de un método basado en la realidad.
Fue Aristóteles quien rechazó el error de Platón y reunió las ideas con la evidencia
de nuestros sentidos. Comprendió que formamos conceptos mediante un proceso de
abstracción de nuestra conciencia sensorial de los particulares. La abstracción es un
enfoque mental selectivo sobre las similitudes entre los existentes; es el proceso de
separar mentalmente las similitudes del conjunto de diferencias en las que están
incrustadas. Así, Aristóteles reconoció que todo el conocimiento conceptual se deriva de
nuestra percepción del mundo de las entidades que nos rodean.
Además, identificó una diferencia crucial entre conceptos y percepciones que había
eludido a Platón. En contraste con el reino del pensamiento conceptual, las
percepciones son infalibles. Son simplemente el producto de una respuesta fisiológica
automática de nuestros sentidos a la realidad; no pueden estar equivocados, al igual que
una manzana no puede equivocarse en su respuesta a un campo gravitacional. Solo los
juicios que hacemos sobre la base de nuestras percepciones pueden ser erróneos. Sin
embargo, tales juicios no son automáticos; están bajo nuestro control; podemos
someterlos a una evaluación crítica y revisarlos según lo justifique la evidencia.
En esta etapa, Aristóteles pudo captar la posibilidad de validar nuestro conocimiento
mediante un método racional. El reino conceptual falible de la cognición humana se
puede comparar con los datos perceptivos infalibles. Podemos exigir que las
conclusiones alcanzadas por cualquier proceso de pensamiento volitivo integren los
datos sensoriales sin contradicción, y podemos rechazar cualquier conclusión que no
satisfaga esta exigencia. Debido a que este método se ha utilizado tan extensamente y
con tanto éxito durante siglos, ahora se da por sentado y se considera obvio. Pero era
necesario captar muchas generalizaciones inductivas abstractas sobre la cognición
humana antes de que alguien pudiera llegar a la idea de tal método.
Una vez que Aristóteles comprendió la necesidad y la posibilidad de un método
racional, preguntó: ¿Cuáles son las reglas específicas de este método, las reglas que
debemos seguir para asegurar que nuestras conclusiones se correspondan con los
hechos? Comenzó con un estudio de la deducción, que es más simple en forma que la
inducción. Los pensadores griegos habían estado discutiendo durante siglos,
construyendo cadenas de premisas que llevaban a conclusiones. Aristóteles emprendió
la tarea de identificar las reglas que distinguen los argumentos válidos de los inválidos y
de abstraer el principio básico de validez.
Su descubrimiento monumental aquí, que lo convierte en el padre de la lógica, fue
que la validez deductiva está determinada únicamente por la forma del argumento, no
por su contenido. Algunas formas son lógicamente válidas, es decir, la conclusión se
deriva de las premisas, sin importar el contenido; otras formas no son válidas, de nuevo,
independientes del contenido. Por ejemplo, considere el argumento: “Sócrates es un
hombre; los hombres son mortales; por tanto, Sócrates es mortal ". Podemos
simbolizarlo de la siguiente manera: “S es M; M es P; por lo tanto, S es P. " Cualquier
argumento con esta estructura es deductivamente válido. Por el contrario, considere el
argumento: “Sócrates es mortal; los cerdos son mortales; por tanto, Sócrates es un cerdo
". Cualquier argumento con esta estructura no es válido.
Tenga en cuenta que nuestra primera comprensión de la distinción entre
argumentos válidos e inválidos se basa en la observación directa. Por ejemplo, sabemos
que el segundo argumento es inválido simplemente porque es perceptualmente
evidente que Sócrates no es un cerdo. Más tarde, podemos simbolizar el argumento,
dibujar diagramas y captar lo que está mal en su forma. Pero la separación inicial de
argumentos válidos e inválidos es anterior al análisis abstracto, y es posible porque las
formas inválidas pueden llevar a conclusiones que son observablemente falsas.
Así, Aristóteles indujo su teoría de la deducción; examinó una enorme variedad de
argumentos particulares y llegó a generalizaciones que identificaron los diversos tipos
de estructuras válidas e inválidas. Luego, ascendiendo a un nivel aún mayor de
abstracción, preguntó: ¿Cuál es el error común en la raíz de todos los argumentos
inválidos? Encontró que todos esos argumentos implican una contradicción, es decir,
implican que algo es A y no A al mismo tiempo y en el mismo sentido. Así comprendió
(inductivamente) que la ley de la no contradicción es el principio fundamental del
pensamiento válido.
La teoría de la deducción fue un logro sin precedentes en epistemología, pero era
obvio que la validez deductiva por sí sola no es garantía de la verdad. Las premisas
falsas combinadas en una estructura válida pueden llevar a conclusiones falsas. El
conocimiento requiere validar toda la cadena de razonamiento que va desde la
observación hasta la conclusión final. Toda conclusión de un argumento deductivo
depende de generalizaciones a las que sólo se puede llegar por inducción. De ahí la
pregunta con la que comenzamos este libro: ¿Cómo podemos conocer la verdad de tales
generalizaciones?
Para responder a esta pregunta en lo que respecta a la física, nos hemos basado en
gran medida en la historia de la ciencia. La teoría de la inducción presentada aquí ha
sido inducida por la observación del proceso de descubrimiento científico en acción.
Hemos tratado la historia de la ciencia como nuestro laboratorio, identificando los
principios del método que han llevado a la verdad y las desviaciones de ese método que
han llevado al error. Hemos utilizado los métodos de acuerdo y diferencia para abstraer
los principios metodológicos comunes a los casos de descubrimiento exitoso y
contrastarlos con los casos de fracaso.
Por ejemplo, considere el principio de que una teoría científica probada debe
basarse en relaciones causales, en oposición a regularidades descriptivas. La ley de
causalidad, por supuesto, se comprende implícitamente en una etapa muy temprana del
desarrollo cognitivo; no llegamos a ella estudiando teorías científicas, que presuponen
el conocimiento de innumerables relaciones causales. Sin embargo, la historia de la
ciencia ofrece una nueva comprensión del papel de la causalidad en el desarrollo de
teorías abstractas del mundo físico, y esta comprensión no podría obtenerse de ninguna
otra manera. Cuando identificamos el enfoque no causal de Ptolomeo y vemos el
estancamiento resultante en la astronomía, y luego lo contrastamos con el enfoque
explícitamente causal de Kepler y vemos su descubrimiento histórico de la verdadera
estructura del sistema solar,
A continuación, considere el principio de que los métodos de diferencia y acuerdo
proporcionan los medios para descubrir relaciones causales (el experimento es la forma
principal de estos métodos, pero, como mostró Kepler, no es la única forma). Una cosa
es reconocer que la diferencia y el acuerdo juegan un papel importante en la ciencia
(incluso los racionalistas suelen conceder esto); sin embargo, es otra cosa comprender
la naturaleza fundamental e indispensable de ese papel. Aquí nuevamente, la historia de
la ciencia proporciona abundantes pruebas. Por ejemplo, el contraste entre la física de
Descartes y la de Newton ilustra este punto. A pesar de que Descartes realizó
experimentos de vez en cuando, el experimento no jugó un papel esencial en su física, lo
que, como resultado, fue una mezcla de afirmaciones que no tenían base en la realidad.
Por otro lado,
El papel de las matemáticas también se deriva de la historia de la ciencia. Antes de
Galileo, incluso los mejores pensadores no comprendían por completo el poder único de
las matemáticas como herramienta para comprender el mundo físico. Incluso después
de Galileo, Descartes hizo relativamente poco uso de las matemáticas en su física (a
pesar de que era un excelente matemático). Fue solo después del trabajo de Newton que
las matemáticas fueron plenamente reconocidas como el lenguaje de la ciencia física.
De la historia también aprendemos que el hombre puede descubrir la naturaleza
fundamental de la materia y que ese conocimiento teórico tiene beneficios prácticos.
Aquí, de nuevo, Newton allanó el camino. Fue el primero en concebir la posibilidad de
explicar la enorme variedad de fenómenos observados mediante unas pocas leyes
fundamentales. Luego, ese conocimiento hizo posible la Revolución Industrial, lo que
resultó en un aumento dramático en la longevidad y prosperidad de la vida humana. Y,
si somos lentos para aprender la lección, la historia tiene la amabilidad de repetirla por
nosotros. Por ejemplo, podemos observar el descubrimiento de la teoría atómica de la
materia, la desastrosa oposición a la teoría por parte de los positivistas que negaban la
posibilidad de tal conocimiento y, finalmente, la extraordinaria tecnología promotora de
vida que ha surgido de la teoría.
Finalmente, considere el principio de que el método inductivo es autocorrector.
¿Podríamos haber captado este principio sin extraerlo de la historia de la ciencia?
Podríamos haber argumentado como sigue: (1) La realidad es un todo interconectado
causalmente que no tiene contradicciones; (2) el método inductivo mantiene a uno en
contacto cognitivo con la realidad; (3) por lo tanto, tal contacto garantiza que uno
eventualmente se dará cuenta de hechos que contradicen y, por lo tanto, refutan
cualquier idea falsa. Sin embargo, esto en sí mismo no es más que una serie de
abstracciones flotantes poco convincentes. El argumento se vuelve convincente sólo
cuando damos contenido a las abstracciones examinando una amplia gama de errores
reales de la historia de la ciencia y viendo en todos los casos que la aplicación
continuada del método inductivo condujo a la corrección del error.
La teoría de la inducción debe evaluarse con los mismos criterios que propone para
evaluar las teorías en las ciencias físicas. Examinemos ahora si se han cumplido estos
criterios.
Primero, considere la variedad de datos históricos que se han ofrecido en apoyo de
la teoría. Hemos examinado de cerca el descubrimiento de tres teorías relativamente
estrechas (la cinemática de Galileo, la teoría del sistema solar de Kepler y la teoría de los
colores de Newton) y el descubrimiento de dos teorías fundamentales (la mecánica
newtoniana y la teoría atómica de la materia). Estas teorías difieren en el nivel de
abstracción, involucran diferentes ciencias (astronomía, física y química) y se ocupan de
fenómenos que van desde los muy grandes (el sistema solar) hasta los muy pequeños
(átomos). En cada caso se demostró que los mismos principios del método condujeron a
la prueba y que los errores cometidos en el camino hacia el descubrimiento fueron
causados por alguna desviación de ese método.8
He elegido deliberadamente teorías probadas y no controvertidas. Un filósofo de la
ciencia que intente identificar los principios del método debe hacerlo por la misma
razón por la que el físico debe eliminar los factores de confusión en sus experimentos.
Así como el físico no puede identificar una causa cuando un experimento involucra
varias variables relevantes pero no controladas, el filósofo no puede identificar los
principios del método apropiado examinando el desarrollo de una teoría que tiene una
relación desconocida con la realidad.
Además de ser inducida por la historia de la ciencia, una teoría de la inducción en
física también debe ser parte integral de un amplio sistema filosófico que ha sido
validado. La inducción es un tema avanzado en epistemología y, por lo tanto, presupone
respuestas a muchas preguntas previas sobre los fundamentos y la naturaleza del
conocimiento. Nuestra teoría es parte de un marco filosófico total que identifica los
axiomas básicos sobre los que descansa todo el conocimiento y la naturaleza de los
conceptos. Así, hemos aceptado la responsabilidad de satisfacer nuestros propios
criterios de prueba: hemos presentado una teoría de la inducción que se basa en todo en
la observación, que se integra con un marco conceptual válido y que ha sido inducida a
partir de un rango suficiente de datos.
Comencé esta sección enfatizando que la filosofía es la base de las ciencias
especializadas y, sin embargo, ahora he enfatizado que algunos conocimientos
filosóficos cruciales se derivan de la historia de esas ciencias. Ambos puntos son
verdaderos y consistentes entre sí. Uno debe tener lo esencial de un enfoque racional de
este mundo para descubrir el conocimiento especializado; luego, una vez que se ha
descubierto una cantidad significativa de ese conocimiento, se puede reflexionar sobre
el proceso y llegar a una comprensión más explícita del método. El conocimiento
filosófico necesario al principio es jerárquicamente más bajo que los principios del
método que se inducen a partir del descubrimiento exitoso de las teorías científicas. Por
ejemplo, primero debemos comprender que la observación es la base del conocimiento
antes de que podamos comprender el papel del experimento en la ciencia física;
primero debemos comprender la ley de la no contradicción y la interdependencia de
nuestras ideas antes de que podamos comprender el principio de que todo
conocimiento debe formar un todo integrado; y primero debemos captar los beneficios
prácticos del conocimiento de nivel inferior antes de poder captar el valor
extraordinario de las teorías abstractas.
En Capítulo 4, discutimos la relación entre el conocimiento temprano de la física y
los descubrimientos posteriores. Vimos que la cinemática de Galileo era un requisito
previo esencial que permitió a Newton expandir el concepto de "aceleración" y
comprender el concepto de "gravedad". En su contexto de conocimiento más avanzado,
Newton pudo mirar hacia atrás y ver las implicaciones de los experimentos de Galileo
que el propio Galileo no pudo comprender. El uso de descubrimientos posteriores para
profundizar y ampliar la comprensión de los puntos anteriores es característico del
conocimiento en cualquier campo, y esto es particularmente cierto en la filosofía. La
ciencia de la filosofía comienza diciéndonos que debemos usar la razón para captar la
realidad si queremos permanecer en la realidad, y luego, a medida que avanza, la
filosofía repite el mismo mensaje, pero con una comprensión cada vez más profunda de
la razón y los requisitos de la misma. vida humana.
Las ciencias de la filosofía y la física utilizan un método similar. Ambos parten de
generalizaciones de bajo nivel basadas en la observación y llegan a principios mediante
un proceso de integración paso a paso. Los conceptos juegan el mismo papel en ambos
campos: los conceptos válidos lo dirigen a uno en el camino hacia las verdaderas
generalizaciones, y los conceptos inválidos detienen el progreso. Y las teorías de ambas
ciencias deben satisfacer los mismos criterios de prueba.
Pero hay dos diferencias obvias de método que han cegado a los intelectuales al
hecho de que la filosofía es una ciencia inductiva.
Primero, la filosofía no usa experimentos. El sujeto de la filosofía es el hombre, y es
evidente que está mal controlar y manipular a los hombres. Además, incluso el intento
diabólico de tratar a los hombres como objetos inanimados fracasaría; dado que los
hombres tienen libre albedrío, siempre existe un factor causal que está inherentemente
más allá del control de cualquier aspirante a experimentador. Pero, como hemos visto,
la filosofía tiene su propio paralelo al experimento que es completamente adecuado
para sus propósitos: utiliza los métodos de la diferencia y el acuerdo para explotar las
ricas fuentes de datos proporcionadas por la experiencia personal y la historia.
En segundo lugar, la filosofía no usa las matemáticas. La filosofía estudia la relación
entre la conciencia del hombre y la realidad, y la conciencia no es numerable. Se puede
medir de forma aproximada porque los pensamientos y las emociones varían a lo largo
de continuos cuantitativos. Por ejemplo, podemos decir que la idea de Newton de la
gravitación universal tiene un alcance mayor que su idea sobre la ropa que usará en una
ocasión particular; o podemos decir que el amor de una mujer por su marido es más
intenso que su amor por el chocolate. Pero nunca podremos decir que la idea de la
gravitación es 8.719 veces más grande, o que el amor de la mujer es 163 veces más
intenso.
Los estados de conciencia son mensurables (aproximada y no numéricamente) solo
por su relación con la materia. De una forma u otra, lo que se mide siempre es la
materia, no el estado de conciencia en tanto que conciencia. Un pensamiento que tiene
un gran alcance es aquel que incluye más objetos o atributos físicos. Una emoción que
tiene gran intensidad es aquella que conduce a más acciones, y / o más tiempo en
acción, y / o la elección de ciertas acciones sobre otras. Cuando los investigadores
hablan (vagamente) de aplicar medidas numéricas a la conciencia, de hecho están
midiendo entidades físicas, atributos o acciones que están relacionadas con estados
conscientes.
La conciencia tiene una naturaleza, es decir, la conciencia se logra por medios
específicos; pero todo lo que se puede medir que pertenece a la naturaleza de la
conciencia se relaciona con sus instrumentos físicos: un tipo particular de sentidos y un
tipo particular de cerebro. El fenómeno de la conciencia en sí mismo es inanalizable,
porque no es más que la facultad de percibir la existencia. Por sí mismo, es decir,
considerado al margen de cualquier relación con el mundo físico, carece de contenido y
carácter, por lo que no hay ningún misterio sobre por qué no se puede cuantificar. Los
números son aplicables sólo a entidades y sus atributos, pero los estados conscientes no
son entidades, son la conciencia de entidades.
Un neurólogo puede medir los impulsos eléctricos en un cerebro y correlacionarlos
con los estados de conciencia, pero los números siempre se refieren a los estados del
cerebro. Un psicólogo puede dar pruebas de opción múltiple diseñadas para medir la
inteligencia o la autoestima, pero tales pruebas dan (en el mejor de los casos) solo
estimaciones aproximadas. Los puntajes numéricos están determinados por la
ubicación de las marcas físicas en las hojas de papel. Puede estar claro que un hombre
en particular es más inteligente o más seguro que otro hombre, pero no hay un
significado literal para la afirmación de que es un 28 por ciento más inteligente o que su
autoestima es un 17 por ciento más alta. No hay nada que sirva como unidad numérica
de inteligencia o autoestima.
Las ideas dentro de una mente son una parte inseparable de un estado cognitivo
total de una manera que no es cierta para los cuerpos físicos. Los constituyentes de una
tabla o de una aleación o incluso de un átomo pueden estar separados y existir sin
conexión con su todo anterior, y conservan una identidad independiente propia incluso
cuando son partes de un todo mayor. Pero dado que una idea carece de sentido aparte
del contexto cognitivo en el que está incrustada, no puede separarse de esta manera, y
mucho menos definirse como una unidad y relacionarse numéricamente con otras ideas.
Cuando una idea se combina con otra idea para llegar a otra idea, la asignación de
números puede llevar a la conclusión de que uno más uno es igual a uno. La conciencia
es una facultad integradora y, como tal, debe eludir cualquier forma de contar.
El hecho de que la filosofía no pueda utilizar las matemáticas no tiene consecuencias
negativas; no pone en duda el estatus del conocimiento filosófico. La física debe utilizar
las matemáticas para descubrir causas y adquirir un conocimiento integrado de una
amplia gama de cuerpos físicos y su desconcertante variedad de propiedades. La
filosofía, en cambio, es un tema más abstracto y mucho más delimitado: estudia un
aspecto de una especie y, por lo tanto, proporciona la base de todo nuestro
conocimiento y nuestros valores. A diferencia de la física, no necesita las matemáticas
para proporcionar un método de integración especializado.
Aquellos que consideran la filosofía como una disciplina "blanda" y no científica, en
contraste con los campos "duros" y científicos de las matemáticas y la física, han
aceptado una Gran Mentira. Las ideas de matemáticos y físicos no pueden ser más
objetivas o ciertas que las ideas filosóficas de las que dependen. La filosofía es la
disciplina que nos dice cómo ser objetivos y cómo lograr la certeza. Sin una teoría del
conocimiento, ¿cómo sabrían los matemáticos o físicos la relación de sus conceptos y
generalizaciones con la realidad?
Es la ciencia inductiva de la filosofía la que le enseña al científico "duro" cómo ser
científico.
***
Prefacio
1. E. Bright Wilson, Introducción a la investigación científica (Nueva York: Dover,
1990), pág. 298.
Capítulo 1
1. Paul K. Feyerabend, Against Method, edición revisada (Nueva York: Verso, 1988),
p. 73.
2. E. Bright Wilson, Introducción a la investigación científica (Nueva York: Dover,
1990), pág. 293.
3. Ayn Rand, Introducción a la epistemología objetivista (Nueva York: Penguin,
1990), p. 13.
4. Ibíd., Pág. 18.
5. Leonard Peikoff, Objectivism: The Philosophy of Ayn Rand (Nueva York: Penguin,
1990), p. 90.
6. A medida que nuestro conocimiento se expande, las definiciones también cumplen
una función crucial para los conceptos de primer nivel; por ejemplo, la definición
del hombre como "el animal racional" representa una enorme condensación de
conocimientos.
7. Rand,Introducción a la epistemología objetivista, p. 48.
8. Ibíd., Págs. 66–67.
9. Peikoff, objetivismo, pág. 133.
10. Ibídem.
11. Ibíd., Págs. 172–73.
12. Duane Roller, El desarrollo del concepto de carga eléctrica (Cambridge, Mass .:
Harvard University Press, 1967), p. 63.
Capitulo 2
1. A. Mark Smith, “La búsqueda de Ptolomeo de una ley de refracción”, Archivo de
Historia de las Ciencias Exactas 26 (1982), págs. 221–40.
2. La derivación inicial de Galileo del teorema de la cuerda no es válida. Más tarde,
después de su descubrimiento experimental de la aceleración constante en
planos inclinados, dio una demostración correcta del teorema. Stillman Drake
analiza este punto en Galileo: Pioneer Scientist (Toronto: University of Toronto
Press, 1990), p. 91.
3. Michael R. Matthews, Time for Science Education (Nueva York: Kluwer Academic /
Plenum Publishers, 2000), p. 104.
4. Citado en ibid., Págs. 84-85.
5. Ibíd., Pág. 82.
6. Stillman Drake, Galileo: Pioneer Scientist (Toronto: University of Toronto Press,
1990), pág. 96.
7. Stillman Drake, Galileo en el trabajo (Chicago: University of Chicago Press, 1978),
pág. 128.
8. Matthews,La hora de la educación científica, pág. 98.
9. Galileo: Diálogo sobre los dos sistemas mundiales principales, traducido por
Stillman Drake, 2ª edición (Berkeley: University of California Press, 1967), págs.
17–21.
10. Drake, Galileo at Work, págs. 387–88.
11. Los escritos filosóficos de Descartes, vol. 1, traducido por John Cottingham,
Robert Stoothoff y Donald Murdoch (Nueva York: Cambridge University Press,
1985), p. 249.
12. I. Bernard Cohen y Richard S. Westfall, eds., Newton (Nueva York: Norton, 1995),
pág. 148.
13. JE McGuire y Martin Tamny, Certain Philosophic Questions: Newton's Trinity
Notebook (Cambridge, Inglaterra: Cambridge University Press, 1983), pág. 263.
14. Ibíd., Pág. 389.
15. Richard S. Westfall, Never at Rest (Cambridge, Inglaterra: Cambridge University
Press, 1980), pág. 164.
dieciséis. Filosofía de la naturaleza de Newton: selecciones de sus escritos, editado por
HS Thayer (Nueva York: Hafner, 1953), p. 6.
17. Ibídem.
18. Ibíd., Págs. 7-8.
19. Newton restringió su método inductivo y su rechazo de las afirmaciones
arbitrarias al ámbito de la ciencia. Era devotamente religioso y, por tanto, no
sostenía que todo conocimiento deba basarse en la observación. Sin embargo, a
diferencia de Descartes, quien invocó explícitamente a Dios en su intento de
validar las leyes del movimiento, Newton rara vez permitió que sus puntos de
vista religiosos afectaran su ciencia (la excepción crucial es su punto de vista de
la naturaleza del espacio y el tiempo).
20. Cohen y Westfall, eds., Newton, págs. 148–49.
21. Morris Cohen y Ernest Nagel, Introducción a la lógica y al método científico
(Nueva York: Harcourt, Brace & World, 1934), pág. 205.
22. Ibíd., Pág. 266.
23. Ibíd., Pág. 257.
Capítulo 3
1. Pierre Duhem, To Save the Phenomena, traducido por Edmund Doland y Chaninah
Maschler (Chicago: University of Chicago Press, 1969), p. 31.
2. Nicolaus Copernicus, On the Revolutions of Heavenly Spheres, traducido por
Charles Glenn Wallis (Nueva York: Prometheus, 1995), p. 26.
3. Ibíd., Pág. 27.
4. I. Bernard Cohen, The Birth of a New Physics (Nueva York: Norton, 1985), p. 23.
5. CopérnicoSobre las revoluciones de las esferas celestiales, págs. 12-13.
6. Ibíd., Pág. 17.
7. Max Caspar, Kepler, traducido y editado por C. Doris Hellman (Nueva York: Dover,
1993), p. 102.
8. Gerald Holton, Thematic Origins of Scientific Thought: Kepler to Einstein
(Cambridge, Mass .: Harvard University Press, 1973), p. 72.
9. Gaspar, Kepler, pág. 62.
10. Holton,Orígenes temáticos del pensamiento científico, pág. 78.
11. Gaspar, Kepler, pág. 134.
12. Arthur Koestler, The Sleepwalkers (Londres: Penguin, 1989), págs. 327-28.
13. Holton,Orígenes temáticos del pensamiento científico, pág. 74.
14. Koestler, Los sonámbulos, pág. 334.
15. Selecciones de Astronomia Nova de Kepler, traducido por William H. Donahue
(Santa Fe, NM: Green Lion, 2004), p. 94.
dieciséis. Koestler, Los sonámbulos, pág. 337.
17. Gaspar, Kepler, pág. 19.
18. Holton,Orígenes temáticos del pensamiento científico, pág. 68.
19. Gaspar, Kepler, pág. 67.
20. Koestler, Los sonámbulos, pág. 398.
21. Holton,Orígenes temáticos del pensamiento científico, pág. 85.
22. Caspar, Kepler, págs. 280–81.
23. Ibíd., Pág. 135.
24. Para más información sobre la astronomía de Galileo y su batalla con la Iglesia,
vea mi artículo de tres partes “Galileo: Inaugurando la Era de la Razón”, The
Intellectual Activist 14, núms. 3-5 (marzo-mayo de 2000).
Capítulo 4
1. Isaac Newton, Principia, vol. 2, El sistema del mundo (Berkeley: University of
California Press, 1934), pág. 398.
2. James Gleick, Isaac Newton (Nueva York: Pantheon, 2003), pág. 58.
3. Galileo Galilei, Two New Sciences, traducido por Henry Crew y Alfonso de Salvio
(Nueva York: Dover, 1954), págs. 182–83.
4. Gleick, Isaac Newton, pág. 59.
5. Ernst Mach, La ciencia de la mecánica (Chicago: Open Court, 1960).
6. Isaac Newton, Principia, vol. 1, The Motion of Bodies, prefacio de la primera
edición (Berkeley: University of California Press, 1934), pág. xvii.
7. Newton,Principia, vol. 2, El sistema del mundo, pág. 519.
8. A. Rupert Hall, From Galileo to Newton (Nueva York: Dover, 1981), págs. 310-14.
9. Newton,Principia, vol. 2, El sistema del mundo, pág. 547.
10. Sala,De Galileo a Newton, págs. 315-16.
11. David Harriman, “Grietas en la fundación”, The Intellectual Activist 16, no. 12
(diciembre de 2002), págs. 19–27.
12. Véase la quinta carta de Leibniz en The Leibniz-Clarke Correspondence, editada
por HG Alexander (Manchester, Inglaterra: Manchester University Press, 1965).
13. Nicolaus Copernicus, On the Revolutions of Heavenly Spheres, traducido por
Charles Glenn Wallis (Nueva York: Prometheus, 1995), p. 5.
Capítulo 5
1. Thomas L. Hankins, Science and the Enlightenment (Nueva York: Cambridge
University Press, 1985), pág. 112.
2. Ibíd., Pág. 109.
3. El mundo del átomo, vol. 1, editado por Henry Boorse y Lloyd Motz (Nueva York:
Basic Books, 1966), p. 169.
4. JR Partington, A Short History of Chemistry (Nueva York: Dover, 1989), p. 204.
5. El mundo del átomo, vol. 1, pág. 321.
6. Ibíd., Pág. 327.
7. The Beginnings of Modern Science, editado por Holmes Boynton (Roslyn, NY:
Walter J. Black, 1948), p. 198.
8. Humphry Davy, "An Essay on Heat, Light, and the Combinations of Light", en
Contribuciones al conocimiento físico y médico, editado por T. Beddoes (Bristol,
Inglaterra, 1799), reimpreso en las Obras completas de Davy (Londres, 1839),
vol. 2, pág. 9.
9. Investigadores posteriores, como Clausius y Maxwell, se dieron cuenta de que el
modelo de Waterston estaba demasiado simplificado. El calor absorbido por un
gas poliatómico no solo aumenta la velocidad de las moléculas; también puede
aumentar su velocidad de rotación y vibración. Afortunadamente, la ley básica de
los gases depende solo de la proporcionalidad entre la temperatura y la energía
cinética de traslación promedio y, por lo tanto, el modelo de Waterston fue
adecuado para su propósito. Para comprender las capacidades caloríficas de los
gases, se deben tener en cuenta los demás movimientos.
10. Stephen G. Brush, El tipo de movimiento que llamamos calor (Amsterdam:
Elsevier Science BV, 1986), p. 146.
11. The Scientific Papers of James Clerk Maxwell, editado por WA Niven (Nueva
York: Dover, 1965), vol. 2, págs. 344–45.
12. Cepillo,El tipo de movimiento que llamamos calor, pág. 190.
13. Este resultado es fiel a la aproximación de primer orden, que se aplica a los
cuerpos que se mueven lentamente a través de gases dentro de un cierto rango
de presión. No se aplica cuando la presión es extremadamente baja o alta y, como
pueden atestiguar los lanzadores de béisbol, no se aplica a las bolas curvas
lanzadas al Coors Field en Denver.
14. Cepillo,El tipo de movimiento que llamamos calor, pág. 191.
15. Ibíd., Pág. 76.
dieciséis. El mundo del átomo, vol. 1, pág. 278.
17. Frankland originó el concepto, pero utilizó el término "atomicidad" en lugar de
"valencia". La palabra "valencia" entró en uso a finales de la década de 1860.
18. WG Palmer, A History of the Concept of Valencia to 1930 (Londres: Cambridge
University Press, 1965), pág. 34.
19. Ibíd., Pág. 14.
20. Ibíd., Pág. 27.
21. Ibíd., Pág. 76.
22. Cecil J. Schneer, Mind and Matter (Nueva York: Grove, 1969), pág. 178.
23. Alexander Butlerov, "Sobre la estructura química de las sustancias", reimpreso
en Journal of Chemical Education 48 (1971), págs. 289–91.
24. Palmero,Una historia del concepto de Valencia hasta 1930, pág. 62.
25. John Hudson, The History of Chemistry (Nueva York: Chapman & Hall, 1992), p.
148.
26. John Buckingham, Persiguiendo la molécula (Stroud, Inglaterra: Sutton, 2004),
pág. 206.
Capítulo 6
1. Karl R. Popper, Objective Knowledge, edición revisada (Oxford: Clarendon Press,
1979), págs. 9, 16, 198-201.
2. WG Palmer, A History of the Concept of Valencia to 1930 (Londres: Cambridge
University Press, 1965), pág. 66.
3. The Beginnings of Modern Science, editado por Holmes Boynton (Nueva York:
Walter J. Black, 1948), págs. 393–94.
4. Ibíd., Págs. 443–61.
5. JR Partington, A Short History of Chemistry (Nueva York: Dover, 1989), p. 48.
6. Walter Pagel,Los aspectos religiosos y filosóficos de la ciencia y la medicina de van
Helmont (Baltimore: Johns Hopkins Press, 1944), págs. 16–22.
7. Edmund Whittaker, Historia de las teorías del éter y la electricidad (Nueva York:
Thomas Nelson, 1951), p. 75.
8. AEE McKenzie, The Major Achievements of Science (Cambridge, Inglaterra:
Cambridge University Press, 1960), pág. 111.
9. Ruth Moore, The Earth We Live On (Nueva York: Knopf, 1956), pág. 268.
10. Joe D. Burchfield, Lord Kelvin and the Age of the Earth (Nueva York: Science
History Publications, 1975), pág. 81.
11. Ibíd., Pág. 42.
12. Ibíd., Págs. 143–44.
13. Ibíd., Pág. 168.
14. Moore,La Tierra en la que vivimos, pág. 385.
15. Burchfield,Lord Kelvin y la era de la Tierra, pág. 176.
dieciséis. Steven Weinberg, Sueños de una teoría final (Nueva York: Vintage, 1992),
p. 13.
17. Gary Taubes,Bad Science: The Short Life and Weird Times of Cold Fusion (Nueva
York: Random House, 1993), p. 127.
18. Ayn Rand, For the New Intellectual (Nueva York: New American Library, 1961),
pág. 30.
19. Rene Descartes, Principles of Philosophy (Dordrecht, Países Bajos: Kluwer
Academic Publishers, 1991), p. 20.
20. The Philosophical Writings of Descartes, traducido por John Cottingham, Robert
Stoothoff y Dugald Murdoch (Cambridge, Inglaterra: Cambridge University Press,
1985), p. 288.
21. Descartes,Principios de filosofía, pág. 69.
22. Los escritos filosóficos de Descartes, pág. 245.
23. Ibíd., Pág. 266.
24. Descartes,Principios de filosofía, pág. 283.
25. A. Rupert Hall, From Galileo to Newton (Nueva York: Dover, 1981), pág. 120.
26. Para un análisis de la filosofía de Kant y su enfoque de la ciencia, vea mi artículo
“La ciencia de la iluminación y su caída”, Objetivo Estándar 1, no. 1 (2006), págs.
83-117.
27. Immanuel Kant, Filosofía de la naturaleza material de Kant, traducido por James
W. Ellington (Indianápolis: Hackett, 1985), p. 93.
28. WH Brock, The Atomic Debates (Leicester, Inglaterra: Leicester University Press,
1967), pág. 10.
29. Stephen G. Brush, El tipo de movimiento que llamamos calor, libro 1
(Amsterdam: Elsevier Science BV, 1976), p. 140.
30. Brock,Los debates atómicos, pág. 77.
31. Ibíd., Pág. 51.
32. Ibíd., Págs. 14, 48.
33. Alan J. Rocke, Atomismo químico en el siglo XIX (Columbus: Ohio State University
Press, 1984), p. 314.
34. Ibídem.
35. Ibíd., Pág. 315.
36. Ibídem.
37. The Question of the Atom, editado por Mary Jo Nye (Los Ángeles: Tomash, 1984),
p. 143.
38. Rocke,El atomismo químico en el siglo XIX, pág. 316.
39. Ibíd., Pág. 315.
40. Ibíd., Pág. 323.
41. La cuestión del átomo, pág. 246.
42. Rocke,El atomismo químico en el siglo XIX, pág. 324.
43. Ernst Mach, Historia y raíz del principio de conservación de la energía (Chicago:
University of Chicago Press, 1910), p. 49.
44. Ibíd., Pág. 48.
45. Paul Forman, “Cultura, causalidad y teoría cuántica de Weimar, 1918-1927:
adaptación de físicos y matemáticos alemanes a un entorno intelectual hostil”,
Estudios históricos en ciencias físicas 3 (1971), págs. 1-115.
Capítulo 7
1. James Jeans, Physics and Philosophy (Cambridge, Inglaterra: Cambridge
University Press, 1943), págs. 15-16.
2. Citado en Morris Kline, Mathematics: The Loss of Certainty (Nueva York: Oxford
University Press, 1980), p. 340.
3. Pat Corvini explica el desarrollo paso a paso del sistema numérico en su curso de
conferencias, "Dos, tres, cuatro y todo eso", que está disponible en la librería Ayn
Rand.
4. Leonard Peikoff, Objectivism: The Philosophy of Ayn Rand (Nueva York: Penguin,
1990), págs. 111–21.
5. Kline, Matemáticas, pág. 339.
6. Véase, por ejemplo, el curso de conferencias del Dr. Corvini titulado "Aquiles, la
tortuga y la objetividad de las matemáticas" (que está disponible a través de la
librería Ayn Rand). El Dr. Corvini está trabajando actualmente en un libro
titulado "Concebir el infinito".
7. Ayn Rand, Introducción a la epistemología objetivista, segunda edición, editado
por Harry Binswanger y Leonard Peikoff (Nueva York: Penguin, 1990).
8. Véase, por ejemplo, Duane Roller, The Development of the Concept of Electric
Charge (Cambridge, Mass .: Harvard University Press, 1954) y Sir Edmund
Whittaker, A History of the Theories of Aether and Electricity, vol. 1 (Nueva York:
Thomas Nelson, 1951).
9. Immanuel Kant, Critique of Pure Reason, traducido por Norman Kemp Smith
(Nueva York: St. Martin's, 1965), p. 286.
10. Ibíd., Pág. 22.
11. Immanuel Kant, Filosofía de la naturaleza material de Kant, traducido por James
W. Ellington (Indianápolis: Hackett, 1985), págs. 55–56.
12. Thomas Kuhn, The Structure of Scientific Revolutions, segunda edición (Chicago:
University of Chicago Press, 1970), p. 158.
13. Ibíd., Pág. 150.
14. Ibíd., Pág. 134.
15. Paul K. Feyerabend, “Filosofía de la ciencia 2001”, en Metodología, metafísica e
historia de la ciencia, editado por Robert S. Cohen y Marx W. Wartofsky (Boston:
D. Reidel, 1984), p. 138.
dieciséis. Ibíd., Pág. 147.
17. Quantum Questions: Mystical Writings of the World's Great Physicists, editado por
Ken Wilber (Boston: New Science Library, 1984), p. 180.
18. Nick Herbert, Quantum Reality: Beyond the New Physics (Nueva York: Anchor,
1987), p. 17.
19. Donald Murdoch, Filosofía de la física de Niels Bohr (Cambridge, Inglaterra:
Cambridge University Press, 1987), pág. 139.
20. Herbert, Quantum Reality, pág. 18.
21. Citado en Paul Forman, “Cultura, causalidad y teoría cuántica de Weimar, 1918-
1927: adaptación de físicos y matemáticos alemanes a un entorno intelectual
hostil”, Estudios históricos en ciencias físicas 3 (1971), p. 78.
22. George Greenstein y Arthur G. Zajonc, The Quantum Challenge (Sudbury, Mass .:
Jones y Bartlett, 1997), pág. 53.
23. The Ghost in the Atom, editado por PCW Davies y JR Brown (Cambridge,
Inglaterra: Cambridge University Press, 1986), p. 31.
24. Niels Bohr, Atomic Theory and the Description of Nature (Cambridge, Inglaterra:
Cambridge University Press, 1934), p. 96.
25. James Gleick, Genius: The Life and Science of Richard Feynman (Nueva York:
Vintage, 1993), p. 243.
26. Eric Lerner, "Bucking the Big Bang", New Scientist, 22 de mayo de 2004, pág. 20.
27. Lee Smolin, The Trouble with Physics (Nueva York: Houghton Mifflin, 2006), p.
121.
28. Ibíd., Págs. 116-17.
29. Steven Weinberg, Sueños de una teoría final (Nueva York: Vintage, 1994), p. 195.
30. Phaedo (65–66), en The Collected Dialogues of Platón, editado por Edith
Hamilton y Huntington Cairns (Princeton, Nueva Jersey: Princeton University
Press, 1961), págs. 48–49.
31. John Horgan, The End of Science (Nueva York: Broadway, 1997), p. 73.
SOBRE EL AUTOR
Los números de página de este índice se refieren a la versión impresa de este libro. Para
encontrar las ubicaciones correspondientes en el texto de esta versión digital, utilice la
función de "búsqueda" en su lector electrónico. Tenga en cuenta que es posible que no
se puedan buscar todos los términos.
abstracción, 234
(ver también conceptos, teoría de Rand)
aceleración, concepto de, 47–48, 118–20, 143
acidez, 194–96
Contra el método, 247
acuerdo, método de, 70
presión de aire, 123-24
alótropos, definición de, 160
Anaxágoras, 81
Apolonio, 102, 132
reclamaciones arbitrarias, 64–66, 72–73, 145, 215
Arquímedes, 102, 124, 149
Aristarco, 81
Aristóteles, 6, 25, 30, 35, 149, 189, 234–36, 248
átomo,
definición de, 157
estructura de, 204
teoría atómica, 151–88, 238
en la antigua Grecia, 151–52, 157
rechazo positivista de, 216-22
peso atómico, 159, 161–63, 171–72
Averroes, 84 años
Avogadro, Amedeo, 158, 162–63, 167
Tierra,
edad de 201–6
como un imán, 90, 99
órbita de, 94–96
precesión del eje de giro, 140
forma de, 139–40
tamaño de, 82–83
Eddington, Sir Arthur, 248, 251
educación, 146
Einstein, Albert, 20, 104, 147–49, 222, 226
batería eléctrica, 199
corriente eléctrica, 197-201
electricidad,
Observaciones griegas de, 13
teoría estática de 196-1997
electrólisis, 161–62, 207, 221
elemento, concepto de, 153–54
Elementos de la química, 155
empirismo, 21, 30, 130, 142, 151, 211, 215-23, 245
energía, concepto de, 165–66, 179
enumeración, 8–9
epiciclos, 86
puntos de ecuación, 91–92
Eratóstenes, 82–83
Euclides, 102
Eudoxo, 253
Euler, Leonhard, 56
experimentar,
definición de, 36
crucial, 179–80
(ver también acuerdo y diferencia, métodos de)
Experimentos y consideraciones sobre los colores que tocan, 59
falacia,
de "fijación cognitiva", 206
de "promiscuidad cognitiva", 206–9
de abandonar el contexto, 8
de controles experimentales inadecuados, 200
de sustituir una regularidad por una causa, 196
de "robo de teoría", 220
Faraday, Michael, 161–62, 174, 185
Adiós a la razón, 247
Fermi, Enrico, 44
Feyerabend, Paul, 5, 246–47
Feynman, Richard, 250
Fleischmann, Martin, 207–9
fuerza, concepto de, 90, 143
Frankland, Edward, 172–73, 219
Franklin, Benjamin, 31–34, 153
caída libre, 43–44, 46–47, 125
fricción, 16, 44
Galileo, 9, 24, 102, 118–20, 133, 149, 211–12, 237–38, 240, 243
teorema del acorde, 40
descubrimientos con telescopio, 114, 180
errores en física, 54–57, 209–10
caída libre, 43–44, 46–47, 125, 132
movimiento horizontal libre, 15–16, 49–50
planos inclinados, 48–50, 122
trayectorias parabólicas, 50–51, 190
péndulos, 38–42, 127, 229–30
relatividad del movimiento, 53–54, 89, 114, 116
Galvani, Luigi, 197–200, 209
Gamow, George, 251
gas, concepto de, 192–93
Gay-Lussac, Joseph Louis, 157–58
generalización,
como forma de conceptualización, 28, 72
basado en conexiones causales, 21
como contextual, 19-20
como jerárquico, 14-20
primer nivel, 16, 18-28
teoría geocéntrica, 37, 83–88, 91, 150, 180, 237, 252–53
geología, 201–6
Gilbert, William, 90, 99, 212
Gleick, James, 250
gravitación,
concepto de, 42, 56, 77, 120-21, 144
ley de 131-145
Teoría griega de los elementos, 153–54
Teoría griega del movimiento, 45, 78
radiactividad, 205
arco iris, teoría de, 58, 63
Rand, Ayn, 233
teoría de conceptos, xi, 9–14, 35, 152, 228–32
racionalismo, 30, 105, 142, 151–52, 211–15, 245
reducción (del conocimiento a la percepción sensorial), 15-18
reflejo de colores, 62–63
refracción, 37, 58–62, 75
religión, 25, 66, 148
Más rico, Jean, 124
Roemer, Olaus, 17
Rumford, Count (también conocido como Benjamin Thompson), 164, 181
Rutherford, Ernesto, 205
Tamny, Martín, 59
telescopio,
aberración cromática, 58, 63
reflectante, 63
descubrimientos con 114, 135, 180
temperatura, 13, 165–66, 183
Tales, 194
mareas, explicación de, 138–39
Torricelli, Evangelista, 123-24, 149