0% encontró este documento útil (0 votos)
142 vistas185 páginas

Untitled

El salto logico.

Cargado por

.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
142 vistas185 páginas

Untitled

El salto logico.

Cargado por

.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Tabla de contenido

Pagina del titulo


Derechos de autor
Dedicación
Contenido
Introducción
Prefacio
1. La Fundación
La naturaleza de los conceptos
Generalizaciones como jerárquicas
Percepción de las conexiones causales de primer nivel
Conceptualizando las conexiones causales de primer nivel
La estructura del razonamiento inductivo
2. Método experimental
Cinemática de Galileo
Óptica de Newton
Los métodos de diferencia y acuerdo
La inducción como inherente a la conceptualización
3. El universo matemático
El nacimiento de la física celestial
Matemáticas y causalidad
El poder de las matemáticas
Prueba de la teoría de Kepler
4. Integración de Newton
El desarrollo de la dinámica
El descubrimiento de la gravitación universal
El descubrimiento es una prueba
5. La teoría atómica
Elementos químicos y átomos
La teoría cinética de los gases
La unificación de la química
El método de la prueba
6. Causas del error
Aplicación incorrecta del método inductivo
Abandonando el método inductivo
7. El papel de las matemáticas y la filosofía
La física como inherentemente matemática
La ciencia de la filosofía
Un final y un nuevo comienzo
Referencias
Índice
Sobre el Autor
EL SALTO LÓGICO
EL SALTO LÓGICO
INDUCCIÓN EN FÍSICA

David Harriman
Con una introducción de Leonard Peikoff
NUEVA BIBLIOTECA AMERICANA
Publicado por New American Library, una división de
Penguin Group (EE. UU.) Inc., 375 Hudson Street,
Nueva York, Nueva York 10014, EE. UU.
Penguin Group (Canadá), 90 Eglinton Avenue East, Suite 700, Toronto, Ontario M4P 2Y3, Canadá (una división
de Pearson Penguin Canada Inc.)
Penguin Books Ltd., 80 Strand, Londres WC2R 0RL, Inglaterra
Penguin Ireland, 25 St. Stephen's Green, Dublín 2, Irlanda (una división de Penguin Books Ltd.)
Penguin Group (Australia), 250 Camberwell Road, Camberwell, Victoria 3124, Australia (una división de
Pearson Australia Group [Link].)
Penguin Books India Pvt. Ltd., 11 Community Center, Panchsheel Park, Nueva Delhi - 110 017, India
Penguin Group (NZ), 67 Apollo Drive, Rosedale, North Shore 0632, Nueva Zelanda (una división de Pearson
New Zealand Ltd.)
Penguin Books (Sudáfrica) (Pty.) Ltd., 24 Sturdee Avenue, Rosebank, Johannesburgo 2196, Sudáfrica

Penguin Books Ltd., oficinas registradas:


80 Strand, Londres WC2R 0RL, Inglaterra

Publicado por primera vez por New American Library,


una división de Penguin Group (USA) Inc.

Primera impresión, julio de 2010

Copyright © David Harriman, 2010


Introducción copyright © Leonard Peikoff, 2010
Ilustraciones de Coral Cruz Harriman y Tom VanDamme
Reservados todos los derechos

MARCA REGISTRADA — MARCA REGISTRADA

Datos de catalogación en publicación de la Biblioteca del Congreso:

Harriman, David.
El salto lógico: inducción en física / David Harriman; con una introducción de Leonard Peikoff.
pag. cm.
Incluye índice.
ISBN: 978-1-101-65997-7
1. Inducción (Lógica) 2. Razonamiento. 3. Ciencia — Filosofía. I. Título.
BC57.H36 2010
161 — dc22 2010009813
Diseñado por Ginger Legato

Sin limitar los derechos de autor reservados anteriormente, ninguna parte de esta publicación puede ser
reproducida, almacenada o introducida en un sistema de recuperación, o transmitida, en cualquier forma o por
cualquier medio (electrónico, mecánico, fotocopiado, grabación u otro). , sin el permiso previo por escrito tanto
del propietario de los derechos de autor como del editor anterior de este libro.

NOTA DEL EDITOR


Si bien el autor ha hecho todo lo posible por proporcionar números de teléfono y direcciones de Internet
precisos en el momento de la publicación, ni el editor ni el autor asumen responsabilidad alguna por los errores
o los cambios que se produzcan después de la publicación. Además, el editor no tiene ningún control y no
asume ninguna responsabilidad por el autor o los sitios web de terceros o su contenido.
El escaneo, la carga y la distribución de este libro a través de Internet o por cualquier otro medio sin el permiso
del editor es ilegal y está sancionado por la ley. Adquiera únicamente ediciones electrónicas autorizadas y no
participe ni fomente la piratería electrónica de materiales con derechos de autor. Se agradece su apoyo a los
derechos de autor.
Para Alyssa

Con la esperanza de que este libro te ayude

A lograr una vida llena de emocionantes descubrimientos


CONTENIDO

Introducción
Prefacio

1. La Fundación
La naturaleza de los conceptos
Generalizaciones como jerárquicas
Percepción de las conexiones causales de primer nivel
Conceptualizando las conexiones causales de primer nivel
La estructura del razonamiento inductivo

2. Método experimental
Cinemática de Galileo
Óptica de Newton
Los métodos de diferencia y acuerdo
La inducción como inherente a la conceptualización

3. El universo matemático
El nacimiento de la física celestial
Matemáticas y causalidad
El poder de las matemáticas
Prueba de la teoría de Kepler

4. Integración de Newton
El desarrollo de la dinámica
El descubrimiento de la gravitación universal
El descubrimiento es una prueba

5. La teoría atómica
Elementos químicos y átomos
La teoría cinética de los gases
La unificación de la química
El método de la prueba

6. Causas del error


Aplicación incorrecta del método inductivo
Abandonando el método inductivo

7. El papel de las matemáticas y la filosofía


La física como inherentemente matemática
La ciencia de la filosofía
Un final y un nuevo comienzo

Referencias
Índice
INTRODUCCIÓN

L a física es la más universal de las ciencias naturales. Nos enseña las leyes básicas del
mundo material en su conjunto y sirve como paradigma del pensamiento racional.
La explosión del conocimiento en física durante el siglo XVII tuvo una profunda
influencia en la visión de los hombres del mundo y de su propia naturaleza. La mayoría
de la gente no adquiere tales puntos de vista leyendo libros de filosofía, sino más bien
viendo y tratando con los productos del hombre en acción, por ejemplo, novelas,
escuelas, gobiernos y los logros del descubrimiento científico.
En su batalla por establecer la teoría heliocéntrica, los nuevos científicos
proporcionaron una lección filosófica que cambió el curso de la historia. Rompieron el
dominio absoluto del dogma religioso, al menos por un tiempo, y demostraron que el
hombre puede conocer el mundo, si usa el método de observación, medición y lógica. Se
rebelaron contra la opinión de que los astrónomos deberían buscar "salvar las
apariencias", es decir, inventar un esquema infundado para predecir los datos, y en
cambio persiguieron el ambicioso objetivo de comprender el universo. La revolución se
completó cuando Isaac Newton presentó un universo completamente inteligible, abierto
a la mente humana y regido por la ley causal. Ningún tratado filosófico podría haber
hecho más que los Principia para enseñar filosofía al hombre y socavar el misticismo y
el escepticismo. El hombre moderno había alcanzado la mayoría de edad como ser
racional.
El mensaje se extendió por todo Occidente y condujo a la Ilustración. Los
innovadores comenzaron a rehacer el mundo a la nueva imagen del hombre: secular,
pensante, autosuficiente y ansioso por disfrutar la vida. Los resultados aparecieron en
todos los campos (no menos importante en el movimiento de la monarquía a la
Declaración de Independencia). No pasó mucho tiempo hasta que la física de Newton
condujo a la Revolución Industrial, y otro hito de eso: el hombre pudo descartar la
antigua dicotomía entre teoría y práctica y finalmente comprender que la razón es su
medio básico de supervivencia.
La influencia de la física en la cultura es bidireccional. Cuando, gracias a Kant, la
ciencia más avanzada se aparta del método adecuado, por ejemplo, cuando los físicos
renuncian a la causalidad en el ámbito subatómico y vuelven al trabajo servil de "salvar
las apariencias", o cuando separan por completo la teoría de la realidad y deambulan
una geometría de once dimensiones del espacio-tiempo: las consecuencias culturales
son devastadoras. La gente se entera de estos puntos de vista y concluye: si esto es
racional, ¿quién lo necesita? Debe haber algo mejor. Luego vemos que la sinrazón se
vuelve omnipresente, desde el surgimiento de la religión fundamentalista y la
pseudociencia hasta el surgimiento del multiculturalismo y el nihilismo.
La filosofía de la ciencia, que debería haber combatido esta tendencia, ha descendido
a un punto tan bajo que hubiera sido inconcebible hace aproximadamente un siglo. El
campo ha sido secuestrado por el movimiento de la "sociología del conocimiento", que
afirma que las teorías científicas son "construcciones sociales" basadas en la presión de
los compañeros.
Este libro es un antídoto para todos esos apóstoles de la irracionalidad. David
Harriman desvela la lógica de la física, identificando el método por el cual los científicos
descubren las leyes de la naturaleza. El libro comienza con una discusión sobre cómo
llegamos a nuestras primeras generalizaciones inductivas, que son la base del
conocimiento científico, y luego responde a las preguntas clave: ¿Cuál es la naturaleza
del método experimental? ¿Cómo depende la interpretación adecuada de un
experimento del contexto de conocimiento del científico? ¿Por qué las matemáticas son
el lenguaje de la física? ¿Cómo se relaciona el papel de las matemáticas con la naturaleza
de los conceptos? Y, poniéndolo todo junto: ¿Cuáles son los criterios objetivos de prueba
para una teoría científica? Todos estos temas se estudian en relación con los
descubrimientos de la mecánica newtoniana y / o la teoría atómica de la materia; los
resultados metodológicos se formulan luego como principios generales. Al inducir así
los principios del método de la historia de la ciencia, su libro es un tour de force,
demostrando que la epistemología es en sí misma una ciencia inductiva.
Una teoría de generalizaciones presupone una teoría de conceptos. Uno debe captar
cómo los conceptos constitutivos de una generalización se relacionan con la realidad
antes de poder captar cómo la generalización misma se relaciona con la realidad. La
teoría desarrollada aquí se basa en la teoría de conceptos de Ayn Rand, presentada en
Introducción a la epistemología objetivista. Ayn Rand consideró la cuestión de cómo
probamos las generalizaciones inductivas como el único problema fundamental aún sin
resolver en filosofía.
Aunque no proporcionó la solución, sí proporcionó la clave. Harriman muestra que
los conceptos válidos, en su definición de “conceptos”, no solo hacen posible, sino que
también guían nuestra búsqueda de verdaderas generalizaciones. Un punto similar se
sostiene en un nivel superior de abstracción: una teoría de conceptos no solo hace
posible sino que también guía nuestra búsqueda de una teoría de generalizaciones. Cada
aspecto importante de la visión objetivista de los conceptos, incluido el papel de las
similitudes y diferencias, de la integración, de la jerarquía, del contexto, tiene una
contraparte en la teoría de las generalizaciones. De hecho, la generalización, explica
Harriman, "no es más (o menos) que una forma esencial del método de formación de
conceptos".
Este libro representa la primera gran aplicación de la epistemología de Ayn Rand a
un campo distinto al de la filosofía. Dentro de este campo, responde a la pregunta que
ella consideraba más crucial. Y de ese modo reprime (y condena) el torrente de
escepticismo desatado por David Hume y compañía.
Dado que este libro es un modelo de pensamiento inductivo, muestra al lector, en
lugar de decirle, qué es la inducción en términos esenciales y en qué se basa. Tal
asignación requiere que el Sr. Harriman se mueva continuamente de abstracciones
estrechas a amplias y viceversa, una hazaña que realiza de manera brillante. No se omite
nada esencial para una conclusión objetiva y no se incluyen detalles innecesarios. Al
final, la naturaleza del método inductivo adecuado no solo es clara, sino también
luminosa.
La ciencia es un desarrollo muy reciente. Las increíbles maravillas que puede
otorgar al hombre ahora se han vuelto creíbles. Digo "ahora mismo" porque si
comprimimos la historia humana en un día, el hombre se convirtió en científico sólo en
los últimos veinte minutos.
¿Seguirá siendo científico mañana? Quizás, con la ayuda de este libro.

—Leonard Peikoff
PREFACIO

E ste libro es el resultado de la colaboración entre Leonard Peikoff y yo.


Comenzó hace varios años cuando el Dr. Peikoff se interesó por el problema de la
inducción, es decir, la cuestión epistemológica de cómo podemos conocer la verdad de
las generalizaciones inductivas. Al darse cuenta de que necesitaba saber más sobre el
proceso de descubrimiento científico para abordar esta cuestión, me contrató como su
tutor privado. Durante el año siguiente, cubrimos la historia de la ciencia física desde la
antigua Grecia hasta el siglo XIX.
Después de que el Dr. Peikoff digerió este material y lo integró con su conocimiento
de la filosofía, lo que surgió fue una nueva teoría de la inducción que discutió en un
curso de conferencias titulado "Inducción en Física y Filosofía". Estaba emocionado por
sus grandes descubrimientos en un campo que los filósofos contemporáneos habían
dado por muerto, por lo que decidí escribir este libro, que es una presentación completa
de su teoría aplicada a la ciencia física.
Un buen trabajo en filosofía de la ciencia requiere una variedad de conocimientos e
intereses que pocas personas poseen. En un libro que brinda orientación práctica a los
científicos investigadores, E. Bright Wilson expresó la dificultad de esta manera:
Existe una gran necesidad de seguir trabajando en el tema de la inferencia científica.
Para que sea fructífero, debe ser llevado a cabo por mentes críticas y originales que no
solo estén versadas en filosofía, sino que también estén familiarizadas con la forma en
que los científicos trabajan realmente…. Desafortunadamente, la inexistencia práctica
de tales personas casi sugiere que las cualidades de la mente requeridas por un buen
filósofo y las que necesita un científico en activo son incompatibles. 1
Nuestra solución al problema ha sido el intento, en la medida de lo posible, de
combinar nuestros dos cerebros. El lector puede juzgar por sí mismo el éxito de esta
operación. Aquí me limito a un comentario personal: encontré el procedimiento no solo
indoloro sino excepcionalmente gratificante y agradable.
No debería ser difícil identificar qué partes del libro provienen de qué cerebro. En
esencia, las ideas filosóficas originales pertenecen al Dr. Peikoff, mientras que
proporcioné su ilustración en la historia de la ciencia. En particular, el fundamento
filosófico presentado enCapítulo 1está tomado casi literalmente de las conferencias del
Dr. Peikoff. Además, me he incorporado aCapitulo 2su discusión de conceptos como "luz
verde a la inducción". Finalmente, muchos de los puntos esenciales enCapítulo 7,
incluida la explicación del papel de las matemáticas en la ciencia física, se toman de sus
conferencias.
Además, cada capítulo del libro se ha beneficiado enormemente de su escrutinio
línea por línea. El acto de equilibrio que he intentado lograr, ir y venir entre la ciencia y
la filosofía, abarcar lo primero con suficiente profundidad y mantener el enfoque en lo
último, fue un trabajo desafiante, y el Dr. Peikoff ha sido un editor muy generoso. y
maestro. Por supuesto, cualquier error en la ciencia y su historia es completamente mi
responsabilidad.
Mientras que el Dr. Peikoff me enseñó a escribir este libro, el Instituto Ayn Rand me
dio tiempo para escribirlo. Durante la última década, ARI ha proporcionado el apoyo
financiero que me permitió seguir trabajando en filosofía de la ciencia. Hay algo de
verdad en el viejo adagio "el tiempo es dinero"; Sin embargo, desde la perspectiva de un
escritor, parece más apropiado decir que “el dinero es tiempo”: tiempo para investigar,
pensar, comenzar en falso y corregirlos, y eventualmente completar un libro. ARI y sus
colaboradores tienen mi eterna gratitud por suministrar este invaluable producto que
es el tesoro de un escritor.
También he recibido ayuda de otros. Tom VanDamme, el fundador conmigo del
Falling Apple Science Institute, me mantuvo con su inquebrantable entusiasmo por este
trabajo. Keith Lockitch, con su propio ejemplo, me ha recordado que los físicos, incluso
hoy, no solo pueden tener una comprensión profunda de la filosofía, sino que también
pueden apreciar plenamente su relevancia para su campo.
Por último, pero para mí siempre primero, agradezco a mi esposa, Coral, por poseer
el raro tipo de mente que combina claridad y pasión, y por darme el amor que
necesitaba para cruzar la línea de meta.

—David Harriman
1.

La Fundación

H an pasado más de tres siglos desde que la revolución científica culminó con el
destacado logro de Isaac Newton. Durante ese tiempo, la vida humana ha sido
transformada por la ciencia y la tecnología que surge de ella.
Sin embargo, nos encontramos en una posición peculiar e inestable. A medida que
avanzó nuestro conocimiento del mundo físico, nuestra comprensión del conocimiento
en sí se quedó atrás. Fui testigo de esta brecha entre la física y la epistemología durante
mis años universitarios en la Universidad de California, Berkeley. En mi curso de
laboratorio de física, aprendí cómo determinar la estructura atómica de los cristales
mediante difracción de rayos X y cómo identificar partículas subatómicas mediante el
análisis de fotografías de cámaras de burbujas. En mi curso de filosofía de la ciencia, por
otro lado, un profesor de renombre mundial (Paul Feyerabend) me enseñó que no
existe el método científico y que los físicos no tienen mejor derecho al conocimiento que
los sacerdotes vudú.1 Sabía poco sobre epistemología en ese momento, pero no pude
evitar notar que fueron los físicos, no los sacerdotes vudú, quienes hicieron posible la
tecnología promotora de vida que disfrutamos hoy.
Los triunfos de la ciencia se erigen como un monumento al poder de la razón y son
una clara refutación del escepticismo que es una epidemia en la filosofía de la ciencia
contemporánea. Entonces, ¿por qué persiste esta situación en las universidades de todo
el mundo? ¿Cómo llegamos a esta extraña contradicción, con científicos desarrollando
tecnología que explota nuestro conocimiento detallado de la estructura atómica,
mientras los filósofos se lamentan o se deleitan con la supuesta impotencia de la razón
para captar incluso hechos relativamente simples?
E. Bright Wilson, quien era profesor de química en Harvard, una vez planteó el
problema de esta manera:
Es probable que los científicos prácticos que se permiten temerariamente escuchar a los
filósofos se vayan desanimados, convencidos de que no existe un fundamento lógico
para las cosas que hacen, de que todas sus supuestas leyes científicas no tienen
justificación y de que están viviendo. en un mundo de ingenua ilusión. Por supuesto, una
vez que vuelven a salir a la luz del sol, saben que esto no es así, que los principios
científicos funcionan, los puentes se mantienen, los eclipses ocurren según lo
programado y las bombas atómicas estallan.
Sin embargo, es muy insatisfactorio que todavía no se haya presentado una teoría de
la inferencia científica generalmente aceptable…. A menudo se cometen errores que
presumiblemente no se habrían cometido si se hubiera seguido una filosofía básica
coherente y satisfactoria.2
El problema central aquí es el fracaso de los filósofos en ofrecer una solución a lo
que se ha llamado "el problema de la inducción". La inducción es el proceso de inferir
generalizaciones a partir de instancias particulares. El proceso complementario de
aplicar generalizaciones a nuevas instancias es la deducción. La teoría del razonamiento
deductivo fue desarrollada por Aristóteles hace más de dos milenios. Este logro crucial
fue un comienzo para comprender y validar el conocimiento, pero fue solo el comienzo.
La deducción presupone la inducción; no se puede aplicar lo que no se conoce o no se
puede concebir. El proceso principal de adquirir conocimiento que va más allá de los
datos perceptivos es la inducción. La generalización, la inferencia de algunos miembros
de una clase a todos, es la esencia de la cognición humana.
Cuando razonamos desde “Los hombres en mi experiencia son mortales” hasta
“Todos los hombres son mortales”; o de “Estos fuegos me queman cuando los toco” a “El
fuego por su naturaleza arde”; o de “Esta manzana y la luna obedecen la ley de la
gravedad” a “Todo objeto físico en el universo obedece a la ley”, en todos estos casos
estamos pasando de un reino a otro: de lo observado a lo no observado; del
comportamiento pasado de la naturaleza a su comportamiento futuro; desde lo que
descubrimos en un estrecho rincón de un vasto cosmos hasta lo que es verdad en todas
partes de ese cosmos. Este pasaje es la línea divisoria epistemológica entre el hombre y
los animales.
Los animales son organismos a nivel de percepción. Aprenden de la experiencia,
pero solo mediante una asociación perceptiva muy delimitada. No pueden imaginar lo
que no se observa, el futuro o el mundo más allá de tales asociaciones. Conocen, tratan y
reaccionan a los concretos, y solo a los concretos. Pero este no es un nivel en el que el
hombre pueda vivir y prosperar. Para actuar con éxito en el presente, un ser humano
debe establecer metas a largo plazo y un curso de acción a largo plazo; para hacerlo,
debe conocer el futuro, tal vez con meses de anticipación, a menudo años, a veces
décadas.
Una generalización es una proposición que atribuye una característica a cada
miembro de una clase ilimitada, independientemente de cómo se posicione en el
espacio o en el tiempo. En términos formales, dice: Todo S es P. Este tipo de afirmación,
sobre cualquier tema, va más allá de toda observación posible.
Pero el hombre no es omnisciente ni infalible. Por tanto, sus generalizaciones no son
automáticamente correctas. De ahí las preguntas: ¿Cómo puede el hombre conocer, en
toda la escala de espacio y tiempo, hechos que no percibe ni podrá nunca percibir?
¿Cuándo y por qué es legítima la inferencia de “algunos” a “todos”? ¿Cuál es el método
de inducción válido que puede probar la generalización a la que conduce? En resumen,
¿cómo puede el hombre determinar qué generalizaciones son verdaderas
(corresponden a la realidad) y cuáles son falsas (contradicen la realidad)?
La respuesta es crucial. Si un hombre acepta una verdadera generalización, sus
contenidos mentales (en esa medida) son coherentes entre sí, y su acción, en igualdad
de condiciones, tendrá éxito. Pero si un hombre acepta una falsa generalización,
introduce en su mente una contradicción con su conocimiento auténtico y un choque
con la realidad, conduciendo inevitablemente a la frustración y al fracaso en sus
acciones. Por lo tanto, el "problema de la inducción" no es simplemente un
rompecabezas para los académicos, es el problema de la supervivencia humana.
El problema es identificar el método de inducción, no buscar su "justificación". No se
puede pedir una justificación de la inducción más que una justificación de la deducción.
Inducir y deducir son los medios del hombre para justificar cualquier cosa. Su validez
como procesos cognitivos, por tanto, es un hecho indiscutible. Aristóteles no preguntó:
¿Es legítima la deducción? sino más bien: ¿cómo se debe realizar para llegar a
conclusiones válidas? Del mismo modo, nuestra pregunta con respecto a la inducción no
es: ¿es legítima? sino más bien: dada la validez de la inducción, ¿cómo se debe realizar
para llegar al conocimiento de los hechos?
Al considerar esta pregunta, uno debe comenzar con la observación y enfocarse en
los pasos del método apropiado para llegar a generalizaciones. No se puede empezar
con generalizaciones ya existentes y luego, ignorando su génesis, intentar evaluarlas.
Esta última, sin embargo, ha sido la práctica común entre los filósofos. Son indiferentes,
dicen, a las cuestiones de génesis (que descartan como psicología más que como
epistemología) y sólo se preocupan por cuestiones de validación. Pero esto eleva la
falacia de convertir el contexto en una política formal. Es inútil reflexionar sobre la
validez de una generalización a menos que sepamos cómo llegamos a ella, por qué
pasos, de acuerdo con qué método, y si el método utilizado es válido. Nada más puede
permitirnos saber si el producto de ese método corresponde o no a la realidad.
Una opinión generalizada pero falsa es que la inducción se basa simplemente en la
enumeración. De acuerdo con este enfoque superficial, el método del inductor es
simplemente recopilar ejemplos de una generalización; cuanto mayor sea el número de
instancias, mayor será la probabilidad de la generalización (los proponentes de este
punto de vista niegan que podamos llegar a la certeza).
El ejemplo clásico de este enfoque, todavía discutido por los filósofos, es el caso de
los cisnes. Un filósofo observa una gran cantidad de cisnes blancos; en algún momento
aventura (como muy probable) la afirmación “Todos los cisnes son blancos”, tras lo cual
aparece uno negro y su generalización se desvanece. ¿A dónde vamos desde aquí? luego
gime.
La enumeración no es el método de inducción y no proporciona ninguna base para
inferir de "algunos" a "todos", ni siquiera con un cierto grado de probabilidad. Por eso
han fracasado todos los intentos de fundamentar el razonamiento inductivo en
estadísticas. Una generalización obtenida meramente por enumeración es
necesariamente arbitraria y, por lo tanto, debe descartarse sin discusión del campo de la
consideración racional. Como veremos, existen inducciones válidas basadas en un solo
caso; y hay generalizaciones con millones de casos, que aún son completamente
ilegítimos (por ejemplo, "Todos los hombres buscan el placer"). ¿Por qué tanta
diferencia? Los enumeradores simples no tienen respuesta.
Para comprender cómo se alcanzan las generalizaciones inductivas en las ciencias
físicas, examinaremos de cerca el razonamiento de científicos como Galileo, Kepler,
Newton, Lavoisier y Maxwell. Los seguiremos mientras realizan experimentos, buscan
relaciones matemáticas y prueban sus teorías más abstractas. El propósito es
identificar, en detalle, los pasos y la esencia del método que han utilizado de manera tan
brillante.
Una teoría de la inducción presupone respuestas a las cuestiones fundamentales de
la metafísica y la epistemología. Por ejemplo, doy por sentado la ley de causalidad (que
establece que la acción de una entidad se deriva de su naturaleza) y la validez de la
percepción sensorial. En gran parte, los filósofos han fracasado en el tema de la
inducción porque se han confundido sobre estos temas previos. El fundamento
filosófico de la teoría aquí presentada se puede encontrar enCapítulos 1 a 5 del libro de
Leonard Peikoff Objectivism: The Philosophy of Ayn Rand.

La naturaleza de los conceptos


Sin embargo, hay un tema previo que merece una atención especial.
Ayn Rand presentó su revolucionaria teoría de los conceptos en un libro titulado
Introducción a la epistemología objetivista. En esta sección, indico brevemente algunos
puntos que son particularmente relevantes para validar las generalizaciones inductivas.
La razón es nuestra facultad de adquirir conocimiento mediante conceptos.
Formamos conceptos captando similitudes entre los existentes, similitudes que hacen
que un grupo de existentes se destaque sobre un trasfondo de diferentes existentes. La
similitud, por supuesto, no significa identidad; Rand reconoció que los existentes unidos
por un concepto válido pueden diferir en todos los aspectos. Pero también reconoció la
naturaleza de esas diferencias: son cuantitativas, es decir, son diferencias en las
medidas de las características. Cuando formamos un concepto, nuestro proceso mental
consiste en retener las características pero omitiendo sus diferentes medidas.
Considere el concepto de "péndulo", un dispositivo simple que ha jugado un papel
crucial en la historia de la física. Un péndulo es un peso suspendido de un soporte fijo de
modo que se balancea libremente hacia adelante y hacia atrás. Al formar el concepto,
nuestra mente retiene esta característica esencial mientras omite las medidas que
diferencian un péndulo de otro. Los péndulos difieren en longitud (la distancia desde el
soporte fijo hasta el peso), en el tamaño, forma y magnitud del peso, y en la composición
del material (que se identifica mediante diversas medidas que distinguen un material de
otro). Todas estas medidas se omiten al formar el concepto.
Dado que el concepto se refiere a péndulos reales, y ser es ser algo específico (la ley
de la identidad), no negamos la existencia de medidas cuando las omitimos. Más bien
reconocemos que las medidas relevantes deben existir en alguna cantidad, pero pueden
existir en cualquier cantidad. Al no especificar las medidas, podemos integrar todos los
péndulos en una sola entidad mental y tratarlos como miembros intercambiables de
una clase.
En la formación de conceptos, el proceso de omisión de medidas es subconsciente y
automático. Comprendemos que un atributo puede variar dentro de un rango y lo
retenemos sin especificar su cantidad. No necesitamos saber cómo hacer las medidas
para omitirlas al formar el concepto. Por el contrario, debemos formar los conceptos
relevantes antes de que podamos avanzar a la etapa avanzada de aprendizaje de cómo
realizar las mediciones numéricas.
"Un concepto", en la definición formal de Rand, "es una integración mental de dos o
más unidades que poseen las mismas características distintivas, con sus medidas
particulares omitidas".3Contrario a los escépticos, un concepto no es simplemente un
nombre para un grupo de particulares elegidos arbitrariamente; más bien, es una
integración de particulares similares en una sola unidad mental. La integración no es
arbitraria; es posible porque los existentes en cuestión poseen de hecho los mismos
atributos; se diferencian entre sí sólo en la medición de estos atributos. Al descartar, no
especificar, las medidas, por lo tanto, la mente forma una nueva unidad que incluye y se
aplica a todos esos existentes, pasados, presentes y futuros. A partir de entonces, la
mente retiene y trata cognitivamente esta suma ilimitada por medio de una sola palabra
(definida apropiadamente).
El análisis de la similitud de Ayn Rand le permitió identificar una conexión íntima
entre la formación de conceptos y las matemáticas. Ella escribió:
El principio básico de formación de conceptos (que establece que las medidas omitidas
deben existir en alguna cantidad, pero pueden existir en cualquier cantidad) es el
equivalente del principio básico del álgebra, que establece que los símbolos algebraicos
deben recibir algún valor numérico, pero se le puede dar cualquier valor. En este
sentido y respeto, la conciencia perceptiva es la aritmética, pero la conciencia
conceptual es el álgebra de la cognición.
La relación de los conceptos con sus particulares constituyentes es la misma que la
relación de los símbolos algebraicos con los números. En la ecuación 2a = a + a,
cualquier número puede ser sustituido por el símbolo “a” sin afectar la verdad de la
ecuación. Por ejemplo, 2 × 5 = 5 + 5, o 2 × 5.000.000 = 5.000.000 + 5.000.000. De la
misma manera, por el mismo método psico-epistemológico, un concepto se usa como
símbolo algebraico que representa cualquiera de las secuencias aritméticas de unidades
que subsume.
Que aquellos que intentan invalidar conceptos declarando que no pueden encontrar
"hombría" en los hombres, intenten invalidar el álgebra declarando que no pueden
encontrar "a-ness" en 5 o en [Link]
Los filósofos han sostenido a menudo a las matemáticas como modelo del
pensamiento humano. Sin embargo, muchos han perdido el sentido al caracterizar las
matemáticas como una ciencia puramente deductiva. Por el contrario, las matemáticas
revelan de forma explícita el proceso de conceptualización, que es el método del
hombre para extrapolar los datos observados al total del universo. 5
De niños, comenzamos por formar conceptos en los casos en que la similitud entre
los referentes se capta por percepción directa, por ejemplo, conceptos como “mesa” o
“perro”. Después de formar tales conceptos de “primer nivel”, podemos captar la
similitud entre mesas, sillas y camas y así llegar a la abstracción más amplia de
“muebles”; o podemos captar la similitud entre perros, gatos y peces y así llegar a la
abstracción más amplia de "animal". No vemos muebles ni animales; solo vemos
determinadas mesas, perros, etc. Las unidades de los conceptos de nivel superior son
los conceptos de nivel inferior a partir de los cuales se forman. Así, los conceptos se
desarrollan en una jerarquía, que comienza con los conceptos de primer nivel de un
niño pequeño y se extiende a las abstracciones más amplias de un físico teórico.
Cuando se forman correctamente, los conceptos de nivel superior son objetivos en el
mismo sentido que los conceptos de nivel inferior: ambos se basan en hechos, pero para
un concepto de nivel superior, la similitud entre los referentes no se puede captar sin la
ayuda de conceptos previos. Considere el concepto avanzado de "electricidad". Los
griegos conocían cuatro fenómenos que clasificamos como eléctricos: el rayo visto
desde las nubes de tormenta, el impacto de un pez torpedo cuando aturde a su presa, el
resplandor que se ve en las puntas de las lanzas durante la tormenta ("fuego de San
Telmo"), y la capacidad del ámbar frotado para atraer trozos de paja o papel.
Perceptualmente, estos fenómenos son muy diferentes; los griegos no entendieron ni
pudieron captar ninguna semejanza que los uniera. Es necesaria una larga cadena de
conceptos y generalizaciones, que culminen en la teoría moderna de la electricidad, para
revelar la similitud.
En las primeras etapas del desarrollo cognitivo, el significado de los conceptos de
primer nivel puede aclararse simplemente señalando ejemplos. Un niño puede señalar
una mesa o un perro y decir: "Me refiero a este tipo de cosas". Pero para conceptos de
nivel superior, donde la similitud no se da perceptualmente, este método no funciona.
Necesitamos alguna otra forma de tener en cuenta el significado de nuestros conceptos,
es decir, identificar la naturaleza de los referentes y diferenciarlos de otros existentes.
Este es el papel de las definiciones.6
Un concepto se refiere a los existentes, incluidas todas sus características (conocidas
y desconocidas). La definición establece las características distintivas que explican el
mayor número de otras características conocidas (las diferenciaciones), y establece la
clase más amplia de existentes de los que se distinguen los referentes del concepto (el
género). Al hacerlo, la definición nos dice la naturaleza esencial de los existentes, es
decir, lo que los convierte en el tipo de existentes que son. Por tanto, las definiciones
son enunciados breves y retenibles que identifican a los referentes y condensan nuestro
conocimiento de ellos.
Es crucial reconocer que las características se identifican como esenciales (y por lo
tanto definen) dentro de un contexto específico de conocimiento. A medida que nuestro
conocimiento de los referentes se expande, las características que mejor explican y
condensan ese conocimiento pueden cambiar. Por ejemplo, considere el concepto de
"temperatura". Inicialmente, la temperatura se definió como "el atributo de un material
que es una medida de su calor o frío". Basado en descubrimientos hechos durante el
siglo XIX (verCapítulo 5), la definición se convirtió en "el atributo de un material que es
una medida de la energía cinética de traslación promedio por molécula". Esta última
definición explica mucho más sobre la temperatura relacionándola con la mecánica
newtoniana y la teoría atómica de la materia.
Por tanto, las definiciones son afirmaciones empíricas; la identificación de una
característica esencial se basa en el conocimiento total de uno sobre los referentes y
sobre otros existentes de los que se distinguen. Como dijo Rand, "una definición es la
condensación de un vasto cuerpo de observaciones, y se mantiene o cae con la verdad o
falsedad de estas observaciones".7
En la confusión actual, es necesario enfatizar que un concepto no puede equipararse
con su definición. El concepto "temperatura" tenía el mismo significado para Galileo que
para Einstein, es decir, ambos hombres se referían a la misma propiedad física. La
diferencia es solo que Einstein sabía mucho más sobre esta propiedad; comprendió su
relación con el calor, el movimiento y la naturaleza fundamental de la materia. Pero esa
expansión del conocimiento fue posible solo porque el concepto en sí no cambió. Debido
a que los conceptos son estables, podemos comunicar y hacer avanzar nuestro
conocimiento.
Rand ofreció una metáfora útil que captura aspectos importantes de su teoría de
conceptos:
Dado que los conceptos representan un sistema de clasificación cognitiva, un concepto
dado sirve (hablando metafóricamente) como una carpeta de archivos en la que la
mente del hombre archiva su conocimiento de los existentes que subsume. El contenido
de tales carpetas varía de un individuo a otro, de acuerdo con el grado de su
conocimiento —desde la información primitiva y generalizada en la mente de un niño o
un analfabeto hasta la suma enormemente detallada en la mente de un científico— pero
pertenece a los mismos referentes, al mismo tipo de existentes, y se subsume bajo el
mismo concepto. Este sistema de archivo hace posible actividades como el aprendizaje,
la educación, la investigación, la acumulación, transmisión y expansión de
conocimientos.8
Una definición es la etiqueta que identifica y condensa el contenido de la carpeta. El
concepto es el total de los contenidos, y conlleva el compromiso de archivar todo el
conocimiento posterior de los referentes en una misma carpeta.
Los conceptos son las herramientas del conocimiento, las carpetas de archivos, pero
no son por sí mismos pretensiones de conocimiento (aunque presuponen
conocimiento); por eso los conceptos se denominan válidos o inválidos (en lugar de
verdaderos o falsos). Si queremos adquirir conocimiento con estas herramientas, deben
utilizarse para crear un producto cognitivo, como una generalización, que corresponda
o no a la realidad, es decir, que, al ser un reclamo de conocimiento, se describa como
verdadero o no. falso (en lugar de válido o no válido). Las generalizaciones son los
elementos esenciales que entran en las carpetas de archivos conceptuales. Pero para
calificar como conocimiento de la realidad, las generalizaciones, como cualquier
producto cognitivo, deben ser validadas por referencia a un método racional.
Por tanto, el propósito de este libro es responder a una pregunta doble: dada la
naturaleza de los conceptos, ¿cómo se forman las generalizaciones sobre el mundo
físico? ¿Y cómo, por tanto, se relacionan con la realidad?

Generalizaciones como jerárquicas


La ciencia no comienza en el vacío; surge, después de siglos, de la presciencia. Los
hombres primero deben adquirir y asimilar un enorme contexto de conocimiento,
incluida la identificación conceptual de los concretos observados a su alrededor y una
gran cantidad de generalizaciones tempranas (junto con los elementos esenciales de
una filosofía secular pro-razón). Sólo entonces unos pocos grandes innovadores podrán
comprender el método de conocimiento sofisticado y disciplinado que llamamos ciencia.
Las generalizaciones, como los conceptos mismos, son jerárquicas. Las
generalizaciones descubiertas por los científicos son avanzadas o de nivel superior; por
ejemplo, "la luz blanca es una mezcla de colores" o "los planetas viajan en órbitas
elípticas" o "una corriente eléctrica cambiante induce un campo magnético". Estos no
están disponibles para la percepción directa.
Tales generalizaciones se basan en un gran número de observaciones precedentes y
generalizaciones de nivel inferior, que en última instancia se remontan a
generalizaciones de primer nivel. Estos últimos son los puntos de partida empíricos y,
por tanto, la base de toda inducción posterior, ya sea realizada por primitivos o por
nuestros propios hijos, por pensadores antiguos o por científicos modernos. Aquí hay
un paralelismo exacto con los conceptos de primer nivel y de nivel superior.
Por lo tanto, para comprender las generalizaciones de la física hasta sus raíces,
primero debemos estudiar la inducción precientífica a partir de la cual surge la
inducción científica. Como ha explicado Leonard Peikoff, el proceso de identificar las
raíces de primer nivel de una generalización de nivel superior es "reducción":
La reducción es el medio de conectar un conocimiento avanzado con la realidad
viajando hacia atrás a través de la estructura jerárquica involucrada, es decir, en el
orden inverso al requerido para alcanzar el conocimiento. La "reducción" es el proceso
de identificar en secuencia lógica los pasos intermedios que relacionan un elemento
cognitivo con los datos perceptuales. Dado que hay opciones en el detalle de un proceso
de aprendizaje, no siempre es necesario volver sobre los pasos que se dieron
inicialmente. Lo que hay que remontar es la estructura lógica esencial. 9
Esbozaré dos ejemplos aquí.
En el próximo capítulo, discutiremos el descubrimiento de Galileo de la
generalización de que el movimiento horizontal no está acelerado. Cuando un cuerpo se
desplaza libremente (es decir, dejando de lado la fricción) en dirección horizontal, se
mueve con velocidad constante (en contraste con un cuerpo que cae verticalmente, que
sufre una aceleración constante). ¿Cómo descubrió Galileo esta generalización? Entre
otras cosas, experimentó haciendo rodar bolas de metal a una velocidad conocida desde
el borde de una mesa y demostrando que el lugar donde la bola golpea el suelo implica
que la velocidad horizontal permanece constante durante el descenso. Diseñó
cuidadosamente tales experimentos para reducir los efectos de la fricción. Claramente,
esto presupone el conocimiento de la existencia siempre presente de la fricción y de su
efecto impedimento sobre el movimiento de los cuerpos. Sin tal conocimiento, Galileo
nunca habría pensado en minimizar la fricción, ni, por lo tanto, habría visto que el
movimiento horizontal continuaba sin cambios. No se puede preguntar: ¿Qué sucede
cuando se elimina la fricción? hasta que haya aprendido sobre la fricción.
Entonces, ¿cómo descubriría un individuo la generalización anterior, que la fricción
impide el movimiento? Es una integración de muchas generalizaciones anteriores
alcanzadas mediante la observación de cuerpos en movimiento en diversas
circunstancias. Por ejemplo, cuando una pelota rueda por la hierba alta, disminuye la
velocidad y se detiene relativamente rápido (una generalización); sobre alfombras
gruesas, se ralentiza menos rápido y rueda más lejos (una generalización); a través de
un piso liso, el movimiento continúa más y la pelota va aún más lejos (una
generalización).
Considere cada una de estas generalizaciones. ¿Qué debe saber un inductor antes de
poder descubrir algo sobre cómo las diferentes condiciones afectan el movimiento de
una pelota que ha sido empujada? Antes de que pueda saber que empujar una bola en
las condiciones X la hace rodar de la manera particular Y, primero debe conocer el
hecho más simple de que empujar una bola (en contraste con un bloque o una
almohada) hace que ruede en absoluto. Solo entonces podrá descubrir la influencia de
las distintas condiciones en el movimiento de balanceo. Así, el principio científico de
Galileo retrocede nivel por nivel hasta una generalización irreductible de primer nivel:
empujar una pelota hace que ruede. Ese es un "axioma" —o punto de partida— de la
inducción.
Considere ahora, en líneas generales, un caso más complejo. Reduzcamos al nivel
perceptivo la generalización avanzada: "La luz viaja en línea recta". ¿De qué
generalizaciones anteriores depende?
Obviamente, presupone la generalización de que la luz viaja en absoluto, es decir,
que la luz se mueve a través del espacio. Pero este hecho no está disponible en el nivel
perceptivo; nadie puede ver la luz moviéndose, porque su velocidad es demasiado
grande. Los científicos tenían que demostrar que hay un lapso de tiempo entre que la
luz está en un lugar y luego en otro. Si se necesita una cantidad de tiempo mensurable
para que la luz pase de A a B, entonces la luz de una fuente dada no está
instantáneamente en A y B y en todas partes, como parece estar perceptualmente; más
bien, la luz debe estar en movimiento. Sin embargo, debido a la enorme velocidad de la
luz, los primeros científicos pudieron detectar este intervalo de tiempo solo cuando la
luz se movía a través de distancias astronómicas. Olaus Roemer, un astrónomo danés
del siglo XVII, midió por primera vez la velocidad de la luz al estudiar los eclipses de las
lunas de Júpiter.
¿Y qué presuponía este descubrimiento? Una serie de generalizaciones científicas
anteriores, incluidas las que llevaron a la teoría heliocéntrica (verCapítulo 3), y también
muchas generalizaciones sobre cómo se comporta la luz en relación con lentes y
espejos, conocimiento que se necesitaba para inventar el telescopio y así poder ver las
lunas de Júpiter. De modo que se requirió una larga cadena de generalizaciones
anteriores para descubrir que la luz viaja.
Dado que la luz viaja, ¿cómo sabemos que lo hace en línea recta (cuando se mueve a
través del mismo material)? Aquí hay varias pruebas diferentes, pero digamos que
llegamos a esta conclusión observando las sombras de los objetos. Descubrimos que
podemos explicar la forma de una sombra solo si la luz se mueve desde una fuente en
línea recta hasta el objeto que proyecta la sombra.
Pero para llegar a esta conclusión sobre las formas de las sombras, primero
debemos haber descubierto una conexión mucho más simple entre la luz y las sombras,
a saber: la luz proyecta sombras detrás de cualquier objeto opaco que golpea (una
generalización), que en sí misma es una integración de muchas generalizaciones
anteriores, como "las velas proyectan sombras detrás de las personas" y "las sombras
aparecen en los días soleados".
Pero todo esto requiere que los hombres primero tengan el concepto de “sombra”,
que depende de nuestra capacidad para distinguir las áreas oscuras detrás de los
objetos iluminados de los objetos mismos. ¿Y cómo aprendimos esta distinción? A partir
de una gran cantidad de datos anteriores, como "Las áreas oscuras, en contraste con los
objetos que lindan, no tienen propiedades táctiles" (una generalización) y "Las áreas
oscuras aparecen o desaparecen con cambios en la fuente de luz, mientras que los
objetos permanecen constante ”(una generalización). A partir de estas (junto con otras
generalizaciones similares), concluimos que las áreas oscuras no son objetos, sino un
efecto que se produce cuando un objeto bloquea la luz (una generalización), lo que nos
da el concepto de “sombra”.
Pero esto presupone el concepto de que una entidad "bloquea" a otra. ¿Cómo nos
enteramos de este tipo de fenómenos? Por haberlo observado en muchas formas en el
mundo de los objetos físicos mucho antes de que pudiéramos entender abstracciones
como "luz" y "sombra". Por ejemplo, descubrimos que “las paredes bloquean las bolas,
es decir, impiden que rueden” (una generalización). ¿Y cómo sabemos que la pared es lo
que detuvo la pelota, en contra de la pelota que simplemente se detiene por sí misma en
la pared? Empujamos o martillamos contra una pared con nuestras manos y realmente
sentimos su resistencia, su negativa a ceder. Aquí nuevamente terminamos finalmente
con una generalización de primer nivel, como "Las paredes resisten las manos
martilladas".
En lo anterior, he vuelto deliberadamente a generalizaciones de primer nivel del tipo
que un niño pequeño alcanza en sus primeras exploraciones de lo que, mucho más
tarde, se llamará "dinámica". Pero muchas otras generalizaciones de primer nivel, de
una variedad de áreas, también están involucradas en los ejemplos anteriores. He
intentado dar meramente una indicación esquemática de algunos pasos en las
reducciones, lo suficiente para aclarar el patrón del proceso.
Sólo si es posible su reducción a generalizaciones de primer nivel, una
generalización puede considerarse objetivamente verdadera. Como ha señalado el Dr.
Peikoff, “El único contacto directo del hombre con la realidad son los datos de los
sentidos. Estos, por lo tanto, son el estándar de objetividad, al que debe regresar todo el
resto del material cognitivo ".10Una generalización que no se puede reducir a datos
sensoriales es simplemente una afirmación arbitraria, cuya fuente es alguna emoción o
autoridad. Tal afirmación es inadmisible en el campo del conocimiento o la ciencia.
Las generalizaciones de primer nivel son para inducir lo que la percepción sensorial
es para el conocimiento en general; son los "axiomas de la inducción". El estudio del
proceso de inducción, por tanto, debe comenzar con el estudio de las generalizaciones
de primer nivel. Solo entonces podremos pasar a considerar las generalizaciones de alto
nivel construidas sobre ellos.
Una "generalización de primer nivel" es una derivada directamente de la
observación perceptiva, sin necesidad de generalizaciones previas. Como tal, se
compone únicamente de conceptos de primer nivel; cualquier forma de conocimiento
que requiera la comprensión de conceptos de nivel superior no puede obtenerse
directamente de los datos perceptivos.
Dado que lo perceptual es lo evidente por sí mismo, las generalizaciones de primer
nivel son evidentes por sí mismo; al ser la base del conocimiento inductivo (y por tanto
del deductivo), no admiten y no requieren prueba. Están disponibles, como certezas,
para cualquiera con el vocabulario simple requerido que se tome la molestia de mirar la
realidad.
Y no están disponibles por otros medios. ¿Cómo sabes que empujar una pelota la
hace rodar? No hay respuesta, ni siquiera de Newton o Einstein, excepto esta: Mira y ve.
No se puede "probar" tal generalización derivándola de leyes abstractas del
movimiento. Por el contrario, sin un fondo de tales generalizaciones establecido desde
el principio, no se podría descubrir ni probar ninguna ley del movimiento. Las leyes son
válidas solo si sus antecedentes de primer nivel son válidos, no al revés.
Dado que las generalizaciones de primer nivel son la base de todas las inducciones
de nivel superior, estas últimas no pueden amenazarlas ni socavarlas. Como la
percepción sensorial misma, son inexpugnables de derrocar por cualquier
descubrimiento futuro. Esto no significa que el generalizador de primer nivel sea
omnisciente. Al contrario, significa que el conocimiento es contextual y, por tanto, que
—en cualquier nivel de generalización, desde el primero al último— la certeza no
requiere omnisciencia.
Dado que las generalizaciones siempre se alcanzan en y a través de un contexto
cognitivo específico, su enunciado adecuado incluye necesariamente ese contexto. Para
citar de Objectivism: The Philosophy of Ayn Rand:
El hombre es un ser de conocimiento limitado y, por tanto, debe identificar el contexto
cognitivo de sus conclusiones. En cualquier situación en la que haya motivos para
sospechar que una variedad de factores son relevantes para la verdad, de los cuales solo
algunos se conocen actualmente, está obligado a reconocer este hecho. El preámbulo
implícito o explícito debe ser: "Sobre la base de la evidencia disponible, es decir, dentro
del contexto de los factores descubiertos hasta ahora, la siguiente es la conclusión
adecuada a extraer". A partir de entonces, el individuo debe continuar observando e
identificando; si nueva información lo justifica, debe calificar su conclusión en
consecuencia.
Si un hombre sigue esta política, encontrará que su conocimiento en una etapa no se
contradice con descubrimientos posteriores. Descubrirá que los descubrimientos
amplían su comprensión; que aprende más sobre las condiciones de las que dependen
sus conclusiones; que pasa de observaciones primitivas relativamente generalizadas a
formulaciones cada vez más detalladas y sofisticadas. También encontrará que el
proceso está libre de trauma epistemológico. Las conclusiones avanzadas aumentan y
mejoran su conocimiento anterior; no chocan con ella ni la anulan. 11
Un niño aprende, por ejemplo, que empujar una pelota la hace rodar. Más tarde
descubre que esto no sucede si la pelota alcanza un cierto peso, o si está pegada al suelo,
o si es de hierro y está colocada encima de un imán potente. Nada de esto derroca la
generalización inicial de primer nivel. Por el contrario, esto último es necesario para
que cualquier persona pueda plantearse cualificaciones posteriores. Uno no puede
alcanzar o validar "Empujar mueve una bola sólo en X condiciones" hasta que uno
primero ha comprendido el hecho elemental de que "empujar mueve una bola".
De manera similar, las leyes de Newton no se contradicen con el descubrimiento de
Einstein de la teoría de la relatividad (ver Capítulo 4). Por el contrario, la ciencia de
Newton permanece absoluta dentro del contexto de Newton, y esa ciencia sola es lo que
hace posible la posterior expansión de este contexto, cuando los hombres descubren
factores operativos desconocidos en la época de Newton.
El conocimiento que posee un inductor racional es siempre limitado, pero sin
embargo es real. Debido a que es limitado, está abierto a futuras cualificaciones. Sin
embargo, debido a que es real, las calificaciones no tienen un significado negativo; son
puramente positivos, un activo epistemológico, un paso adelante en la empresa
cognitiva, no un paso atrás para aplastar sus propias raíces.
Percepción de las conexiones causales de primer
nivel
Necesitamos examinar las generalizaciones de primer nivel, los axiomas de la inducción,
con mayor profundidad, con especial énfasis en cómo llegamos a aprenderlos y
validarlos objetivamente.
Comencemos por señalar que todas las generalizaciones, de primer nivel y
superiores, son declaraciones de conexión causal. Todos afirman (o implican) que una
entidad de cierto tipo actúa necesariamente de cierta manera bajo un conjunto dado de
circunstancias, que es la esencia de la ley de causalidad. Esto es cierto en todos los
niveles de desarrollo, desde “Empujar una pelota hace que ruede” hasta “Una fuerza
neta ejercida sobre un cuerpo hace que se acelere de acuerdo con la ley F = mA” y más
allá. En realidad, no hay nada para unir dos existentes (como empujar y rodar, o fuerza y
aceleración) universalmente, es decir, no hay nada que haga verdadera ninguna
generalización, excepto alguna forma de relación causal entre los dos.
La única justificación para inferir el futuro de las acciones del pasado es el hecho de
que las acciones pasadas no ocurrieron arbitraria o milagrosamente, sino por una razón,
una razón inherente a la naturaleza de las entidades actuantes mismas; es decir, la
justificación es que las acciones pasadas fueron efectos de causas y, por lo tanto, si la
misma causa está operativa mañana, resultará en el mismo efecto.
Cualquier validación de generalizaciones, por lo tanto, debe responder a la pregunta:
¿Cómo —por qué medios— aprende el hombre las conexiones causales? Los siguientes
capítulos de este libro responderán a esta pregunta para las generalizaciones de alto
nivel que culminan en teorías científicas. Aquí comenzaremos por considerar cómo
captamos las relaciones causales expresadas en generalizaciones de primer nivel.
Una condición previa esencial del descubrimiento de un hombre de conexiones
causales particulares es su comprensión en algunos términos de la ley general de
causalidad. Si alguien vivió (o pensó que vivía) en el universo acausal descrito por el
filósofo empirista David Hume, no podría plantear o responder la pregunta "¿Por qué?"
acerca de todo. Sin el hecho y el conocimiento de la ley de causalidad, no habría nada
más que un flujo de datos aleatorios inconexos.
El niño adquiere primero el conocimiento de la ley de causalidad en forma implícita,
en la etapa temprana preconceptual de la cognición; se entiende como un corolario —
una implicación evidente por sí misma— de la ley de identidad, uno de los axiomas
fundamentales de la filosofía. La ley de la identidad establece que ser es ser algo en
particular, es decir, tener una naturaleza; la causalidad es la aplicación de la identidad al
ámbito de la acción, es decir, establece que una entidad debe actuar de acuerdo con su
naturaleza. El conocimiento (implícito) de ambas leyes es necesario para cualquier
desarrollo cognitivo posterior. Solo cuando un hombre conoce la ley de la identidad
puede llegar a comprender y hacer la pregunta: "¿Qué es esto?" es decir, "¿Cuál es su
identidad?" De manera similar, solo cuando conoce la ley de causalidad, al menos en
forma implícita, puede llegar a comprender y formular la pregunta "¿Por qué?" es decir,
Asumiendo el fundamento filosófico necesario, nuestra pregunta es: ¿cómo llega un
individuo a descubrir causas particulares? Específicamente, ¿cómo capta un inductor de
primer nivel sus primeras conexiones causales (y de ese modo llega a captar
explícitamente el concepto de "causa")? Los primeros descubrimientos causales de un
niño, creo, fluyen de sus experiencias de su propia eficacia personal. Ésta es sólo una
hipótesis probable (y poco original); si no es de aplicación universal, indica al menos un
posible patrón de desarrollo.
Un niño pequeño, digamos, empuja una pelota y se aleja rodando. ¿Cómo
formulamos (en términos conceptuales para adultos) lo que el niño realmente percibe
aquí sin el beneficio del lenguaje? Aquí hay tres formulaciones: "Hice rodar la pelota
empujándola"; “Mi empujón hizo rodar la bola”; "Hice que la pelota rodara
empujándola".
Estas tres formulaciones son lógicamente equivalentes; cada uno implica a los
demás; cada uno identifica el mismo hecho evidente por sí mismo (desde perspectivas
ligeramente diferentes). Solo la tercera declaración menciona el concepto de "causa".
Pero el contenido de ese concepto ya está presente en los demás; está presente en el
sentido mismo de "hacer rodar" un objeto. Hacer rodar un objeto es hacer que ruede
por un determinado medio. La experiencia de hacer rodar una pelota, por lo tanto, es la
experiencia de hacer que suceda algo. Es una experiencia pura de causalidad, sin la cual
nunca se podría alcanzar el concepto de "causa".
La experiencia es directamente perceptiva. Así como se percibe directamente un
“rodar” intransitivo (como en “La pelota está rodando”), así es exactamente en el caso
de un “rodar” transitivo (“Yo hice rodar la pelota”). Y si tal rodar es un objeto de
experiencia directa, como claramente lo es, entonces la causa también es un objeto de
experiencia directa.
Considere otro ejemplo: un niño pequeño sediento bebe un vaso de agua y su sed
desaparece. ¿Qué percibe? “Detuve (me deshice, apacigué, apagué) mi sed bebiendo
agua…. Mi agua potable hizo que mi sed se fuera ... Hice que mi sed se fuera al beber
agua ... ”Nuevamente, el contenido de“ causa ”está presente en la experiencia misma. El
saciar la sed de uno es un objeto de experiencia directa (introspectiva). Es una
experiencia de que una cosa causa otra, ya que apagar es causar cierto efecto. Por tanto,
la experiencia de la extinción es la percepción de la causa.
En estos casos (y en innumerables casos similares), un niño, al contrario de Hume,
experimenta una conexión entre ciertos eventos, no simplemente una conjunción.
Experimenta la conexión entre lo que hace y lo que hace que suceda. Ésta es la base de
las generalizaciones de primer nivel de un niño, y le da el conocimiento explícito de la
"causa" necesaria para seguir progresando.
Cuando un niño va más allá de estas experiencias tempranas para descubrir la
causalidad en el mundo externo aparte de su propia acción, usa el mismo método.
Armado con un concepto explícito de “causa” (de una cosa que “hace” que otra ocurra),
está listo para percibir, a su alrededor, más instancias de ello. "Hago rodar la bola" se
convierte, a su debido tiempo, "El viento hace que las hojas se agiten", "El fuego hace
que el papel se convierta en cenizas", "La lluvia moja el suelo". En todos estos casos, la
conexión causal se capta a partir de una sola instancia, porque percibimos directamente
la causalidad a medida que ocurre. Así como percibimos, sin necesidad de lenguaje,
"hacer rodar la pelota", así percibimos "soplar las hojas", "quemar el papel",
"humedecer la tierra". Todos los términos subrayados denotan objetos de experiencia
que son procesos causales,
El método principal para captar la conexión causal, por lo tanto, es percibirla. Sobre
la base de esta base, los científicos desarrollan métodos experimentales más
sofisticados para descubrir la causalidad, en casos de nivel superior donde la
percepción de la causa no es posible. El uso de tales métodos requiere un análisis de
variables que van mucho más allá del primer nivel de cognición. Sin embargo, con
respecto a las generalizaciones de primer nivel, la percepción directa de causa y efecto
es esencial y suficiente.
La mera observación de una regularidad, sin ninguna comprensión de su causa, no
establece una generalización. Por ejemplo, por muy a menudo que el hombre primitivo
observe los movimientos diarios y anuales del sol, no puede, por sí solo, concluir que el
sol debe moverse siempre en relación con la Tierra de esta manera particular. Sus
percepciones aquí son más bien la primera evidencia que tiene para una generalización,
que sólo puede validarse por referencia a conocimientos posteriores basados en otros
métodos (por ejemplo, en este caso, los conocimientos y métodos de Copérnico, Kepler
y Galileo).
Aquí nuevamente vemos que la cantidad de casos por sí sola es irrelevante para la
inducción. En la inducción de primer nivel, una sola instancia es suficiente. Por el
contrario, miles de observaciones de una regularidad inconexa establecen a lo sumo una
hipótesis digna de investigación.
He estado asumiendo en lo anterior una distinción firme entre dos formas de
captación de causalidad: en términos personales, a través de la propia eficacia, y luego,
en lo que respecta al mundo externo, de manera impersonal, sin referencia a la eficacia
humana. Pero esta distinción, tan clara para nosotros hoy, tuvo que ser aprendida a lo
largo de muchos siglos.
Cuando recurren a la causa y el efecto en el mundo externo, los primitivos (y los
niños abandonados a sí mismos) generalmente continúan interpretando los procesos
causales que perciben en el modelo de su experiencia personal temprana. Al proyectar
su propio patrón hacia afuera, piensan en los agentes causales en el mundo externo,
algunos o todos, como entidades personales, e interpretan la causalidad como la
expresión de deseos o intenciones internas. El ejemplo histórico obvio de tal
antropomorfismo es la idea animista de que incluso las entidades inanimadas son cosas
animadas que actúan con fines a la vista. El teísmo mantiene la misma visión de la
causalidad, simplemente consolidando la multitud de agentes causales animados en
unas pocas deidades eficaces o incluso en una sola omnipotente.
En este sentido, la religión representa la mente y la metafísica del hombre primitivo.
Tal mente tiene poco o ningún concepto de un mundo material impersonal, uno en el
que la acción de entidades externas fluye no de las almas o deseos, sino de la ley de
identidad, es decir, de la naturaleza física de las entidades actuantes en ausencia de
cualquier conciencia, inmanente o trascendente.
La metafísica impersonal fue el gran logro —e históricamente reciente— de los
griegos, específicamente del secularismo y la defensa de la razón de Aristóteles. Fue este
enfoque el que condujo a la clara distinción griega entre lo animado y lo inanimado, que
incluía el hecho de que la conciencia sólo puede pertenecer a lo animado. Una vez que el
enfoque griego estuvo arraigado en la mente de Occidente (y dejando de lado las
recaídas como la Edad Media), la causalidad ya no pudo concebirse en términos de la
eficacia personal de los agentes sobrenaturales. Así, la visión objetiva de causa y efecto
desplazó la visión antropomórfica que, al principio, parecía ser una mera extensión
inocente de la naturaleza de la propia experiencia causal de los hombres.
La civilización occidental amplió el concepto de "causa" al considerar la eficacia
personal como un mero subtipo de la misma. Esta fue una condición previa crucial para
el desarrollo de la ciencia moderna. Equivale a llevar la causalidad por primera vez
plenamente al reino de la realidad y la identidad, es decir, a romper sus lazos
primordiales con el misticismo.

Conceptualizando las conexiones causales de


primer nivel
Las percepciones como tales revelan concretos, no abstracciones: Tom, Dick y Harry,
por ejemplo, no "hombre". Por lo tanto, solo mediante la percepción, el inductor de
primer nivel capta las conexiones causales solo en términos concretos, como una
relación en un momento y lugar específicos entre dos o más particulares. Entiende, por
ejemplo, que su acto de empujar hace un momento hizo que la bola rodara. O se da
cuenta de que esta mañana las llamas de la chimenea quemaron ese papel en particular.
Tales observaciones, aunque indispensables como inicio de un proceso inductivo,
aún no son generalizaciones. ¿Qué los convierte en generalizaciones? ¿Qué media el
paso de una conexión causal que vincula los particulares a una verdad universalmente
aplicable? La respuesta está en los medios distintivos del hombre para tratar
cognitivamente los particulares: su facultad conceptual. La esencia de la formación de
conceptos es el paso de los particulares a los universales.
En la naturaleza del caso, cuando se forma un concepto, solo se han percibido
algunas de las instancias del grupo subsumido. Las nuevas instancias se conceptualizan,
es decir, se colocan bajo el concepto apropiado, a medida que se encuentran. Este es el
método del hombre para conectar nuevas percepciones con las anteriores y, por lo
tanto, aplicarles cualquier conocimiento ya adquirido sobre los miembros del grupo.
Como una mente joven en desarrollo, el inductor de primer nivel está ansioso por
usar su vocabulario simple para nombrar nuevos objetos que reconoce. Identifica, en
términos del vocabulario disponible para él, las conexiones causales elementales que
percibe directamente. No se contenta en silencio con observar que la cosa caliente de
allí hizo que la otra cosa se ennegreciera y desapareciera. Puede nombrar las entidades
y procesos en funcionamiento, aplicando conceptos que ya ha formado, como "fuego",
"papel", "quema".
Al utilizar conceptos como sus herramientas cognitivas, omite las medidas de la
conexión causal particular que percibe. "Fuego" relaciona las llamas amarillo-naranja
que percibe con todos ellos, independientemente de sus distintas medidas; lo mismo se
aplica al "papel" y al proceso de "quema". De ahí su primera afirmación de su
observación concreta: "El fuego quema el papel". Esta declaración es simplemente una
conceptualización de los datos percibidos, que es lo que la convierte en una
generalización.
Nótese que cuando nuestro inductor de primer nivel identifica una conexión causal
percibida en palabras, no lo hace como una descripción de concretos únicos, aunque eso
es todo lo que percibe; él declara de inmediato una verdad universal. Su primer
comentario no es: "Veo llamas brillantes, de color amarillo anaranjado que emiten
humo, de aproximadamente un pie de altura, convirtiendo esa enorme portada del
periódico con sus grandes titulares en una pequeña pila de cenizas ennegrecidas". El
niño en esta etapa temprana no tiene el aparato conceptual necesario para distinguir un
ejemplo de papel quemado por fuego de otro por medio de palabras; primero debe
comprender que lo que ve es un ejemplo de "fuego", "quema", "papel", es decir, de sus
conceptos anteriores. Solo mucho más tarde, cuando se ha desarrollado el vocabulario
que identifica las medidas específicas de estos existentes, ¿Puede usar palabras en
combinaciones sofisticadas para describir la acción de un incendio único? Lógicamente,
la generalización debe ser lo primero; es el producto directo de aplicar el propio
aparato conceptual a la conexión percibida.
De manera similar, un niño pequeño ve una pelota en particular, pero su
identificación es simplemente "pelota". En esta etapa temprana, el niño no conoce ni
puede conocer integraciones más amplias o subtipos más estrechos o clasificaciones
cruzadas de "pelota"; no puede identificar una pelota como "un artefacto humano", o
como "una pelota de tenis amarilla", o como "un producto de la búsqueda de beneficios
capitalista". Para él, al comienzo del proceso conceptual, el objeto verbalizado es
"pelota", puro y simple. Lo mismo se aplica a la experiencia que el niño tiene de sí
mismo como agente particular de empuje. Su identificación debe ser de "empujar" como
tal, no de "acción humana voluntaria", ni de "ejercer fuerza", ni de "su propio acto
individual de empujar", dado que todavía no conoce ningún término relativamente más
abstracto; el concepto simplemente denota todos y cada uno de los actos de empuje,
independientemente del agente que lo haga. Y, en cuanto a la hora y el lugar de su
observación, esto es por excelencia una irrelevancia para el niño (y para cualquiera).
Inherente a la formación y aplicación de un concepto es la comprensión de que lo que
cuenta cognitivamente es solo la identidad de sus referentes. El mero paso del tiempo o
el mero cambio de ubicación, asumiendo que todo lo demás permanece igual, no hace
ninguna diferencia en las conclusiones de uno, porque el concepto de un existente
subsume todas las instancias en todas partes, pasadas, presentes y futuras.
Debido a su estructura conceptual simple, de primer nivel, nuestro inductor, en el
mismo acto de nombrar lo que percibe, automáticamente deja caer las medidas de la
causa y el efecto percibidos y, por lo tanto, obtiene un conocimiento que trasciende lo
concreto dado. Así es como puede comprender que la causa se relaciona con el empuje
como tal y el efecto en las bolas como tales, sin importar dónde o cuándo se empuja la
bola.
Si juzgamos por sus acciones, los animales también tienen una experiencia directa
de causalidad. Ellos también perciben que las diversas acciones que realizan hacen que
sucedan ciertas cosas. Pero no pueden llegar a inferir ninguna generalización de estas
percepciones. La diferencia crucial aquí es que los animales no tienen facultad
conceptual, no tienen la facultad de omitir medidas; por lo que no pueden dejar de lado
la particularidad de ningún dato percibido. Por lo tanto, no tienen poder cognitivo para
separar lo que cuenta en una situación causal (por ejemplo, ser un fuego) de lo que no
cuenta (el tono exacto de la llama, el área del papel, etc.). Lo que no cuenta son las
medidas que, en un contexto epistemológico, una mente conceptualizadora descarta
(implícita o explícitamente) como irrelevantes, simples detalles, no esenciales. Los
animales, como resultado, no pueden proyectar desde sus percepciones qué futuro
esperar.
Una generalización es la conceptualización de causa y efecto; es decir, la inducción
puede describirse como medición-omisión aplicada a conexiones causales. Es nada más
(o menos) que una forma esencial del método de formación de conceptos. Así como un
concepto, a través de la medición-omisión, integra un número ilimitado de existencias
particulares de un cierto tipo en una sola palabra, así una cierta unión de conceptos
integra mediante la medición-omisión un número ilimitado de secuencias causales
particulares de un cierto tipo en una sola palabra. una sola proposición que los subsume
a todos: una generalización.
Resumamos ahora con respecto a los axiomas de inducción. Cuando un inductor de
primer nivel identifica su experiencia concreta de causa y efecto en términos de
palabras, su captación perceptiva de la relación causal se convierte así en una captación
conceptual de la misma, es decir, una generalización. Y dado que la aplicación de los
conceptos de primer nivel es automática y evidente por sí misma, los dos aspectos de
una generalización de primer nivel —la perceptiva y la conceptual— son cada uno, para
la mente humana, evidentes por sí mismos.
De ahí la conclusión: hay, en la base de toda inducción futura, absolutamente ciertas
generalizaciones de primer nivel, que se extienden más allá de toda percepción posible,
pero se siguen evidentemente de la experiencia perceptiva altamente limitada del
hombre, a medida que esta es procesada por su facultad conceptual. .
La estructura del razonamiento inductivo
Echemos ahora una mirada más amplia al proceso de inducción, ya no restringido al
primer nivel. Específicamente, penetremos en la esencia del razonamiento inductivo en
cualquier nivel.
En general, el razonamiento es el proceso de inferir una conclusión a partir de
conocimientos anteriores. En un razonamiento válido, las premisas de uno no son el
punto de partida para un vuelo de imaginación: para una conjetura, una hipótesis o un
"salto" arbitrario. En el razonamiento, la conclusión se deriva necesariamente de las
premisas. Si no sigue necesariamente, entonces el argumento es un non sequitur y la
inferencia no es válida.
Rand define la lógica como el "arte de la identificación no contradictoria". Si uno
niega la conclusión de un argumento lógico, está contradiciendo la información anterior
de la cual se infirió la conclusión y, por lo tanto, está violando la ley de identidad. Pero
una contradicción es imposible; por tanto, si las premisas son verdaderas, la conclusión
en cuestión debe ser verdadera. Este es el patrón y principio de todo razonamiento
válido, ya sea deductivo o inductivo.
La aplicación de este principio a la inferencia deductiva es sencilla. Al aplicar una
generalización a un caso particular, estamos haciendo explícita en la conclusión
información que se incluyó implícitamente en la premisa desde el principio. En este
sentido, una conclusión deductiva no contiene nada lógicamente nuevo. Por eso, en la
deducción, es contradictorio afirmar las premisas y negar la conclusión. Por ejemplo, no
podría razonar “Todos los hombres son mortales; Sócrates es un hombre; por tanto,
Sócrates no es mortal ". Esto equivale a decir: "Todos los hombres son mortales, y aquí
hay uno que no lo es". En el silogismo válido, por el contrario, cuando concluyo que
Sócrates es mortal, no hago más que permanecer fiel a mi premisa.
Pero la situación con respecto a la inducción es más compleja. Si razono desde la
mortalidad de Tom, Dick y Harry hasta la conclusión de que todos los hombres son
mortales, mi conclusión aquí es algo nuevo. No está implícito en los datos sobre las
personas nombradas; aquí no se trata simplemente de permanecer fiel a lo que ya he
expuesto. De ahí el problema: ¿Por qué es necesaria la inferencia en esta dirección, es
decir, de algunos a todos, o de particulares a una generalización? ¿Por qué debe seguir
una generalización a partir de la información sobre una o más de sus instancias? ¿Qué
contradicción estaríamos adoptando si aceptamos la información sobre los individuos
observados pero negáramos la generalización?
Nunca se ha ofrecido una respuesta satisfactoria en la historia de la filosofía. Por
regla general, el intento de validar la inducción ha adoptado la forma de intentar reducir
la inducción a la deducción. Aristóteles es un buen ejemplo aquí. En su opinión, la
inducción simplemente sugiere generalizaciones que, para ser validadas y, por lo tanto,
convertirse en conocimiento, deben luego deducirse de generalizaciones más amplias,
un proceso que continúa hasta llegar a las generalizaciones más amplias de todas,
supuestamente evidentes por sí mismas. Por ejemplo, nuestra experiencia con Tom,
Dick y Harry simplemente sugiere que todos los hombres son mortales. Pero luego se
prueba esto último deduciéndolo de la generalización de que todos los organismos vivos
son mortales. Desde este punto de vista, una verdad general se conoce como evidencia
propia o mediante un proceso de deducción a partir de tales evidencias.
Este punto de vista (que es un elemento platónico en el pensamiento de Aristóteles)
pronto se convirtió en el elemento básico de los racionalistas, muchos de los cuales
descartaron la inducción incluso como un sugerente preliminar. En reacción a todo esto,
los empiristas negaron justificadamente, como flotantes y místicos, los castillos
deductivos de los racionalistas, pero sin embargo rápidamente llegaron a estar de
acuerdo con ellos en que la inducción no es un razonamiento válido, sino simplemente
un “salto” ciego en la oscuridad que no puede ser la base de un conocimiento confiable.
Entonces los empiristas terminaron siendo escépticos.
El desafío para los lógicos y filósofos es identificar una forma de razonamiento hasta
ahora no reconocida: una forma de razonamiento en la que la conclusión se sigue
necesariamente de sus premisas, pero no deductivamente. En este tipo de casos, la
conclusión establece algo nuevo, algo que va más allá de todo conocimiento anterior. Sin
embargo, esa misma conclusión, dado el conocimiento anterior, es ineludible y obliga a
la mente a aceptar el dolor de la auto-contradicción.
La pista para resolver este problema puede encontrarse en nuestro estudio del
proceso de llegar a generalizaciones de primer nivel. Como hemos visto, están
involucrados dos elementos: la captación en forma concreta de un proceso causal y la
identificación conceptual de este proceso. Esta combinación es la que valida una
generalización de primer nivel. ¿Cómo podría aplicarse este patrón a generalizaciones
complejas de alto nivel?
Examinemos un caso típico de inducción científica, en el que no percibimos
directamente conexiones causales, y en el que no estamos restringidos a un puñado de
palabras de primer nivel, sino que para nuestras identificaciones dependemos de una
multitud de conceptos avanzados. El ejemplo que he elegido es el famoso experimento
de cometas de Benjamin Franklin. Servirá para ilustrar el patrón que veremos
repetidamente en los próximos cuatro capítulos.
Franklin se propuso demostrar que los rayos son esencialmente electricidad. Las
nubes de tormenta, supuso, están cargadas eléctricamente, y los rayos son simplemente
una descarga eléctrica, cuando esta carga llega a la Tierra. Los científicos no siempre
tienen su explicación de los eventos elaborada como una hipótesis antes de sus
experimentos, pero a veces lo hacen, y Franklin lo hizo en este caso. Configuró su
aparato en consecuencia.
Volaba una cometa durante una tormenta, protegiéndose dentro de un cobertizo,
sosteniendo la cuerda de la cometa mojada por medio de una cinta de seda no
conductora. Un alambre puntiagudo sobresalía de la parte superior de la cometa; en la
parte inferior, se ataba una llave de metal a la cuerda de la cometa húmeda y se
mantenía cerca de un cable que bajaba a un frasco de Leyden, una especie de
condensador en el que se puede almacenar la carga eléctrica. Si Franklin tenía razón, las
nubes de tormenta cargadas eléctricamente deberían hacer que la llave se cargue, y esta
carga fluirá y se acumulará en la jarra de Leyden. Por supuesto, todo lo que predijo
Franklin resultó como esperaba, y concluyó, a partir de su experiencia de una tormenta
eléctrica, con una generalización amplia y necesaria que describe la naturaleza del rayo
como tal, verdadero en todas partes y siempre. ¿Por qué probaba esto su
generalización?
Primero, ¿qué vio realmente Franklin durante este experimento? ¿Qué concretos
observó que también pudo haber sido observado por un niño o un salvaje? Entre otras
cosas, vio chispas volando desde la llave hasta el cable en el frasco de Leyden. Vio
pedazos de la cuerda de la cometa mojada volverse rígidos y repelerse entre sí. Observó
que si uno sostiene un objeto de metal puntiagudo contra el frasco, salen chispas. Y
descubrió que si sostenía el frasco con una mano mientras tocaba con el dedo el cable
que entraba en él, sentía un impacto desagradable.
Estas observaciones concretas son esenciales para el experimento; no podrías
aprender nada de él sin ellos. Sin embargo, estas observaciones no tendrían sentido
para una persona ignorante; una serie de chispas y conmociones no comunicarían una
secuencia causal a un niño, ni siquiera a un adulto educado ordinario en la época de
Franklin. Hay una secuencia causal en juego aquí, pero no es perceptible como tal. Por lo
tanto, es necesario otro elemento antes de que Franklin pueda captar la secuencia
causal y validar su generalización.
Además de sus percepciones, Franklin necesitaba una serie de conceptos
sofisticados; de lo contrario, no podría haber diseñado su experimento ni interpretado
sus resultados. Por ejemplo, se habría sentido indefenso sin conceptos como
"electricidad", "descarga", "conductor", "aislante" y "jarra de Leyden". Estos conceptos
fueron posibles y representan una gran cantidad de conocimientos anteriores (que
también se descubrieron mediante experimentos). Sin este marco conceptual, como
podemos llamarlo, Franklin solo podría haber mirado sin comprender las chispas y las
conmociones. Sin embargo, dado ese marco, puede identificar de inmediato lo que está
viendo: el aparato de la cometa es un conductor largo y, por lo tanto, la nube de
tormenta cargada eléctricamente hace que la llave se cargue y luego la llave se descarga
en el frasco de Leyden aislado.
Una vez que Franklin puede identificar lo que está viendo en esos términos, su
conclusión, la generalización, sigue directamente. El marco conceptual le permite
identificar, omitiendo las medidas concretas, la cadena causal esencial; nada más
conocido explica las observaciones. La conclusión debe ser que las nubes de tormenta
están cargadas eléctricamente y, por lo tanto, el rayo como tal es una descarga eléctrica,
que es la generalización.
Si uno comprende las observaciones en este caso y sabe que el marco conceptual es
válido, entonces la generalización se sigue necesariamente. Su negación en estas
condiciones implicaría una contradicción. Quien negara la generalización de Franklin
estaría contradiciendo las observaciones directas y / o un marco conceptual válido.
Ya sea que hablemos de inducción de primer nivel o avanzada, por lo tanto, están
involucrados los mismos dos elementos: la captación de un proceso causal a través de
observaciones concretas y el uso de conceptos para identificarlo. La principal diferencia
entre principiante y científico aquí radica en la complejidad del marco conceptual
requerido.
El niño conoce sólo un puñado de conceptos, como "fuego" o "papel", que define
ostensivamente y que todavía no están conectados lógicamente entre sí en su mente.
Pero a medida que la formación de conceptos avanza más allá del primer nivel, un grupo
de conceptos no relacionados ya no es adecuado. Todos los conceptos deben convertirse
eventualmente en aspectos de un marco conceptual integrado. El conocimiento es una
suma, una unidad, y ningún concepto puede ser válido hasta que se integre en esa
unidad. Un concepto desconectado y flotante no tendría contexto en el resto del
conocimiento de uno y, por lo tanto, no tendría ningún vínculo con la realidad.
El marco conceptual esencial para el experimento de Franklin, por lo tanto, se
extiende mucho más allá del puñado de conceptos eléctricos técnicos que he
mencionado hasta ahora. Precisamente porque todo el conocimiento está integrado, el
conocimiento eléctrico no puede permanecer en el vacío como un compartimento
cognitivo autónomo. Para comprender plenamente los conceptos eléctricos que estaba
aplicando, y para saber que estos conceptos, frente a otros conocidos, son los únicos
relevantes, los únicos que explican los hechos en este caso, Franklin necesitaba acceder
a la totalidad de su conocimiento, incluido el vasto cuerpo de información de otros
campos, fuera de la electricidad y sus manifestaciones.
Es instructivo recordar aquí el origen de la hipótesis de Franklin con respecto a los
rayos. Comenzó enumerando doce hechos observados que relacionaban los rayos con
todo, desde todos los departamentos de su conocimiento, que eran posiblemente
relevantes para comprender su naturaleza. Estos hechos se extendieron por todo el
mapa de la cognición: relacionaron el rayo con la luz, el color, la velocidad y la dirección
del movimiento (y, por lo tanto, implícitamente con la dinámica), con el
comportamiento de los metales (y, por lo tanto, con el conocimiento de diferentes tipos
de sustancias). , al sonido, al calor y la temperatura, al olfato e incluso a la vida y la
muerte de los animales. Después de haber examinado este vasto y extenso territorio
cognitivo, Franklin encontró datos en todas partes que sugerían que los rayos eran
eléctricos. El siguiente paso a dar, concluyó, era obvio: "Que se haga el experimento". 12
Para interpretar sus observaciones en este experimento, necesitaba examinar la
suma de sus conocimientos; necesitaba integrar el rayo a todo lo conocido que pudiera
ser relevante para su naturaleza, independientemente de que algún elemento de
conocimiento se incluyera formalmente en el estudio de la electricidad o no. La
integración es un requisito de la lógica y, por lo tanto, en la inducción de nivel superior,
la identificación conceptual adecuada de un proceso causal requiere el conocimiento y
el uso del marco conceptual total de uno.
La estructura del razonamiento inductivo, en general, en cualquier nivel, es:
observación; la aplicación del marco conceptual total de uno; y por tanto,
necesariamente, una generalización.
Ahora vemos el contraste real entre inducción y deducción. No tiene nada que ver
con la noción de que la inducción es simplemente probable, o que la inducción implica
algún tipo de salto arbitrario.
La deducción es una forma simple de razonamiento. Comienza con una conexión
causal ya conceptualizada y formulada como una generalización. En otras palabras,
comienza con un producto conceptual complejo que se considera establecido y sin
problemas. El deductor, como tal, no se preocupa por el proceso de conceptualización
de datos complejos. Él da por sentado desde el principio que hemos resuelto todas las
difíciles cuestiones epistemológicas involucradas en la formación y el uso de conceptos.
Da por sentado que la facultad conceptual se ha utilizado para adquirir nuevos
conocimientos profundos y que se ha utilizado correctamente. Luego procede a ordeñar
el nuevo conocimiento por sus implicaciones.
Por el contrario, un argumento inductivo no es una serie autónoma de premisas de
las que se sigue la conclusión como cuestión de coherencia formal. La razón es que el
puente de la observación a la generalización no es una premisa, ni siquiera un centenar
de premisas, sino el total del conocimiento propio adecuadamente integrado. Ésta es la
razón por la que la inducción es mucho más difícil y controvertida que la deducción, y
por qué no se puede reducir al formalismo de los símbolos.
La deducción dice: Dada una relación específica de conceptos (por ejemplo,
"hombre" y "mortalidad"), X debe seguir. La inducción dice: Dado el sistema completo
de conceptos, X debe seguir. En la deducción, la conclusión es necesaria; de lo contrario,
niega un producto específico de la facultad conceptual, una generalización específica. En
la inducción la conclusión es necesaria; de lo contrario, se niega todo el sistema de
conceptos humanos, es decir, la suma de conocimientos adquiridos por la razón del
hombre, es decir, la facultad racional como tal.
El problema de la inducción ha sido insoluble durante tanto tiempo, porque la
naturaleza de la conciencia humana ha sido mal entendida durante tanto tiempo. Para
resolver el problema de la deducción, uno debe comprender que A es A, que es el logro
monumental de Aristóteles. Pero para resolver el problema de la inducción, uno debe
captar otro logro monumental: la teoría de conceptos de Ayn Rand.
La deducción da por sentado el proceso de conceptualización. La inducción es el
proceso de conceptualización en sí mismo en acción.
2.

Método experimental

L a revolución científica del siglo XVII fue posible gracias a los logros de la antigua
Grecia. Los griegos fueron los primeros en buscar explicaciones naturales (en oposición
a sobrenaturales) y teorías integrales del mundo físico, y desarrollaron tanto la lógica
deductiva como las matemáticas avanzadas. Sin embargo, su progreso en la ciencia
física se vio obstaculizado por la opinión generalizada de que los conocimientos
superiores se reciben pasivamente en lugar de adquirirse activamente. Para muchos
pensadores griegos, la perfección se encontraba en el reino del "ser", un reino eterno e
inmutable de verdades universales que puede ser captado por la mente contemplativa
del filósofo. Por el contrario, el mundo físico de la actividad se consideraba a menudo
como un reino de "devenir", un reino que cambia incesantemente y que nadie puede
comprender por completo. El científico moderno se ve a sí mismo como un investigador
activo, pero tal actitud era rara entre los griegos. Esta diferencia básica en la forma de
pensar, contemplación versus investigación, es una de las grandes divisiones entre las
mentes antiguas y modernas.
La ciencia moderna comenzó con el desarrollo completo de su propio método de
investigación distintivo: la experimentación. La “experimentación” es el método de
establecer relaciones causales mediante el control de variables. El experimentador no se
limita a observar la naturaleza; lo manipula manteniendo algunos factores constantes
mientras varía otros y mide los resultados. Sabe que el árbol del conocimiento no dejará
caer simplemente su fruto en su mente abierta; la fruta debe cultivarse y recogerse, a
menudo con la ayuda de instrumentos diseñados para tal fin.
Precisamente lo que faltaban los griegos se puede ver examinando su enfoque más
cercano a la ciencia experimental moderna, que está bien ilustrado por la investigación
de la refracción de Claudio Ptolomeo. Ptolomeo realizó un estudio sistemático en el que
midió la desviación angular de la luz en las interfaces aire / agua, aire / vidrio y agua /
vidrio. Este experimento, cuando finalmente se repitió en el siglo XVII, llevó a
Willebrord Snell a la ley del seno de la refracción. Pero Ptolomeo no descubrió la ley, a
pesar de que hizo el experimento correcto y poseía tanto el conocimiento matemático
necesario como los medios para recopilar datos suficientemente precisos.
El fracaso de Ptolomeo se debió principalmente a su visión de la relación entre
experimento y teoría. No consideraba que el experimento fuera el medio de llegar a la
teoría correcta; más bien, la teoría ideal se da de antemano por intuición, y luego el
experimento muestra las desviaciones del mundo físico observado del ideal. Este es
precisamente el enfoque platónico que había adoptado en astronomía. El círculo es la
figura geométrica que posee una simetría perfecta, por lo que Ptolomeo y los primeros
astrónomos griegos comenzaron con la intuición de que los cuerpos celestes orbitan en
círculos a una velocidad uniforme. Luego, las observaciones determinaron las
desviaciones del ideal, que Ptolomeo modeló utilizando inventos matemáticos no
relacionados con los principios físicos (deferentes, epiciclos y ecuantes). Del mismo
modo, en óptica, Comenzó con un argumento a priori de que la proporción de ángulos
incidentes y refractados debería ser constante para un tipo particular de interfaz.
Cuando las mediciones indicaban lo contrario, utilizó una progresión aritmética para
modelar las desviaciones de la razón constante ideal. 1
Platón había denigrado la percepción sensorial y el mundo físico, exhortando a sus
seguidores a dirigir su atención hacia adentro para descubrir así el conocimiento de las
ideas perfectas que tienen su origen en una dimensión no física. Desafortunadamente,
explicó Platón, estas ideas perfectas solo corresponderán aproximadamente al mundo
físico imperfecto y en constante cambio que observamos.
La ciencia de Ptolomeo era superficialmente antiplatónica en el sentido de que
enfatizaba el papel de la observación cuidadosa. Sin embargo, a un nivel más profundo,
su ciencia fue una aplicación lógica del platonismo; en astronomía y en óptica, comenzó
con el modelo “perfecto” y luego simplemente describió sin explicación las desviaciones
inherentemente ininteligibles del mismo. Así, Ptolomeo consideraba el experimento no
como un método de descubrimiento, sino como la esclava de la intuición; lo usó para
completar detalles sobre un mundo físico que se niega a comportarse en perfecta
conformidad con nuestras ideas predeterminadas. Este enfoque es una receta para el
estancamiento: la teoría se impone en lugar de derivarse de los datos sensoriales, las
matemáticas se separan de los principios físicos y, sin una comprensión de las causas, el
científico se queda sin más preguntas que hacer.
El nacimiento de la ciencia moderna requería un punto de vista opuesto: el
experimento debía considerarse como el método esencial para captar las conexiones
causales. El poder único de este método se revela al examinar cómo lo utilizaron los
genios que crearon la era científica.

Cinemática de Galileo
Cuenta la leyenda que la física moderna comenzó en una iglesia.
Un domingo de 1583, Galileo, de diecinueve años, dejó que su atención se apartara
del sermón y se concentrara en una lámpara colgante de catedral que se balanceaba con
la corriente de aire. Mientras observaba, notó con sorpresa que los cambios a través de
pequeños arcos parecían tomar el mismo tiempo que los cambios a través de arcos más
grandes. Usando su pulso como un reloj, cronometró las oscilaciones y confirmó que el
período parecía independiente del tamaño del arco.
En este punto, Galileo había hecho una observación interesante y una medición
burda. Pero no había probado nada. Para demostrar la independencia de la amplitud, y
luego ir más allá para descubrir una ley que relaciona las propiedades de un péndulo
con su movimiento, tuvo que diseñar y realizar una serie de experimentos.
Comenzó construyendo dos péndulos similares, ambos de la misma longitud y con
los mismos pesos de bobinas de plomo. Sacó ambos péndulos de la vertical en
diferentes ángulos (por ejemplo, treinta grados para uno y quince grados para el otro) y
los soltó al mismo tiempo. Galileo luego observó que los dos péndulos oscilaban hacia
adelante y hacia atrás casi al unísono perfecto a pesar de sus diferentes amplitudes, y
notó que continuaban haciéndolo mientras contaba más de diez oscilaciones. Con todos
los demás factores relevantes mantenidos constantes, duplicar la amplitud no tuvo un
efecto perceptible en el período.
Los siguientes pasos de la investigación de Galileo fueron guiados por sus
pensamientos sobre la causa de este sorprendente resultado. Se dio cuenta de que el
péndulo gana velocidad solo porque está cayendo hacia la Tierra, es decir, solo debido a
la componente descendente de su movimiento, y esta componente obviamente aumenta
a medida que aumenta la amplitud de la oscilación. Por lo tanto, cuando la sacudida
recorre una distancia mayor, lo hace a una velocidad mayor; los dos factores deben
compensar para mantener el período constante.
Pero, ¿esta compensación es exacta para todas las amplitudes? Galileo abordó la
cuestión de dos formas: experimental y matemáticamente. Primero, repitió el
experimento anterior usando una amplitud de casi noventa grados para un péndulo y
solo diez grados para el otro. En este caso extremo, midió que el período de las grandes
oscilaciones era aproximadamente un 10 por ciento mayor que el período de las
pequeñas oscilaciones. A pesar de la discrepancia, este resultado no lo disuadió de la
"ley de la independencia de la amplitud". Pensó que era probable que el aumento
relativamente pequeño en el período sea causado por el cambio más grande y más
rápido que encuentra una mayor resistencia del aire, y deliberadamente se estaba
abstrayendo de los efectos de tales "impedimentos".
A Galileo le resultó imposible determinar directamente mediante experimentos los
efectos de la resistencia del aire; una bomba de vacío le habría permitido eliminar el
aire, pero pasó otro medio siglo antes de que se inventara el instrumento. Entonces, en
cambio, recurrió a las matemáticas en busca de una prueba de la independencia de
amplitud. Partiendo de la idea de que la velocidad de la sacudida del péndulo es
proporcional al seno de la amplitud, porque este factor aísla la componente
descendente eficaz del movimiento, intentó demostrar que no importa dónde se suelte
una sacudida a lo largo del arco circular, ésta alcanza el parte inferior al mismo tiempo.
Aquí Galileo encontró otro obstáculo: en general, los conceptos y métodos
matemáticos de su época eran inadecuados para lidiar con un cuerpo en movimiento
que cambia continuamente de dirección. Así que simplificó el problema reemplazando
el arco circular por una cuerda del círculo que terminaba en la parte inferior. Ahora
tenía un problema que podía resolver y, a partir de una hipótesis que relacionaba la
velocidad con el ángulo de inclinación, dedujo que el movimiento sin fricción por todas
esas cuerdas toma la misma cantidad de tiempo (verFigura 1).2El resultado fue
tentadoramente cercano a lo que él quería, pero irreconciliablemente diferente: el
movimiento hacia abajo en la cuerda no es lo mismo que el movimiento hacia abajo en el
arco circular. Pero Galileo no pudo avanzar más con el análisis. Al final, decidió
presentar como válida la ley de la independencia de la amplitud mientras expresaba en
privado su descontento por la falta de una prueba. 3
Después de eliminar la amplitud como factor relevante, pasó a considerar las
propiedades que podrían afectar la velocidad a la que oscila el péndulo. Preguntó: ¿El
material o el peso del bob afecta el período? La pregunta fue respondida fácilmente
mediante un experimento. Comenzando con sus dos péndulos idénticos, reemplazó la
bobina de plomo de uno por una de corcho. Luego apartó los mechones veinte grados o
más y los soltó al mismo tiempo. La amplitud del péndulo del corcho disminuyó más
rápidamente y atribuyó correctamente esta diferencia a la resistencia del aire. Dados los
resultados de sus experimentos anteriores, podría ignorar la diferencia de amplitud
porque tiene un efecto insignificante en el período. La observación crucial fue que las
bobinas de plomo y corcho continuaron moviéndose hacia adelante y hacia atrás casi al
unísono.
Figura 1. Deslizarse sin fricción por cualquier cuerda que termine en la parte inferior
del círculo toma el mismo tiempo.

Dado que las oscilaciones del péndulo en el experimento anterior oscilaron con el
mismo período, la misma causa debe haber estado operativa. Parece que la única
propiedad relevante que tienen en común los dos péndulos es la longitud y, por lo tanto,
la longitud debe ser el factor causal que determina el período. Una pequeña reflexión
muestra que esta idea se integra con una gran cantidad de observaciones comunes; por
ejemplo, el columpio de un niño que cuelga de una rama alta de un árbol toma más
tiempo para ir y venir que uno más corto que cuelga de una rama más baja, y una
enredadera larga se balancea más lentamente con la brisa que una corta. Pero,
precisamente, ¿cómo afecta la duración al período? Galileo descubrió la respuesta
realizando una serie de experimentos en los que varió la longitud de un péndulo en un
rango de aproximadamente dos a treinta pies. Midió el período comparándolo con el de
otro péndulo de longitud constante o usando un reloj de agua (un dispositivo que mide
el tiempo marcando el flujo regulado de agua a través de una pequeña abertura). Sus
datos establecieron una relación matemática exacta entre longitud y período, que
inmediatamente generalizó a una ley que se aplica a todos los péndulos en cualquier
lugar de la Tierra en cualquier época: la longitud es proporcional al cuadrado del
período.
Es instructivo observar los experimentos que Galileo no realizó. No vio la necesidad
de variar todas las propiedades conocidas del péndulo y buscar un posible efecto en el
período. Por ejemplo, no varió sistemáticamente el color, la temperatura o el olor del
péndulo; no investigó si había alguna diferencia si el brazo del péndulo estaba hecho de
hilo de algodón o de hilo de seda. Basado en observaciones cotidianas, tenía un vasto
contexto precientífico de conocimiento que era suficiente para eliminar factores como
irrelevantes. Llamar a ese conocimiento "precientífico" no es poner en duda su
objetividad; Estas generalizaciones de nivel inferior se adquieren mediante el uso
implícito de los mismos métodos que el científico utiliza deliberada y sistemáticamente,
y son igualmente válidos. Dado tal contexto,
Al llegar a esta conclusión, pasó por alto un factor relevante: la ubicación del
péndulo. Sabía que un péndulo oscila porque la bobina cae hacia la Tierra. También
sabía que la luna no cae a la Tierra, lo que podría haberle sugerido que la gravedad de la
Tierra debe disminuir al aumentar la distancia. Entonces, ¿por qué no llevar un péndulo
a la cima de una montaña alta y ver si se balancea más lentamente?
En la era de Newton, se producirían consecuencias trascendentales cuando los
científicos usaran péndulos para descubrir tales variaciones gravitacionales. Pero esta
posibilidad nunca se le ocurrió a Galileo porque carecía del concepto de "gravedad" de
Newton. Galileo todavía pensaba en términos del concepto más simple de "pesadez",
que simplemente se refería a la propiedad de los objetos terrestres que los hace
presionar hacia abajo y caer a la Tierra. Carecía de la idea de una interacción invisible
entre el objeto y la Tierra. Dada esta idea moderna de fuerza, es razonable pensar que la
interacción se debilita al aumentar la distancia entre los cuerpos. Sin embargo, si se
piensa sólo en una "tendencia natural" del objeto pesado, el factor de la distancia al
centro de la Tierra no puede entenderse como relevante. La idea más avanzada de
"gravedad" era necesaria antes de que los científicos pudieran descubrir que el período
de un péndulo varía ligeramente con la ubicación, y luego ir más allá para descubrir
todo lo que esto implica. Aquí vemos cómo la falta de un concepto crucial puede detener
el progreso y cómo la formación del concepto puede allanar el camino hacia un mayor
conocimiento.
El péndulo proporcionó a Galileo una excelente introducción al estudio experimental
del movimiento; las mediciones fueron relativamente fáciles porque el bob se mantuvo
en un área mientras repetía lentamente su movimiento durante mucho tiempo. Sin
embargo, como descubrió Galileo, el análisis del movimiento se complicó por el hecho
de que la sacudida cambiaba continuamente de dirección. Por el contrario, el caso más
simple de un cuerpo que muestra su tendencia natural a moverse hacia la Tierra es el
del cuerpo cayendo hacia abajo.
Al principio de su carrera, cuando era profesor de matemáticas en la Universidad de
Pisa, comenzó su investigación sobre la caída libre abordando una vieja pregunta que
todavía era un punto clave de confusión: ¿Cómo afecta el peso de un cuerpo a la
velocidad a la que se mueve? ¿caídas? Galileo demostró la respuesta con su
característico estilo dramático. Subió a lo alto de la famosa Torre Inclinada y, desde una
altura de más de cincuenta metros, dejó caer dos bolas de plomo que diferían mucho en
tamaño y peso. Los estudiantes y profesores reunidos a continuación vieron que ambos
objetos caían al suelo casi al mismo tiempo. Contrariamente a la suposición común, la
velocidad a la que cae un cuerpo es independiente de su peso.
Entonces Galileo hizo la siguiente pregunta lógica: ¿Depende la velocidad de caída
del material del cuerpo? Repitió el experimento usando una bola de plomo y otra de
roble. Una vez más, cuando se dejan caer simultáneamente desde una gran altura,
ambos caen al suelo casi al mismo tiempo. Así, Galileo llegó a una generalización muy
amplia: todos los cuerpos libres, independientemente de las diferencias de peso y
material, caen a la Tierra al mismo ritmo.
En la superficie, parece demasiado fácil. Parece que Galileo llegó a esta verdad
fundamental de la física —una que había eludido a las mentes más grandes de la antigua
Grecia— simplemente haciendo algunos experimentos que cualquier niño podría
realizar. Pero una mirada más cercana revela que el razonamiento de Galileo no era tan
simple; dependía de su uso pionero de un concepto válido y de su rechazo de ciertos
conceptos inválidos ampliamente aceptados.
Primero, observe que los objetos que dejó caer no fueron seleccionados al azar. Si
Galileo hubiera arrojado un fardo de heno y un sombrero de paja desde lo alto de la
Torre Inclinada, el evento no habría sido un hito en la historia de la física. Sin embargo,
estos objetos están hechos de un material similar y tienen pesos muy diferentes, al igual
que las dos bolas de plomo que realmente usó. O considere el segundo experimento de
Galileo: Imagine que intenta dejar caer el plomo y las bolas de roble en el agua en lugar
de en el aire, quizás pensando que sería más fácil investigar un movimiento más lento.
Una vez más, el resultado no habría conducido a ningún descubrimiento importante.
Por el contrario, tales experimentos se malinterpretan fácilmente como evidencia de
que el peso es siempre un factor esencial para determinar la tasa de caída.
Galileo eligió las condiciones de sus experimentos con un criterio crucial en mente:
quería minimizar los efectos de la fricción. La "fricción" es la fuerza que resiste el
movimiento relativo de dos cuerpos en contacto. A veces se dice que Galileo ignoró esta
fuerza, porque las leyes que descubrió describen un movimiento sin fricción. Pero esto
es lo opuesto a la verdad. De hecho, pensó profundamente en la resistencia del aire y
otras formas de fricción, y distinguió cuidadosamente los casos en los que la fricción
juega un papel menor de los muchos casos en los que juega un papel esencial. Sin esta
distinción, es imposible llegar a ninguna ley de movimiento; con él, Galileo descubrió
con éxito la ley de la caída libre.
Enrico Fermi, otro gran físico italiano, rindió homenaje a este logro con el siguiente
comentario:
[Fue] la fricción misma lo que durante miles de años había mantenido oculta la
simplicidad y validez de las leyes del movimiento. En otras palabras, la fricción es un
elemento esencial en toda experiencia humana; nuestra intuición está dominada por la
fricción; los hombres pueden moverse debido a la fricción; debido a la fricción, pueden
agarrar objetos con las manos, pueden tejer telas, construir automóviles, casas, etc. Para
ver la esencia del movimiento más allá de las complicaciones de la fricción, de hecho se
requiere una gran comprensión.4
Un físico contemporáneo ve los efectos de la fricción en todas partes a su alrededor.
Eso es porque ha sido educado en las verdades descubiertas por Galileo y Newton.
Antes del siglo XVII, los filósofos naturales veían los movimientos que observaban desde
una perspectiva diferente, una perspectiva teñida por los errores contenidos en la
antigua física griega. Por ejemplo, cuando Leonardo da Vinci estudió los péndulos, no
comprendió que la amplitud disminuye gradualmente debido a la resistencia del aire.
En cambio, analizó el arco en una parte descendente "natural" y una parte ascendente
antinatural o "accidental". Luego invocó el dogma ampliamente aceptado de que el
movimiento accidental siempre será más corto que el natural para explicar la
amortiguación de los columpios. Nunca se le ocurrió abstraerse de este efecto, ya que lo
consideraba fundamental para la naturaleza del movimiento.
Así como conceptos válidos como "fricción" pueden impulsar la ciencia hacia
adelante, los conceptos inválidos pueden detenerla. El análisis erróneo de los péndulos
de Da Vinci se basaba en los conceptos griegos de movimiento "natural" y "violento",
que eran barreras formidables para el progreso de la física. En la raíz de esta distinción
estaba la idea falsa de que el movimiento requiere un motor, es decir, una fuerza. Las
rocas que caen, el humo se eleva y la luna girando en círculos se consideraban casos de
movimiento natural en los que el cuerpo es movido por una fuerza interna inherente a
su naturaleza. Las rocas lanzadas hacia arriba, el humo en sentido horizontal y los
pájaros volando se consideraron casos de movimientos violentos en los que el cuerpo se
mueve mediante empujones externos contra otros cuerpos. Se consideraba que los
movimientos naturales eran competencia del físico, ya que resultaban de la naturaleza
del cuerpo;
Como clavijas cuadradas en agujeros redondos, los hechos resistieron los intentos de
encajarlos en estas categorías inválidas. Considere el simple caso de un hombre que
lanza una piedra. ¿Por qué la piedra continúa moviéndose después de dejar la mano del
lanzador? Mientras vuela por el aire, ¿dónde está el motor? Dado que un movimiento
violento requiere una fuerza externa, los defensores de la teoría griega se vieron
obligados a dar una respuesta poco convincente: el lanzador supuestamente pasa su
fuerza motriz al aire, y luego las corrientes de aire empujan la roca para provocar su
movimiento continuo. Según este punto de vista, la función principal del aire no es
resistir esos movimientos violentos, sino provocarlos.
Durante la Edad Media, algunos pensadores comenzaron a rechazar la afirmación
inverosímil de que el aire empuja un proyectil en su camino. Al discutir el caso de un
saltador de longitud, el filósofo del siglo XIV Jean Buridan escribió: "La persona que
corre y salta de esta manera no siente que el aire lo mueve, sino que [más bien] siente
que el aire de enfrente le resiste fuertemente".5Pero nadie estaba dispuesto a renunciar
a la idea de que el movimiento requiere una fuerza. Entonces ellos "internalizaron" la
fuerza; afirmaron, por ejemplo, que el lanzador de una piedra transfiere su fuerza
motriz directamente a la piedra, dándole una propiedad llamada "ímpetu". A pesar de su
aceptación de una premisa falsa, estos filósofos lograron una ruptura parcial con los
errores del pasado. Abandonaron la distinción entre movimiento natural y violento; en
efecto, su punto de vista transformó los movimientos violentos en naturales al afirmar
que tales movimientos son causados por el ímpetu interno del cuerpo.
Los defensores medievales del "ímpetu" proporcionaron una respuesta al dilema
griego sobre qué hace que un proyectil se mueva, pero luego se enfrentaron a la
pregunta: ¿Por qué el proyectil se detiene o frena? ¿Qué pasa con su ímpetu? Una
respuesta fue afirmar que el ímpetu se disipa naturalmente con el tiempo. Pero esta
respuesta fue inadecuada; entre otros problemas, no dio ninguna pista de por qué la
velocidad de disipación depende del medio a través del cual viaja el cuerpo. Así que
Buridan sugirió que un cuerpo pierde ímpetu solo cuando trabaja para vencer la
resistencia. La idea de Buridan contenía un importante elemento de verdad en la
medida en que identificaba el papel de la fricción en el movimiento opuesto.
Pero fue Galileo quien dio el paso crucial al combinar esta apreciación de la fricción
con el método experimental. No se limitó a reconocer la existencia de fricciones; buscó
activamente controlarlo y minimizarlo. Esto es lo que le permitió abstraerse de los
efectos de la resistencia del aire y descubrir así que todos los cuerpos libres caen con el
mismo movimiento.
La siguiente pregunta razonable fue: ¿Cuál es la naturaleza de esta moción? En
particular, Galileo se preguntó cómo aumenta la velocidad de un cuerpo que cae con el
tiempo y la distancia. Por supuesto, no tenía forma de medir directamente la velocidad.
Sin embargo, se dio cuenta de que había una medida estrechamente relacionada que era
difícil pero no imposible: podía medir cómo varía la distancia caída con el tiempo
transcurrido.
Utilizando su reloj de agua, Galileo midió una caída de unos dos metros y otra desde
el doble de esa altura. Descubrió que duplicar la altura aumentaba el tiempo de caída en
menos del 50 por ciento. Este resultado sugirió que la distancia caída podría ser
proporcional al tiempo al cuadrado, al igual que la longitud de un péndulo es
proporcional a su período al cuadrado.
Entonces Galileo se dio cuenta de que podía usar el péndulo para comprobar esta
idea. Ideó un péndulo de longitud fácilmente ajustable en el que la sacudida impactaba
en una tabla fija colocada en la parte inferior de su oscilación. Luego midió el tiempo de
caída libre desde una altura particular y ajustó la longitud del péndulo hasta que giró
hacia la vertical al mismo tiempo. Descubrió, por ejemplo, que un peso caerá casi cinco
pies en el tiempo que un péndulo de cuatro pies se balancea hacia la vertical. (Galileo
parece haber usado medidas de tiempo con el reloj de agua, aunque habría sido posible
comparar las distancias directamente). Repitiendo el procedimiento para varios valores
diferentes, demostró que la relación entre la altura caída y la longitud del péndulo es
siempre la misma. . Dado que la longitud del péndulo varía como el cuadrado del tiempo
transcurrido, la distancia recorrida en caída libre también debe ser proporcional al
tiempo al cuadrado. De esta manera, utilizando su conocimiento previo de péndulos y el
método experimental, Galileo llegó a una generalización de alcance impresionante: para
todos los cuerpos libres en la Tierra, la altura caída es igual al cuadrado del tiempo
transcurrido multiplicado por una constante específica (el cuyo valor depende de las
unidades particulares).
Se dio cuenta de las implicaciones de su ley del tiempo cuadrado. Dado que la altura
caída es igual a la velocidad media de caída multiplicada por el tiempo transcurrido, la
altura puede ser proporcional al tiempo al cuadrado solo si la velocidad es directamente
proporcional al tiempo. Así, Galileo había encontrado la respuesta a su pregunta original
sobre el aumento de la velocidad durante la caída: la velocidad aumenta en proporción
directa al tiempo transcurrido, es decir, aumenta en incrementos iguales en intervalos
de tiempo iguales. En unidades inglesas conocidas, decimos que la velocidad aumenta
treinta y dos pies por segundo durante cada segundo de caída.
Además del concepto de "fricción", este descubrimiento dependió del desarrollo
previo de Galileo de dos conceptos clave de movimiento. A lo largo del razonamiento
anterior, utilizó conceptos de "velocidad" y "aceleración" que diferían profundamente
de los de uso común en ese momento. Stillman Drake, un destacado estudioso de
Galileo, señala que "la palabra italiana 'velocita' ... simplemente significaba rapidez, un
concepto cualitativo vago ..."6La alternativa era la palabra latina "velocitas", entonces
utilizada por los filósofos naturales para significar "intensidad de movimiento". Galileo
reconoció que tales ideas cualitativas son callejones sin salida en física; la ciencia de la
cinemática requiere conceptos cuantitativos de movimiento que se definen
matemáticamente y pueden identificarse mediante mediciones.
Galileo enfrentó dos obstáculos que le impidieron desarrollar conceptos de
movimiento completamente adecuados. Primero, la teoría griega de las proporciones lo
restringió a razones de "cantidades conmensurables", por ejemplo, razones de
distancias, o de tiempos, o de velocidades. Un concepto demasiado estrecho de
"número" había llevado a los griegos a rechazar las proporciones de "cantidades
diferentes", como la distancia en el tiempo o la velocidad en el tiempo. En segundo
lugar, las ideas cruciales de velocidad instantánea y aceleración instantánea son
imposibles sin el concepto matemático de "límite", que aún no se ha desarrollado. Como
resultado, pudo ofrecer definiciones matemáticamente rigurosas solo para el
movimiento a velocidad constante o para el movimiento a aceleración constante.
A pesar de estas restricciones, los nuevos conceptos de movimiento de Galileo
fueron un avance crucial sobre los de sus predecesores, y fueron adecuados para sus
propósitos, ya que la caída libre ocurre con una simple aceleración uniforme. Sin
embargo, su evidencia experimental directa de la ley de la caída libre estaba abierta a
una crítica: era difícil obtener mediciones repetibles y precisas de intervalos de tiempo
tan cortos. Se podría investigar más fácilmente la aceleración de la caída si hubiera una
forma de frenarla sin cambiar su naturaleza. Este fue el motivo detrás de los
experimentos de plano inclinado de Galileo.
En el caso de una bola que rueda hacia abajo en un plano inclinado, el movimiento es
causado por la componente descendente del movimiento constreñido de la bola pesada.
Galileo razonó que dado que la causa del movimiento es la misma que en caída libre y la
dirección de la bola es constante, la aceleración hacia abajo del plano debe ser de la
misma naturaleza que en caída libre, pero simplemente atenuada por la relación entre
la altura caída y la distancia total recorrida. Por lo tanto, hacer rodar bolas por un plano
inclinado en un pequeño ángulo con respecto a la horizontal proporcionó una forma de
estudiar la aceleración de un cuerpo que cae en una forma que se redujo mucho en
magnitud y, por lo tanto, fue más fácil de medir.
Galileo hizo rodar una bola de bronce por una ranura pulida y suave tallada en una
plancha de madera recta de unos dos metros y medio de largo. Utilizando un ángulo de
inclinación de casi dos grados, la bola tardó más de cuatro segundos en rodar por la
tabla. Entonces tuvo una idea ingeniosa. Ató ocho hilos muy finos alrededor de su tabla.
Cuando la pelota rodó sobre una cuerda, hizo un sonido de golpe leve pero audible.
Mientras rodaba repetidamente la pelota por la tabla, ajustó la ubicación de las cuerdas
hasta que los sonidos ocurrieron a intervalos regulares de un poco más de medio
segundo. Galileo conocía bastante la música y sabía que la regularidad de tales ritmos se
puede juzgar con mucha precisión (la mayoría de las personas pueden detectar una
desviación de un sesenta y cuatro de segundo). Las posiciones de las cuerdas que
producían los latidos regulares eran un registro de la distancia recorrida por la pelota
en función del tiempo. Sus resultados demostraron que la distancia es proporcional al
cuadrado del tiempo y, por lo tanto, el movimiento hacia abajo en un plano inclinado se
acelera uniformemente. Más tarde confirmó esta ley con experimentos adicionales en
los que utilizó planos inclinados más largos y midió el tiempo con su reloj de agua.
Galileo también captó algunas implicaciones cruciales de su idea de que la
aceleración de la bola en el plano es proporcional al seno del ángulo de inclinación.
Primero, dedujo matemáticamente que la velocidad final de la pelota en la parte inferior
del plano depende solo de su altura inicial, no de la longitud del plano o su grado de
inclinación. La altura del avión, mostró, es proporcional al cuadrado de la velocidad final
de la bola. En segundo lugar, la aceleración de la bola debe acercarse a cero cuando el
ángulo de inclinación se acerca a cero, lo que implica que el movimiento horizontal libre
debe ocurrir a velocidad constante.
Galileo diseñó un experimento que hizo uso de la primera implicación para probar la
segunda. Su plano inclinado estaba montado sobre una mesa de unos tres pies de altura.
En la parte inferior de la pendiente, ideó un deflector curvo para que la pelota hiciera
una transición suave para rodar brevemente a lo largo de la mesa horizontal antes de
volar y golpear el suelo a cierta distancia (verFigura 2). Eligió una altura inicial del
avión y luego midió dónde aterrizó la pelota. Armado con su conocimiento de la relación
entre altura y velocidad y con su hipótesis de velocidad horizontal constante, Galileo
pudo calcular dónde aterrizaría la pelota para cualquier altura del plano inclinado. Hizo
sus cálculos, realizó el experimento y descubrió que sus predicciones coincidían con sus
mediciones.
El plano inclinado proporcionó a Galileo un puente entre el movimiento vertical y
horizontal, y arrojó luz sobre la naturaleza de ambos. Lo usó para estudiar la
aceleración de un cuerpo que cae y para proporcionar un proyectil con una velocidad
horizontal conocida y fácilmente variable. Los resultados de sus experimentos llevaron
inexorablemente a la generalización suprema de su cinemática: el movimiento vertical
libre ocurre con aceleración constante, mientras que el movimiento horizontal libre
ocurre con velocidad constante.

Figura 2. Una bola que se mueve con rapidez horizontal constante y aceleración vertical
constante traza una semiparabola.

El experimento descrito anteriormente condujo a otro descubrimiento crucial.


Galileo no se había limitado a medir la distancia desde la mesa hasta el punto de
impacto de la pelota; también había observado y dibujado cuidadosamente la
trayectoria de la pelota en el aire. Tenía un conocimiento íntimo de la geometría griega
y, por lo tanto, la forma de la trayectoria le resultó familiar: parecía una semiparabola.
Esta observación inició una cadena de pensamiento que llevó a la comprensión de por
qué la trayectoria es necesariamente una parábola.
Había probado que un cuerpo libre cae a través de una distancia vertical
proporcional al cuadrado del tiempo transcurrido. También había demostrado que la
distancia horizontal recorrida por un cuerpo libre es directamente proporcional al
tiempo transcurrido. Además, su experimento mostró que el movimiento horizontal no
se ve afectado cuando el cuerpo cae simultáneamente. Así, los movimientos vertical y
horizontal se producen de forma independiente, cada uno siguiendo rigurosamente su
propia ley sin tener en cuenta el otro. Al combinar las dos leyes separadas, Galileo llegó
a la conclusión de que el cambio en la altura de un proyectil es proporcional al cuadrado
del cambio en la posición horizontal, y sabía que esta relación describe la curva de una
parábola. Sin ninguno de los retorcidos de manos y las dudas arbitrarias de un
escéptico,
La teoría de conceptos de Rand, como vimos en Capítulo 1, la llevó a lanzar un
desafío a los escépticos: Aquellos que niegan la validez de los conceptos deben primero
demostrar la invalidez del álgebra. Aquí estamos tratando con generalizaciones
inductivas, pero se aplica un desafío similar: aquellos que niegan la validez de la
inducción al declarar que es imposible encontrar "todo" en "algunos" deben primero
demostrar la invalidez de la cinemática declarando que es imposible para encontrar una
conexión causal entre los referentes de los conceptos “proyectil” y “parábola”. Tales
argumentos escépticos son inútiles, ya que Galileo encontró precisamente esa conexión.
Galileo pensó en una forma sencilla de demostrar el principio anterior. Cuando una
bola se hace rodar sobre una mesa inclinada suave, se mueve con velocidad constante a
través de la mesa y con aceleración constante hacia abajo, y por lo tanto traza una
trayectoria parabólica. Inmediatamente puso el principio en práctica al resolver varios
problemas militares de larga data; por ejemplo, mostró cómo el alcance de un cañón
depende de su ángulo de disparo y cómo calcular el ángulo de disparo de un objetivo a
una altura específica sobre el suelo.
Fue una hazaña genial comprender que el movimiento de los proyectiles podía
analizarse en componentes horizontales y verticales independientes. Stillman Drake
señala que los predecesores de Galileo habían pensado de manera muy diferente:
La teoría del ímpetu medieval, como la física aristotélica, suponía que cuando dos
tendencias diferentes al movimiento estaban presentes en el mismo cuerpo, solo la más
fuerte determinaría su movimiento real. Cuando la tendencia más fuerte fue impartida
violentamente, como en una pelota lanzada horizontalmente, se asumió que el conflicto
entre esto y la tendencia natural a caer debilitaba el movimiento horizontal hasta que la
tendencia vertical constante se hizo más fuerte y trajo la pelota a tierra. 7
Incluso hoy, esta visión falsa sigue siendo influyente. Considere a un hombre sin
instrucción a quien se le dice que una bala se disparará horizontalmente desde la boca
de un arma mientras que una segunda bala se lanzará simultáneamente desde la misma
altura. Cuando se le pide que adivine qué bala golpeará el suelo primero, el hombre
elegirá invariablemente la bala lanzada. Galileo fue el primero en comprender que el
movimiento horizontal de la bala disparada es irrelevante y, por lo tanto, ambas balas
golpean el suelo al mismo tiempo (asumiendo, por supuesto, que la superficie de la
Tierra puede aproximarse como plana).
El análisis de Galileo condujo a una nueva síntesis. Según la antigua visión medieval,
son necesarias dos causas para explicar el ascenso y descenso de un proyectil. Una vez
que el proyectil está en el aire y se mueve libremente, su ascenso es causado por el
ímpetu ascendente que se le ha impartido. Una vez que este ímpetu se disipa, se hace
operativa una segunda causa: la tendencia natural del cuerpo a caer hacia la Tierra. Por
el contrario, Galileo reconoció que la misma causa y el mismo efecto operan a lo largo de
la trayectoria: el proyectil siempre acelera hacia la Tierra al mismo ritmo mientras
simplemente conserva su velocidad horizontal.
Los experimentos permitieron a Galileo alcanzar y validar su descripción
matemática del movimiento y así lograr una perspectiva más abstracta e integrada que
la de sus predecesores. Su abstracción de los efectos de la fricción, su análisis del
movimiento en componentes horizontales y verticales, sus definiciones
matemáticamente precisas de velocidad uniforme y aceleración uniforme, su aplicación
del conocimiento griego de las parábolas, estos fueron algunos de los pasos
conceptuales clave que lo llevaron a un altura desde la que podía ver los mismos
principios en acción en muchos movimientos superficialmente diferentes. Desde esta
nueva perspectiva, vio un péndulo oscilante, una manzana que caía, una bola rodando
por una ladera y una bala de cañón elevándose en el aire como variaciones sobre el
mismo tema: la aceleración constante de cuerpos pesados hacia la Tierra.
Galileo introdujo un sistema de clasificación en el que las cosas de aspecto muy
diferente ... se consideraban todas pertenecientes a la misma categoría y, por lo tanto, se
podían analizar de manera coherente y comparable. Fueron vistos como instancias de lo
mismo, de la misma manera que una aguja de brújula en movimiento, limaduras de
hierro estampadas y corriente inducida en un conductor en movimiento —
observacionalmente todos muy diferentes— se ven como indicadores de una cosa, un
campo magnético.8
Los diversos movimientos que estudió Galileo no se relacionaron simplemente en
retrospectiva, como resultado de sus leyes; como hemos visto, estuvieron conectados
durante el proceso de descubrimiento, y las conexiones fueron esenciales para
descubrir las leyes. En cada paso del camino, Galileo hizo uso del contexto completo de
conocimiento disponible para él. El péndulo jugó un papel crucial en el estudio de la
caída libre, y luego tanto las investigaciones del péndulo como de la caída libre llevaron
al estudio del movimiento en plano inclinado, que a su vez condujo a la comprensión del
movimiento de proyectiles. La cinemática de Galileo se desarrolló y validó no como un
conglomerado de piezas separadas, sino como un todo unificado.
La integración es el proceso de unir una complejidad de elementos en un todo. La
integración cognitiva es la esencia misma del pensamiento humano, desde la formación
de conceptos (una integración de un número ilimitado de concretos en un todo
designado por una palabra), a la inducción (una integración de un número ilimitado de
secuencias causales en una generalización), a deducción (la integración de premisas en
una conclusión). Un elemento de conocimiento se adquiere y valida mediante la
comprensión de su relación con la totalidad del conocimiento de uno. Un pensador
siempre busca relacionarse, captar similitudes ocultas, descubrir conexiones, unificar.
Una conciencia conceptual es un mecanismo integrador y su producto, el conocimiento,
es un sistema interconectado, no un montón de proposiciones aisladas.
Galileo integró sus conocimientos no solo dentro de la asignatura de física, sino
también entre la física y la ciencia relacionada con la astronomía. La astronomía
copernicana afirmó que la Tierra gira rápidamente sobre su propio eje y gira alrededor
del sol a una velocidad asombrosa. Según las antiguas opiniones sobre el movimiento,
esta afirmación era simplemente absurda. Si la Tierra se está moviendo, la gente
preguntaba, ¿qué pasaría cuando una piedra fuera lanzada al aire? La Tierra se movería
debajo de ella y, contrariamente a la experiencia, la roca bajaría a millas de distancia.
Además, ¿qué está causando el supuesto movimiento de la Tierra? No hay nada que lo
empuje, y los materiales de la Tierra no muestran una inclinación natural a girar en
círculos. El único movimiento natural de los cuerpos pesados es caer hacia abajo. Si la
Tierra no estuviera ya en su lugar natural, simplemente caería hacia ese lugar. Y como la
Tierra es muy pesada, caería muy rápidamente; ¡Cualquier cuerpo más ligero que no
estuviera sujeto, incluidos nosotros, se quedaría atrás! La teoría del movimiento de
Galileo anuló estas objeciones y, por lo tanto, sirvió como base para su defensa de la
nueva astronomía. Esta integración crucial también tuvo el beneficio inverso: Galileo
pudo señalar la abundante evidencia observacional a favor de la teoría heliocéntrica
(ver laSiguiente capítulo) como soporte adicional para su cinemática.
Pasemos ahora de los triunfos de Galileo para mencionar los problemas que
enfrentó pero que no pudo resolver. Hoy en día, los errores de los grandes científicos se
citan a menudo como razones para dudar de la validez del método científico. Si incluso
los mejores practicantes de este método cometen errores, se argumenta, ¿cómo
podemos confiar en los resultados científicos? Para ver que tales dudas son infundadas,
vale la pena examinar los errores de Galileo. Veremos que no proporcionan un punto de
apoyo al escepticismo; por el contrario, ilustran que un proceso racional se autocorrige.
Comencemos con el análisis del movimiento pendular. Científicos posteriores
demostraron que el período ligeramente mayor de un péndulo oscilando en un arco más
grande no es causado por la resistencia del aire, como había supuesto Galileo. Incluso
cuando se elimina el aire, el período de oscilación de un péndulo a lo largo de un arco
circular es más de un 10 por ciento mayor para oscilaciones muy grandes que para
oscilaciones pequeñas. Galileo no tenía los medios experimentales o matemáticos para
identificar la causa en este caso. Idealmente, debería haber reconocido abiertamente la
pequeña dependencia de amplitud que había descubierto, y luego simplemente sugerir
la resistencia del aire como una posible causa.
Pero el error fue de poca importancia. Las condiciones para un péndulo
verdaderamente isócrono se descubrieron una generación después de que Galileo
publicara su teoría del movimiento. En 1659, Christian Huygens demostró que el
período de un péndulo es independiente de la amplitud cuando la bobina se mueve a lo
largo del arco de una cicloide invertida en lugar de un círculo (una cicloide, que se
muestra enfigura 3, es la curva trazada por un punto en el borde de una rueda rodante).
Para resolver el problema que había dejado perplejo a Galileo, Huygens hizo uso de dos
nuevos desarrollos en matemáticas: las propiedades recientemente descubiertas de la
cicloide y la técnica de los "infinitesimales". Al comenzar con la ley de Galileo del
movimiento en plano inclinado y luego tratar la trayectoria curva del péndulo como una
serie de planos inclinados infinitesimalmente pequeños, demostró que el movimiento
siempre desciende al mismo tiempo solo cuando la curva es cicloide. Así, el mismo
conocimiento que Huygens heredó de Galileo, cuando se combinó con las nuevas
matemáticas, le permitió corregir el error de Galileo.
El mismo punto está ilustrado por un descuido en el análisis de Galileo del
movimiento en plano inclinado. Su bola de bronce se movió por el plano inclinado
rodando, en lugar de deslizarse, debido a la fricción entre la bola y la superficie de la
madera. Nunca sospechó que la aceleración de una bola que rueda es aproximadamente
un 28 por ciento menor que la de una bola que se desliza. Su teorema que relaciona la
aceleración en un plano inclinado con la aceleración de la caída libre es cierto solo para
el deslizamiento sin fricción, sin embargo, dio a entender que es cierto para las bolas
rodantes utilizadas en sus experimentos. Este fue un error comprensible en un punto
sutil. La mecánica de las bolas rodantes es compleja; Galileo carecía de los conceptos
matemáticos y dinámicos que se requieren para comprender el tema. Finalmente, en el
siglo XVIII, fue la poderosa combinación de la dinámica de Newton y las matemáticas de
Euler lo que hizo que el comportamiento de los cuerpos en rotación fuera
completamente inteligible. Una vez más, los científicos se subieron a los hombros de
Galileo para alcanzar una altura desde la cual se pudo ver y corregir su error.

Figura 3. El período es independiente de la amplitud cuando el péndulo se ve obligado a


moverse a lo largo del arco de una cicloide invertida.

El error fundamental de la física de Galileo se encuentra en su tratamiento del


movimiento horizontal. Su evidencia de que el movimiento horizontal libre ocurre con
velocidad constante provino principalmente de experimentos de laboratorio y, en
segundo lugar, de observaciones de campo de proyectiles de corto alcance. Por lo tanto,
la evidencia se limitó a un dominio de distancias cortas en las que la Tierra puede
aproximarse como plana. Sin embargo, Galileo especuló sobre cómo se aplicaría su
principio a los movimientos en distancias muy grandes. Argumentó que en tales casos
"movimiento horizontal" sólo puede significar movimiento a altitud constante, de lo que
dedujo que el movimiento horizontal libre es, en última instancia, un movimiento
circular alrededor de la Tierra esférica. Esta fue su concesión a la idea griega de
"movimiento circular natural,9
Galileo quedó vulnerable a cometer este error porque carecía del concepto de
"gravedad". Dado que nunca se formó la idea de una interacción atractiva que
disminuye con la distancia, no pudo abstraerse de la gravedad de la Tierra. Con esta
abstracción podría haber llegado a la primera ley del movimiento de Newton, que
establece: En ausencia de fuerzas, un cuerpo permanece en reposo o se mueve con
rapidez constante en línea recta. Sin embargo, la capacidad de Newton para abstraerse
de la gravedad dependía de su comprensión de que es una fuerza variable que puede
disminuir hasta la insignificancia a distancias suficientemente grandes; Tal abstracción
no tiene sentido en la visión de Galileo de que los cuerpos pesados y libres simplemente
caen a una velocidad constante de aceleración, como un efecto omnipresente. Entonces,
en ausencia de un concepto de prerrequisito crucial, La mente de Galileo solo podía
permanecer en reposo o moverse en una dirección equivocada sobre este tema; no pudo
llegar al principio que más tarde se convirtió en la primera ley de Newton.
Anteriormente vimos a Leonardo da Vinci cometer un error similar en su análisis del
movimiento del péndulo. Descartando el aire como un fondo omnipresente, no
identificó ni abstrajo los efectos de la resistencia del aire en el movimiento del péndulo.
Como resultado, no pudo explicar la amortiguación del péndulo y llenó el vacío en su
comprensión apelando a un dogma arbitrario. De manera paralela, Galileo no se
identificó ni se abstrajo de los efectos de la gravedad, y llenó el vacío en su comprensión
apelando a un argumento platónico infundado.
Galileo se equivocó en otros temas que no pueden entenderse sin la idea de la
gravedad. Un ejemplo obvio es su intento de explicar las mareas del océano sin hacer
referencia a la fuerza gravitacional de la luna y el sol. Ejemplos menos obvios son su
incapacidad para aceptar la ley de Kepler de que los planetas se mueven en órbitas
elípticas y su sugerencia de que los cometas podrían ser fenómenos atmosféricos en
lugar de cuerpos celestes. Estos dos últimos errores fueron causados por la concesión
de Galileo al “movimiento circular natural”, que he sostenido que era una consecuencia
de su incapacidad para abstraerse de los efectos de la gravedad. Sobre un tema tras
otro, Galileo fue detenido por la misma barrera. Podemos ver por qué el concepto de
gravedad de Newton fue tan fundamental para el desarrollo de la física moderna.
Por supuesto, fue Galileo quien allanó el camino para sus sucesores, no simplemente
presentando el conocimiento que descubrió, sino también brindando información sobre
el método apropiado de descubrimiento. Este último fue la parte más valiosa de su
legado. El viejo adagio se aplica aquí: “Dale a un hombre un pescado y comerá durante
un día; enséñele a pescar y comerá toda la vida ".
Lamentablemente, las obras publicadas de Galileo no ofrecen una descripción del
todo precisa de su proceso de descubrimiento. A menudo ocurre que un científico
presenta su teoría en una forma que oscurece los pasos por los que llegó a ella. En
ocasiones, Galileo creaba una impresión engañosa de su método al presentar
argumentos deductivos a partir de "primeros principios plausibles" o de experimentos
mentales, al tiempo que daba menos énfasis a los argumentos inductivos de
experimentos reales. En cuanto al método, su práctica fue mejor que su presentación.
Por lo tanto, no aprovechó al máximo la oportunidad de enseñar a sus sucesores cómo
adquirir conocimientos científicos.
Como resultado, la generación de científicos que siguió a Galileo no comprendió
adecuadamente el papel de la experimentación. Esto dejó la puerta abierta para René
Descartes, quien lideró un renacimiento platónico. Descartes rechazó explícitamente el
método de inducir causas mediante la observación de sus efectos, y criticó a Galileo por
utilizar tal enfoque. "Me parece muy defectuoso en ... que no ha examinado las cosas en
orden", escribió Descartes, "y que sin haber considerado las primeras causas de la
naturaleza sólo ha buscado las razones de algunos efectos particulares, y por lo tanto ha
construido sin Fundación."10 Por el contrario, Descartes explicó que su objetivo era
"deducir una explicación de los efectos a partir de sus causas". 11¿Cómo conocemos las
causas fundamentales? Con Platón, Descartes afirmó que tenía acceso directo a ellos por
medio de ideas innatas "claras y distintas".
Así, incluso el espectacular logro de Galileo no fue suficiente para institucionalizar el
método experimental y desacreditar el platonismo entre los científicos. Esa tarea quedó
en manos del hombre que completó la revolución científica: Isaac Newton.

Óptica de Newton
Cuando Newton comenzó su batalla para establecer un método inductivo adecuado en
física, estaba trabajando en el campo de la óptica, no en la cinemática o la astronomía.
En sus primeros años, mucho antes de que los Principia le dieran fama, realizó un
estudio de la luz y los colores que se ha descrito como "la investigación experimental
más importante del siglo XVII".12
Vivimos en un mundo colorido. Por lo general, los colores que vemos se producen
por el reflejo de la luz ordinaria (blanca) de los cuerpos, y el color específico reflejado
depende de la naturaleza del cuerpo. En la segunda mitad del siglo XVII, también se
sabía que los colores se pueden producir por refracción. Mientras estudiaba en el
Trinity College, Newton aprendió sobre la ley de refracción del seno (descubierta por
Snell en 1621), sobre los colores que resultan de la luz blanca que pasa a través de
cuñas de vidrio (prismas), sobre la idea de que los arcoíris son causados de alguna
manera por la refracción de la luz dentro de las gotas de lluvia, y sobre el hecho de que
los telescopios refractores producen imágenes borrosas con bordes coloreados.
El interés inicial de Newton en el tema es evidente a partir de su estudio detallado
del libro de Robert Boyle Experiments and Considerations Touching Colors (1664). Dos
estudiosos ofrecen la siguiente descripción de las notas de Newton sobre el libro:
[Las notas] comprenden datos sobre las formas en que se cambian los colores de los
objetos en una amplia variedad de circunstancias. Registran los efectos del calor, las
características de varios sublimados, ácidos y precipitados, las formas en que los
objetos cambian en varias luces y posiciones, los efectos de los tintes, de las soluciones y
las sales, y los cambios producidos en los colores por varias combinaciones de estos.
"Instrumentos". Aunque el objetivo de Newton es aumentar su base de información, las
entradas son más que una mezcla fortuita. Cada bit de información se relaciona de
alguna manera con la diferencia en la apariencia del color de un cuerpo cuando se mira,
en contraste con cuando se mira a través de él, o las formas en que se puede cambiar el
color de un cuerpo.13
Durante estos años de licenciatura, Newton mantuvo un cuaderno titulado "Ciertas
preguntas filosóficas", en el que registró sus preguntas y sus primeros pensamientos a
tientas sobre una amplia gama de temas en ciencias físicas, incluido el tema de la luz y
los colores. Por ejemplo, preguntó por qué los materiales difieren en transparencia, por
qué la refracción es ligeramente menor en agua caliente que en agua fría, por qué los
carbones son negros y las cenizas son blancas. Preguntó si la luz se mueve con una
velocidad finita, si los rayos de luz podrían mover un cuerpo "como el viento hace una
vela" y si la refracción en las superficies de vidrio es la misma cuando se elimina el aire
circundante. Las preguntas muestran una mente extraordinariamente activa que había
absorbido el conocimiento disponible del tema.
En sus notas sobre colores, Newton se refirió a algunas de las explicaciones
propuestas que encontró en la literatura. Escribió: “Los colores surgen de sombras
entremezcladas con luz o de reflejos más fuertes o más débiles. O partes del cuerpo
mezcladas y arrastradas por la luz ".14Luego descartó rápidamente la primera
posibilidad, simplemente citando muchos casos en los que el blanco y negro se mezclan
sin producir ningún color, y señalando que los bordes de las sombras no están
coloreados. En esta etapa inicial, no tenía ninguna teoría propia, y se estaba dando
cuenta de que nadie más tenía una tampoco (a pesar de algunas afirmaciones
jactanciosas de otros en sentido contrario).
No pasó mucho tiempo antes de que Newton comprara un prisma y comenzara su
propia investigación. Comenzó mirando varios objetos a través del prisma. Sus primeras
observaciones importantes fueron de colores que aparecen a lo largo de los límites
entre los objetos claros y oscuros. Por ejemplo, cuando se coloca una tira fina de papel
blanco sobre un fondo oscuro y se ve a través de un prisma, un borde del papel
aparecerá azul y el otro rojo.
A partir de la observación del arco iris y la refracción de la luz a través de prismas,
se sabía que el azul y el rojo se encontraban en lados opuestos del espectro de colores.
Algunos científicos propusieron que cuando un rayo de luz blanca entra al agua o al
vidrio en un ángulo oblicuo, un borde del rayo se ve afectado de manera diferente al
otro, lo que hace que la luz de un lado se vuelva azul mientras que la luz del otro lado se
vuelva roja. Sin embargo, a Newton se le ocurrió otra posibilidad: se le ocurrió que
podrían producirse arcoíris y "colores límite" si la luz azul se refractara un poco más
que la luz roja. En otras palabras, pensó preguntar: ¿Se ven la luz azul y roja en lados
opuestos no porque se originen en diferentes lugares dentro del rayo, sino porque están
dobladas en diferentes ángulos por el agua o el vidrio?
La pregunta solo podría responderse mediante la experimentación. Newton tomó un
hilo y coloreó la mitad de su longitud de azul y la otra mitad de rojo. Cuando colocó el
hilo en línea recta sobre un fondo oscuro y lo miró a través de un prisma, las mitades
azul y roja parecían discontinuas, una encima de la otra. El prisma cambió la imagen de
la mitad azul del hilo más que la mitad roja. A partir de este experimento, Newton llegó
a una verdad universal: tras la refracción, la luz azul se dobla más que la luz roja.
Dado que los diversos colores de luz emergen del prisma en ángulos ligeramente
diferentes, el espectro de colores se extenderá a medida que la luz se aleje. Este
pensamiento llevó a Newton a otro experimento. Con las ventanas de su habitación a la
sombra, permitió que la luz del sol entrara por un pequeño orificio. Colocó un prisma
cerca de la abertura para que la luz pasara a través de ella y se exhibiera en la pared del
fondo, a unos seis metros de distancia. Observó que el haz circular y estrecho de luz
blanca era doblado por el prisma y transformado en un espectro de colores completo y
alargado en el orden rojo, naranja, amarillo, verde, azul y violeta. El espectro se extendió
en la misma dirección en que el vidrio doblaba la luz, y era cinco veces más largo que
ancho.15
Después de observar este cambio sorprendente en un rayo de luz blanca incidente,
era natural preguntarse qué efecto tiene un prisma sobre un rayo de luz de color
incidente. Para encontrar la respuesta, Newton realizó una serie de experimentos en los
que generó un espectro con un prisma y luego pasó los colores individuales uno a la vez
a través de un segundo prisma. En contraste con la luz blanca, descubrió que solo se
alteraba la dirección de la luz de color. Sus mediciones confirmaron que la luz azul
estaba más doblada que la luz roja, como esperaba. Más importante, sin embargo, fue el
hecho nuevo y crucial de que el color siempre permanece sin cambios y los rayos no se
esparcen por el segundo prisma.
Aparentemente, los colores individuales se redirigen pero, por lo demás, no se ven
afectados por los prismas. Pero si los prismas no afectan los colores, ¿cómo pueden
crearlos a partir de un rayo de luz blanca? Quizás, pensó Newton, los colores no son
creados por el prisma; quizás estén en la luz blanca y simplemente separados por su
ángulo variable de refracción. En otras palabras, se le ocurrió una idea radical: tal vez
una mezcla de todos los colores la experimentemos como luz blanca.
Sabía que en algunos casos una mezcla de dos colores se ve como un color diferente.
En sus primeras notas, había registrado su observación de que la llama de una vela
amarilla vista a través de un cristal azul parece verde. También sabía que la luz blanca
vista a través de una combinación de vidrio rojo y vidrio azul parece violeta. Esa
evidencia ya lo había convencido de que una mezcla de colores puede parecer bastante
diferente a cualquiera de sus componentes. Sin embargo, fue un paso audaz sugerir que
la blancura, que durante mucho tiempo había servido como el símbolo mismo de la
"pureza", era de hecho una mezcla de todos los colores del espectro. Fue audaz, pero no
obstante, se basó en evidencia observacional.
Newton nunca se conformó con sugerir simplemente una posibilidad; se conformó
con nada menos que una prueba experimental. Si la luz blanca está compuesta por todos
los colores, entonces debería ser posible volver a juntar los colores separados y formar
la luz blanca una vez más. Se dio cuenta de que esto se puede hacer usando una
combinación de prismas o una lente de enfoque, y mostró que cuando se hace que todo
el espectro de colores converja, aparece blanco. Además, cuando se permite que el
espectro continúe a través del punto focal y vuelva a divergir en el otro lado, los colores
reaparecen en el orden inverso. La conclusión era ahora ineludible: los colores
individuales son los componentes "puros" y simples, mientras que la luz blanca es una
mezcla de ellos.
A continuación, aplicó esta nueva percepción para comprender por qué los objetos
que nos rodean aparecen con sus colores característicos. La implicación básica de su
teoría era clara: cuando un objeto está iluminado con luz blanca y, sin embargo, aparece
un color en particular, la razón debe ser que el objeto refleja ese color con fuerza
mientras absorbe o transmite gran parte de la luz en el resto del espectro. . Basado en
sus descubrimientos previos, Newton no esperaba que los colores fueran creados o
cambiados por la reflexión; simplemente deben separarse en la medida en que un color
se refleje más que los demás.
Para probar esto experimentalmente, tomó un trozo de papel y pintó la mitad
izquierda de azul y la mitad derecha de rojo. En una habitación sombreada, iluminó el
papel solo con la luz azul de un prisma. Como esperaba, todo el papel parecía azul, pero
el color era intenso en la mitad izquierda y tenue en la mitad derecha. Cuando el papel
se iluminó con luz roja del prisma, volvió a ver el resultado esperado: todo el papel era
rojo, pero ahora la mitad izquierda era tenue y la mitad derecha intensa. Los colores no
cambian por reflexión; la pintura azul refleja la luz azul fuertemente y la luz roja
débilmente, mientras que la pintura roja refleja la luz roja fuertemente y la luz azul
débilmente. Estas observaciones fueron una simple pero poderosa confirmación de su
teoría.
Ofreció otras demostraciones convincentes de que los colores que componen la luz
blanca están separados por cantidades desiguales de reflexión o transmisión en las
superficies. Por ejemplo, oscureció su habitación y luego permitió que un rayo de luz
blanca iluminara una lámina de oro muy delgada. Descubrió que la luz reflejada en un
lado era del color amarillo parduzco habitual del oro, mientras que la luz transmitida en
el otro lado era de un color azul verdoso.
La teoría de los colores de Newton integró y explicó una enorme variedad de
observaciones. Por ejemplo, pudo explicar todas las propiedades esenciales de los
arcoíris, como el mayor brillo del cielo dentro del arco iris, la posición angular y el
ancho de los arco iris primario y secundario, y el orden inverso de colores en los dos
arcoíris. La teoría también le permitió comprender por qué los telescopios refractores
simples producen imágenes borrosas con bordes de colores. Dado que los colores de la
luz blanca se refractan en ángulos ligeramente diferentes, no convergen para formar
una imagen nítida. Resolvió el problema inventando un nuevo tipo de telescopio que
enfocaba la luz mediante la reflexión de espejos en lugar de la refracción a través del
vidrio. Por lo tanto, no perdió el tiempo en poner su teoría en práctica,
Sus predecesores habían asumido que los colores eran el resultado de alguna
modificación de la luz blanca "pura". Luego, sin ninguna evidencia de apoyo,
especularon sobre la naturaleza específica de la modificación. Descartes había afirmado
que la luz era un movimiento de ciertas partículas pequeñas y que los colores son
causados por la rotación de las partículas: las partículas de luz que giran más
rápidamente se ven supuestamente como rojas, mientras que las que giran más
lentamente se ven como azules. El destacado científico inglés Robert Hooke ofreció una
teoría diferente. Supuso que la luz blanca era un pulso de onda simétrica, y afirmó que
los colores resultan cuando el pulso se distorsiona. Según su teoría, la luz es roja cuando
la parte anterior del pulso de onda es mayor en amplitud que la parte posterior y es azul
cuando ocurre lo contrario.
Newton vio estas "teorías" por lo que eran: ficciones basadas únicamente en las
fértiles imaginaciones de sus creadores. Rechazó su enfoque especulativo y refutó su
supuesto básico. Demostró que los colores no son el resultado de ninguna modificación
de la luz blanca; más bien, son los componentes elementales de la luz blanca.
El aspecto más radical de la teoría de Newton no consistió en lo que dijo, sino en lo
que se abstuvo de decir. Presentó sus resultados y conclusiones sin comprometerse con
una visión definida sobre la naturaleza fundamental de la luz y los colores. Razonó hasta
donde las pruebas disponibles pudieron llevarlo, y no más. Muchos científicos
reaccionaron al artículo original de Newton con sorpresa y confusión porque estaban
acostumbrados al método cartesiano de deducir conclusiones de las "primeras causas"
imaginadas. Aquí había un artículo sobre colores en el que el autor simplemente ignoró
la controversia sobre si los colores eran partículas rotativas o pulsos de onda
distorsionados o algo más. ¿Faltaban algunas páginas? se preguntaron.
En lugar de omitir nada, Newton había proporcionado lo que se omitió del método
de Descartes: la objetividad. Newton indujo sus conclusiones a partir de los resultados
observados de los experimentos; no los dedujo de "intuiciones". Tuvo cuidado de
identificar el estado epistemológico de sus ideas y de distinguir claramente entre las
que consideraba probadas y las que se basaban en pruebas que no eran concluyentes.
Conocía demasiado bien el minucioso esfuerzo que se requiere para descubrir las
verdades básicas sobre la naturaleza, y no tuvo paciencia con aquellos que intentaron
atajar el proceso con especulaciones vacías.
Newton dijo una vez que "no formuló hipótesis", una declaración que se hizo famosa
y ampliamente incomprendida. Explicando su terminología, escribió: "La palabra
'hipótesis' es usada aquí por mí para significar solo una proposición que no es un
fenómeno ni se deduce de ningún fenómeno, sino asumido o supuesto, sin ninguna
prueba experimental".dieciséisDesafortunadamente, esto no dejó en claro su significado.
No tenía la intención de rechazar de plano todas las hipótesis que carecían de pruebas
experimentales completas; de hecho, usó el término "hipótesis" para referirse a una
afirmación arbitraria, es decir, una afirmación sin apoyo de ninguna evidencia
observacional.
Newton entendió que aceptar una idea arbitraria, incluso como una mera
posibilidad que merece consideración, socava todo el conocimiento de uno. Es
imposible establecer una verdad si se considera válido el procedimiento de fabricar
"posibilidades" contrarias de la nada. Como explicó en una carta a un colega:
[Si] alguien puede ofrecer conjeturas sobre la verdad de las cosas a partir de la mera
posibilidad de hipótesis, no veo por qué estipulación puede determinarse algo cierto en
ninguna ciencia; ya que siempre se pueden idear uno u otro conjunto de hipótesis que
parecerán proporcionar nuevas dificultades. Por eso juzgué que hay que abstenerse de
contemplar hipótesis, como de argumentación indebida…. 17 (Cursiva agregada.)
Aquí, mientras defendía su teoría de los colores, introdujo un nuevo principio crucial
de lógica inductiva. Es la respuesta adecuada a la mayoría de las afirmaciones hechas
por Descartes y los de su calaña, la única respuesta que justifican: la desestimación total.
Newton reconoció que el intento de refutar una afirmación arbitraria es un error
fundamental. Para comprender la naturaleza del mundo, el pensamiento de uno debe
comenzar con la información recibida del mundo, es decir, datos sensoriales. Pero una
idea arbitraria se desprende de tales datos; considerarlo es dejar el reino de la realidad
y entrar en un mundo de fantasía. No se puede adquirir ningún conocimiento haciendo
una excursión de este tipo. Ni siquiera se puede lograr el objetivo equivocado de refutar
una idea arbitraria, porque tales afirmaciones siempre pueden protegerse con otras
afirmaciones arbitrarias. Al entrar en el mundo de la fantasía,
Los sentidos proporcionan nuestro único contacto directo con la realidad. Sin ese
contacto, puede haber una acción cerebral, pero no hay pensamiento. Los giros
mentales de la física cartesiana son como las ruedas giratorias de un automóvil elevado:
a pesar del movimiento, no hay posibilidad de llevar la carretera a ninguna parte. En
cuanto a los científicos que están de acuerdo con Platón y Descartes y, por lo tanto,
rechazan el camino porque es sucio, ruidoso y degradante para sus neumáticos
elevados, pierden sus medios para ir a cualquier parte.
La teoría de los colores de Newton recibió una reacción hostil de tales científicos. Al
principio, Newton reiteró pacientemente cómo realizar los experimentos y qué
conclusiones podían inferirse con certeza de los resultados. Finalmente, estableció una
ley epistemológica en su esfuerzo por adelantarse a todas las discusiones que no se
basaran en los hechos observados. Declaró que cualquier crítica válida de su teoría debe
caer en una de dos categorías: o argumenta que sus observaciones son insuficientes
para apoyar sus conclusiones, o cita observaciones adicionales que contradicen sus
conclusiones. Como él lo expresó:
La teoría que propuse me fue demostrada, no por inferir que es así porque no de otra
manera, es decir, no por deducirla sólo de una refutación de supuestos contrarios, sino
por derivarla de experimentos que concluyen positiva y directamente…. Y, por lo tanto,
desearía que todas las objeciones se suspendieran de hipótesis o de cualquier
[fundamento diferente] a estos dos: de mostrar la insuficiencia de experimentos para
determinar estas preguntas, o probar cualquier otra parte de mi teoría, ... o de producir
otros experimentos que directamente contradígame, si parece que algo así ocurre. 18
Galileo había luchado contra la Iglesia para expulsar la fe religiosa del ámbito de la
ciencia; Newton luchó contra sus compañeros científicos en un esfuerzo por expulsar lo
arbitrario como tal, incluidas las afirmaciones seculares. 19La apelación a la fe es la
exigencia de que las ideas sean aceptadas sobre la base de la emoción más que de la
evidencia y, por tanto, es una especie de arbitrariedad. No importa si la idea está en la
Biblia; por ejemplo, si se le pide a uno que acepte que Josué alargó el día ordenando al
sol que se detenga, o si se le pide a uno que acepte que las partículas de luz blanca se
colorean cuando giran. No hay evidencia para ninguna de las dos afirmaciones, y
considerarlas es rechazar el único medio de conocimiento de la mente: el razonamiento
a partir de hechos observados.
Aunque Galileo fue pionero en el método experimental, Newton fue quien estableció
su papel fundamental en la física moderna. Como señalan dos historiadores de la
ciencia, "El experimento se convirtió en un principio y también en un método con
Newton, quien llegó a ver la base experimental de su filosofía como la característica que
la distingue de otras filosofías naturales y la hace superior a ellas". 20 Su trabajo
experimental en óptica sirve como modelo de cómo debería hacerse la ciencia física.

Los métodos de diferencia y acuerdo


Como vimos en Capítulo 1, nuestras primeras generalizaciones se basan en conexiones
causales que se perciben directamente. Por ejemplo, el primer paso hacia la
comprensión de la gravitación por parte del físico moderno es la generalización: "Las
cosas pesadas caen". Un niño capta la idea de "pesadez" al sostener objetos y sentir la
presión hacia abajo que ejercen contra su mano. Se da cuenta de que algunas cosas
presionan más que otras; implícitamente omite las medidas y llama al atributo
"pesadez". El concepto "caída" también se basa directamente en los datos perceptivos:
se refiere al movimiento descendente de las cosas que se produce de forma espontánea,
sin empujar. Cuando un niño siente la pesadez de una cosa y luego la suelta y la ve caer,
inmediatamente se da cuenta: “Su pesadez [la que hizo que apriete su mano] es lo que la
hizo caer”.
No se requiere ningún método aplicado deliberadamente para comprender tales
generalizaciones de primer nivel. El proceso de medición-omisión es subconsciente y
automático, y la conexión causal se da en los datos perceptuales. La necesidad de un
método surge cuando intentamos establecer relaciones que involucran conceptos de
nivel superior.
Recuerde el estudio de Galileo sobre el movimiento pendular. En contraste con la
conexión entre la pesadez de un péndulo y su descenso, no percibimos directamente la
conexión causal entre la longitud del péndulo y su período. "Longitud" es un concepto
de primer nivel, pero "período" no lo es. La aplicación del concepto “período” en este
contexto presupone el conocimiento de que un péndulo realiza un movimiento
repetitivo que puede relacionarse cuantitativamente con otros movimientos por medio
de una unidad de tiempo. Aquí necesitamos integraciones conceptuales previas y un
método explícito.
En este caso, Galileo descubrió la relación causal cuando construyó y comparó dos
péndulos que diferían en un solo factor relevante —la longitud de sus brazos— y luego
midió la diferencia resultante en sus períodos. Al aislar y variar la longitud, creó una
situación en la que la diferencia de longitud podría identificarse como la única causa
posible de la diferencia de período. Este es el mismo método que había utilizado
anteriormente para eliminar otros posibles factores causales. Por ejemplo, observó que
dos péndulos tienen el mismo período cuando difieren solo en el peso de sus sacudidas
o en la amplitud de sus oscilaciones. En estos experimentos se introdujo una única
diferencia, pero con resultados negativos: la diferencia no hizo ninguna diferencia en el
período y, por lo tanto, el factor variado es causalmente irrelevante.
Siguiendo la terminología de John Stuart Mill, este método de identificación de
factores causales se denomina "método de diferencia". El investigador introduce un
nuevo factor (A) y, como resultado, ve el efecto (B), que estaba ausente antes de la
introducción del nuevo factor. El método se basa en el hecho de que el factor aislado es
la única diferencia relevante. Todos los demás factores se eliminan como causa porque
están presentes incluso cuando el efecto no lo está. Al utilizar este método, un científico
identifica la diferencia entre todas las similitudes: la diferencia A que se destaca como la
que marca la diferencia B. Suponiendo que no ha pasado por alto un factor o condición
relevante, puede concluir: A causó B. Y luego, sobre identificando conceptualmente la
conexión causal, llega a la generalización: los casos de A conducen a los casos de B.
La mayoría de los experimentos emplean el método de la diferencia (con resultados
positivos o negativos). Todos los experimentos de caída libre de Galileo utilizaron este
método: aisló y varió el peso y luego el material para demostrar que estas propiedades
no afectaban la velocidad de caída, y luego aisló y varió la altura para establecer su
relación al tiempo total de la caída. Usó el mismo enfoque en su investigación del
movimiento horizontal libre: introdujo diferencias en una sola variable, la velocidad
horizontal inicial, y luego midió las diferencias correspondientes en la distancia
recorrida durante un intervalo de tiempo constante.
Newton también utilizó este método a lo largo de su investigación experimental de
los colores. Comenzó introduciendo una diferencia en el color de un hilo y luego
observó a través de un prisma la diferencia resultante en la ubicación de la imagen del
hilo. Sus experimentos posteriores revelaron directamente la relación causal entre un
cambio aislado de color y el posterior cambio en el ángulo de refracción. De manera
similar, en su investigación experimental de la reflexión, Newton mantuvo constante el
color de la luz incidente mientras introducía un cambio en el color del cuerpo
reflectante y, como resultado, observó un cambio en la intensidad de la luz reflejada.
La mayoría de la gente no conoce el enunciado explícito del método de la diferencia,
como tampoco conocen explícitamente las leyes de la lógica o la ley de causalidad. Pero
así como las personas conocen implícitamente la causalidad y (la mayor parte del
tiempo) piensan y actúan sobre su base, también conocen el método de la diferencia
implícitamente, porque es un corolario de causa y efecto. Cuando un niño observa que
una cosa cambia en un solo aspecto (mientras que las condiciones circundantes
permanecen inalteradas) y luego ve un cambio en la acción de la cosa, concluye que el
primer cambio causó el segundo. Así es como un infante descubre que un interruptor de
lámpara hace que la luz se encienda y apague (en este caso, el infante repetirá la acción
varias veces, eliminando así la posibilidad de una mera coincidencia). Todos realizamos
“experimentos” tan simples y usamos ese razonamiento a lo largo de nuestras vidas. En
una etapa avanzada de conocimiento, puede requerir un enorme esfuerzo de un
científico ingenioso para crear el experimento crucial que revela una conexión causal.
Sin embargo, ya sea un niño o un científico quien usa el método de la diferencia, la
situación de interés es siempre aquella en la que observa una diferencia aislada en un
contexto de similitudes y luego ve su efecto.
El otro método fundamental que se utiliza para identificar las relaciones causales se
denomina "método de acuerdo". Aquí buscamos descubrir el factor similar en dos o más
casos que se destaca (en un contexto de diferencias) como lo que conduce a la similitud
en efecto.
Al utilizar el método de concordancia, observamos que dos o más casos de cierto
efecto (B) coinciden en un solo factor antecedente relevante (A). Entonces, el factor A
puede identificarse como la causa de B; todos los demás factores se eliminan porque el
efecto ocurre incluso cuando están ausentes (o el efecto permanece constante incluso
cuando son variados). Y luego, asumiendo que hemos formado correctamente los
conceptos relevantes, podemos llegar a una verdad universal: los casos de A conducen a
los casos de B.
Por ejemplo, recuerde que Galileo comparó dos péndulos que diferían en todos los
factores potencialmente relevantes excepto la longitud, pero el período siguió siendo el
mismo. Por el método del acuerdo, concluyó que la duración es el factor causal que
determina el período. O considere una investigación experimental que busca descubrir
la causa de la velocidad final de una bola que rueda por un plano inclinado. El peso, el
tamaño y el material de la pelota, así como la longitud y el ángulo del plano, se varían
mientras se mantiene constante un factor único: la altura inicial de la pelota. La
velocidad final de la pelota siempre es la misma y, por lo tanto, la altura a través de la
cual desciende la pelota es el factor causal que determina su rapidez.
El estudio de Galileo de la caída libre también ilustra el método de acuerdo.
Considerado por separado, cada uno de sus experimentos utilizó el método de la
diferencia; sin embargo, cuando la serie de experimentos se considera en conjunto,
vemos que varió muchos factores (por ejemplo, el peso, el tamaño, la densidad y la
velocidad horizontal del cuerpo) mientras mantiene un factor único constante: el
cuerpo pesado siempre estaba libre para caer sin impedimentos hacia la Tierra. El
resultado observado fue siempre el mismo, lo que llevó a la generalización de que todos
los cuerpos libres caen a la Tierra con la misma aceleración constante.
Newton utilizó el mismo procedimiento para respaldar la amplia generalización que
integraba sus observaciones en óptica. Muchos factores difirieron en sus diversas
observaciones relacionadas con la interacción de la luz blanca con prismas, lentes, gotas
de lluvia y superficies reflectantes. De un caso a otro, la deflexión angular total del haz
de luz, su intensidad y la distancia a través de la cual viajó cambiaron; además, a veces la
luz se refracta a través del vidrio o el agua, mientras que otras veces se refleja y viaja
solo a través del aire. Sin embargo, una similitud une todas estas instancias muy
diferentes: un factor inicial permaneció constante — la luz era blanca — y un aspecto
del resultado permaneció constante — la luz blanca se descompuso en colores. Por el
método del acuerdo,
Los métodos de diferencia y acuerdo a menudo van de la mano. Normalmente, se
observa una diferencia que marca la diferencia, aislando así algún factor X como causal;
y luego se observa que el factor X solo está presente en dos o más de los casos
observados del efecto. Por supuesto, puede suceder en el orden inverso, cuando uno
primero identifica una similitud causal en un contexto de diferencias y luego observa
que eliminar la causa elimina el efecto. En cualquier caso, los dos métodos se utilizan
para complementarse y confirmarse entre sí. Sin embargo, esta conjunción de métodos
no siempre es necesaria. Cualquiera de los métodos por sí solo, realizado
correctamente, es concluyente.
En el trabajo experimental de Galileo y Newton, una característica sorprendente es
la velocidad con la que llegaron a generalizaciones. Galileo no llevó a cabo un laborioso
estudio de cien péndulos o proyectiles diferentes antes de llegar a sus conclusiones;
Newton no consideró necesario experimentar con docenas de prismas, lentes o fuentes
de luz diferentes. Es obvio que la validez de la inducción no tiene nada que ver con el
número de instancias que uno observa. Ahora podemos ver de qué depende la
inducción: la comprensión de similitudes y diferencias en un contexto causal. Cuando se
utiliza el método de acuerdo, esto puede ser posible sobre la base de solo dos casos;
cuando se utiliza el método de la diferencia, es posible que solo se necesite una instancia
del efecto. Siempre, lo que cuenta es la comprensión de una similitud o diferencia única
y eficaz. Aquí el proceso de generalización es paralelo al proceso de formación de
conceptos; no es necesario ver cien mesas para formar el concepto de “mesa”; uno
puede captar el patrón necesario de similitudes y diferencias simplemente viendo dos
mesas en contraste con una silla.
En la formación de conceptos, la comprensión de las diferencias y similitudes entre
sí es el punto de partida y la base de todo concepto; es esencial en todos los niveles de la
jerarquía. EnCapítulo 1, vimos que la generalización es una forma de conceptualización:
es medición-omisión aplicada a conexiones causales. Por tanto, el proceso de
generalización también se basa en la comprensión de las diferencias y semejanzas; por
encima del primer nivel, procede por los métodos de la diferencia y el acuerdo. El
mismo tipo de relación que hace posible la formación de conceptos es lo que hace
posible la comprensión de las relaciones causales y, por tanto, de las generalizaciones.
La validez de los métodos de diferencia y acuerdo debe considerarse indiscutible. La
aplicación correcta de los métodos puede resultar difícil en un caso complejo, pero los
métodos mismos siguen como implicaciones evidentes de la ley de causalidad. Sin
embargo, su validez ha sido ampliamente atacada y rechazada por los filósofos de la
ciencia contemporáneos. Las críticas más comunes derivan de la falta de comprensión
de los dos componentes esenciales en la prueba inductiva de cualquier generalización
de alto nivel: el papel de la evidencia perceptual y el papel del marco conceptual.
Primero, es crucial comprender el punto de Newton de que se requiere alguna
evidencia —basada en la observación— antes de que uno tenga derecho a sugerir un
factor como posible causa. En ausencia de tal evidencia, la afirmación de una posibilidad
debe descartarse sin contemplación. De lo contrario, el escepticismo es inevitable.
Hoy en día, muchos intelectuales fabrican posibilidades arbitrarias del mismo modo
que un falsificador fabrica dinero. En realidad, son peores que los falsificadores, que al
menos reconocen la existencia del dinero real y tratan de imitarlo; los intelectuales que
trafican con lo arbitrario niegan la existencia del conocimiento real. Por ejemplo, los
autores de un texto estándar sobre método científico tienen esto que decir sobre la ley
de Galileo de aceleración gravitacional constante: “[L] a evidencia de la hipótesis de la
aceleración siempre es sólo probable. La hipótesis sólo es probable sobre la base de la
evidencia porque siempre es lógicamente posible encontrar alguna otra hipótesis de la
que todas las proposiciones verificadas sean consecuencias ". 21Esto se ofrece como una
afirmación sin rodeos. Los autores ni siquiera sugieren otra "posibilidad lógica", mucho
menos dan evidencia en apoyo de una; más bien, implican que el lector es libre de soñar
con cualquier “posibilidad” que desee sin la responsabilidad de citar evidencia. No es de
extrañar que estos autores concluyan finalmente que los métodos de diferencia y
acuerdo "no son, por tanto, capaces de demostrar ninguna ley causal". 22
El estado epistemológico de un científico no es lo que esos escépticos quieren
hacernos creer. Cuando un científico se enfrenta a algún aspecto de la naturaleza, no lo
hace como un recién nacido indefenso; entra en su investigación armado con un vasto
contexto de conocimiento que precisamente delimita las posibilidades. Un factor califica
como relevante para su investigación solo si hay alguna razón para sospechar que juega
un papel causal, una razón basada en las generalizaciones a las que ya ha llegado, que en
última instancia son reducibles a la evidencia proporcionada directamente por los
sentidos.
Esto nos lleva a la segunda crítica que a menudo se presenta contra los métodos de
diferencia y acuerdo. Algunos filósofos afirman que los métodos no son válidos porque
dependen de un contexto cognitivo previo. Por ejemplo, al discutir estos métodos, los
autores citados anteriormente escriben:
Este canon [requiere] la formulación antecedente de una hipótesis sobre los posibles
factores relevantes. El canon no puede decirnos qué factores deben seleccionarse para
su estudio entre las innumerables circunstancias presentes. Y el canon requiere que las
circunstancias se hayan analizado y separado adecuadamente. Debemos concluir que no
es un método de descubrimiento.23
Según este punto de vista, los métodos se calificarían como métodos de
descubrimiento solo si pudieran aplicarse de memoria. La necesidad de una "hipótesis
antecedente" y un "análisis adecuado" es lo que los invalida; en otras palabras, la
necesidad de conocimiento y pensamiento es lo que invalida cualquier proceso de
descubrimiento.
Estas críticas forman un doble golpe contra la inferencia inductiva. El escéptico
conduce con la afirmación de que hay innumerables posibilidades que no se pueden
eliminar y, por lo tanto, no podemos conocer ninguna verdad general (excepto esta
generalización en sí, que se trata como un absoluto incuestionable). Cuando un hombre
racional responde que las posibilidades están delimitadas por su marco de
conocimiento conceptual previo, el escéptico afirma que tal uso del marco conceptual de
uno está fuera del ámbito de la lógica. Su supuesto subyacente es que el marco
conceptual de uno es necesariamente subjetivo; es decir, no se derivó de evidencia
sensorial y sus elementos no pueden reducirse a tal evidencia. Así, en última instancia,
el ataque del escéptico a la validez de la inducción se basa en su visión subjetivista de
que los conceptos mismos están separados de la realidad.
Un hombre racional debe contrarrestar el primer golpe del escéptico con el rechazo
de principios de lo arbitrario; debe contrarrestar el segundo con una teoría objetiva de
conceptos y generalizaciones. Todo pensamiento comienza con la percepción; sin
nuestro único contacto directo con la existencia, no hay nada en qué pensar. Todo
nuestro marco interconectado de conceptos no puede ser más que integraciones de
percepciones. Este es el todo cognitivo que utiliza el científico para delimitar los
factores relevantes en su investigación y orientar su análisis; es precisamente lo que le
permite utilizar los métodos de la diferencia y el acuerdo, y lo que hace que su
razonamiento sea válido.

La inducción como inherente a la


conceptualización
Los conceptos son los que hacen posible y necesaria la inducción.
Considere los conceptos de “horizontal” y “vertical”, que jugaron un papel tan crucial
en el desarrollo de la cinemática de Galileo. Aunque relativamente simples, estos
conceptos son integraciones de conceptos anteriores. Comenzamos con conceptos de
direcciones específicas que podemos indicar señalando. Por lo tanto, comenzamos con
"arriba" y "abajo" y solo llegamos a la abstracción "vertical" en una etapa mucho más
tardía; De manera similar, comenzamos con conceptos de direcciones horizontales
específicas (por ejemplo, hacia adelante o hacia atrás, hacia el amanecer o el atardecer)
mucho antes de abstraernos para formar el concepto "horizontal". Es nuestra búsqueda
por comprender las acciones de los cuerpos lo que da lugar a la necesidad de estas
abstracciones más avanzadas. Después de observar que los cuerpos pesados caen y los
cuerpos ligeros se elevan y que ese movimiento espontáneo no ocurre en otras
direcciones,
Claramente, los descubrimientos de Galileo hubieran sido imposibles sin estas
abstracciones más amplias; su ley de aceleración constante es una generalización sobre
el movimiento vertical libre y su ley de velocidad constante es una generalización sobre
el movimiento horizontal libre. Además, la formación de estos conceptos fue en sí
misma un enorme paso hacia el descubrimiento de las leyes. Los conceptos se formaron
sobre la base de captar una diferencia esencial en la forma en que los cuerpos se
mueven verticalmente frente a la forma en que se mueven horizontalmente. Armado
con estos y otros conceptos clave (por ejemplo, “fricción”, “velocidad”, “aceleración”,
“parábola”), Galileo pudo entonces hacer preguntas específicas y formular las
respuestas cuantitativas que encontró por medio de sus experimentos.
Los conceptos clave jugaron un papel similar en la óptica de Newton. La pregunta
que llevó a su primer gran descubrimiento fue: ¿Se refracta la luz azul más que la luz
roja? Obviamente, la pregunta es imposible sin el concepto de "refracción". Este
concepto es una integración de todos los casos en los que la luz se dobla en una interfaz
entre dos materiales. Tal acción puede depender únicamente de la naturaleza de la luz y
los materiales, que también se identifican en términos conceptuales (por ejemplo, toda
la luz de un color particular, todo el vidrio de un tipo determinado). Así, cuando Newton
varió solo el color de la luz y vio el cambio subsiguiente en el ángulo de refracción,
simplemente identificó su observación conceptualmente para llegar a la generalización
de que la luz azul se refracta más que la luz roja.
O considere su investigación de por qué los cuerpos parecen coloreados. Newton
sabía que cuando la luz del sol incide sobre un cuerpo, la luz se refleja, se absorbe o se
transmite. Sin conceptualizar las diversas acciones posibles de la luz, no podría haber
entendido cómo los colores se separan por reflexión. Con estos conceptos, sus
experimentos llevaron inexorablemente a la conclusión de que los colores surgen
cuando parte del espectro se refleja con más fuerza que el resto, que se absorbe o se
transmite.
Cuando tenemos un concepto adecuadamente formado, uno que une los concretos
mediante elementos esenciales claramente definidos, a menudo estamos en condiciones
de saber de inmediato cuándo un atributo descubierto por el estudio de algunos casos
es aplicable a todos los casos. Usando la analogía de Rand entre un concepto y una
carpeta de archivos, podemos decir que tal generalización sobre los referentes de un
concepto está implícita en el acto mismo de colocar cada nuevo conocimiento en la
carpeta de archivos. Al hacerlo, uno está afirmando: "Esto ahora es parte de mi
conocimiento de X, es decir, esto es cierto para todos los X, incluida la gran mayoría de
ellos que nunca encontraré".
Una persona que se abstiene de la inducción encontrará que sus palabras no
designan conceptos en absoluto; quedarían reducidos a sonidos. En el caso de conceptos
de primer nivel basados en similitudes dadas perceptualmente, podría aplicar un
nombre a algún referente que encontrara, pero sin inducción no podría aplicar ninguno
de sus conocimientos previos sobre dichos referentes. De modo que el nombre no
cumpliría ninguna función cognitiva; permanecería en el estado de un ignorante frente a
cada nuevo objeto desde cero.
Considere a un bebé que comienza con la definición implícita del hombre como "una
cosa que se mueve y hace sonidos". Mediante la observación adicional de hombres
específicos, finalmente descubre que cuando los hombres emiten sonidos, se comunican
mensajes entre sí, y que cuando se mueven, lo hacen a propósito, para satisfacer varios
deseos. Ahora este niño pasa al siguiente bloque y ve más hombres que se mueven y
hacen sonidos. Sin embargo, cuando se le pregunta: "¿Por qué crees que se mueven y
hacen sonidos?" él responde: “No tengo ni idea; Nunca antes había visto a estos
hombres en particular ". Este sería un ejemplo de cómo mantener un concepto menos
inducción.
Imagínese el otro comportamiento extraño de un niño así. Sus padres escuchaban
continuamente respuestas como: "No sabía que este vaso en particular se caería cuando
se me cayera"; “No sabía que este fuego en particular me quemaría”; “No sabía que esta
agua en particular iba a apagar mi sed”; y así.
No concluiríamos que este niño fue cauteloso a la hora de saltar a las
generalizaciones; más bien, concluiríamos que padecía alguna enfermedad mental
incapacitante. Sería el eslabón perdido entre los animales y los hombres, capaz de
aplicar una palabra, pero inútilmente, porque no podría aplicar los conocimientos
adquiridos previamente sobre las cosas nombradas por la palabra. Por lo tanto, sus
palabras no serían más que símbolos concretos asociados con algunos detalles
observados y, por lo tanto, carecería por completo de la capacidad humana para el
pensamiento.
Un concepto es un mandamiento para pasar de algunos a todos; es una "luz verde"
para la inducción. Las reglas de la carretera exigen que avancemos con luz verde; las
reglas de la cognición humana exigen que generalicemos entre los referentes de
nuestros conceptos. Cuando lo hacemos, avanzamos por medio de un mecanismo único
(la facultad conceptual) que no poseen otros animales, un mecanismo integrador
diseñado para llevarnos de instancias particulares a generalizaciones universales.
Cuando Newton descubrió que el sol, la luna, la Tierra, las manzanas y los cometas
ejercen un tipo específico de fuerza de atracción ("gravedad"), se vio obligado a atribuir
esta fuerza a todos los cuerpos. Al hacerlo, integró la astronomía y la mecánica y marcó
el comienzo de la era científica moderna; pudo explicar las órbitas planetarias, la caída
de los cuerpos terrestres, las mareas del océano, el movimiento de los cometas, la forma
de la Tierra y el movimiento de su eje de rotación; en resumen, pudo presentar un
universo inteligible e integrado por primera vez. Sus generalizaciones siguieron
precisamente porque fue capaz de relacionar el nuevo concepto de "gravedad" con todo
el marco del conocimiento previo (verCapítulo 4).
En óptica, hemos visto cómo Newton descubrió que la luz blanca ordinaria es una
mezcla de colores que forman un "espectro", es decir, una matriz ordenada compuesta
de rojo, naranja, amarillo, verde, azul y violeta. Al igual que la "gravedad" en la
mecánica, el concepto de "espectro" es una integración clave que hizo posible muchos
descubrimientos adicionales en óptica. Por ejemplo, cuando los científicos descubrieron
que existía calor más allá del extremo rojo del espectro y el papel fotográfico estaba
ennegrecido más allá del extremo violeta, se vieron obligados a ampliar el concepto
para incluir la luz infrarroja y ultravioleta no visible. Esto, a su vez, fue un paso clave
hacia el descubrimiento de que la luz es una onda electromagnética, un descubrimiento
que logró la integración a gran escala de la óptica con el electromagnetismo. Tal es el
poder de los conceptos y el razonamiento inductivo que necesitan.
Por supuesto, la verdad de nuestras generalizaciones depende de la validez de
nuestros conceptos. Un concepto inválido es una luz roja a la inducción; detiene el
proceso de descubrimiento o conduce activamente a falsas generalizaciones.
Recuerde los conceptos de movimiento "natural" y "violento" en la física griega.
Estos conceptos hicieron una distinción fundamental entre movimientos que de hecho
son similares; por ejemplo, el humo que se eleva en el aire se considera "natural", pero
la madera que se eleva en el agua se considera "violenta", y una bola que se balancea en
el extremo de una cuerda se mueve "violentamente" pero la luna que orbita la Tierra se
mueve "naturalmente . " Por otro lado, agrupan movimientos que son muy diferentes;
por ejemplo, el humo que asciende y las rocas que caen se mueven "naturalmente", y se
dice que una bola que gira en círculos y otra bola con velocidad horizontal constante se
mueven "violentamente".
Estos conceptos no pueden reducirse a semejanzas y diferencias observadas. Son
yuxtaposiciones más que integraciones válidas, por lo que es imposible llegar a
verdaderas generalizaciones entre sus distintos referentes. Cuando los griegos
intentaron generalizar, se vieron llevados a una serie de falsedades. Por ejemplo: “El
violento movimiento horizontal de un proyectil es causado por el aire que lo empuja”;
“Los cuerpos celestes están hechos de un material sobrenatural llamado 'éter' que se
mueve naturalmente en círculos alrededor de la Tierra”; “En ausencia de fuerzas
externas, todos los cuerpos pesados se mueven hacia su lugar natural en el centro de la
Tierra”; y así. La ciencia de la física se detuvo en este semáforo en rojo hasta que se
rechazaron los conceptos de movimiento natural y violento.
El concepto "ímpetu" proporciona un excelente ejemplo de un caso mixto más
complejo. Como vimos, este concepto se basó en una premisa falsa pero, sin embargo,
fue un primer intento de una integración válida e importante. Buridan tenía razón al
pensar que algo acerca de un cuerpo que se mueve libremente permanece igual en
ausencia de fuerzas de fricción y se disipa como resultado de tales fuerzas. Sin embargo,
debido a que pensó que una fuerza es necesaria para causar movimiento, identificó
erróneamente la naturaleza de la propiedad conservada. Propuso un atributo intrínseco
del cuerpo que suministra la fuerza interna que lo impulsa y llamó a ese atributo
"ímpetu". Dado que no existe tal atributo, todas las generalizaciones que se refieren a él
son falsas. Sin embargo, los físicos encontraron que los hechos relacionados con el
movimiento no podrían integrarse sin tal idea, y por lo tanto, el “ímpetu” finalmente
tuvo que reformarse y reemplazarse en lugar de simplemente rechazarse de plano.
Después de que Galileo identificó y eliminó la premisa falsa subyacente, fue Newton
quien finalmente captó el concepto de "impulso" que había estado fuera del alcance de
Buridan.
Si bien un marco conceptual válido no garantiza la veracidad de las generalizaciones
posteriores, los errores de generalización cometidos por los científicos suelen atribuirse
a alguna insuficiencia de su marco conceptual. Cuando los científicos generalizan en
exceso (es decir, extienden su conclusión más allá de su rango legítimo de validez) es a
menudo porque carecen de los conceptos necesarios para identificar distinciones
importantes. Vimos a Galileo luchar con este problema en varios casos. Su afirmación de
que un péndulo circular es isócrono para todas las amplitudes fue una suposición
desafortunada sobre un tema que no podría resolver sin los conceptos de "infinitesimal"
y "límite"; cuando extendió erróneamente su análisis del movimiento sin fricción a las
bolas rodantes, fue porque carecía de los conceptos matemáticos y dinámicos
necesarios para captar los efectos de la rotación; y cuando asumió que su ley de
aceleración vertical constante se aplicaba incluso a grandes distancias de la superficie
de la Tierra fue porque carecía del concepto de "gravedad". Sin embargo, también vimos
que tales pasos en falso se corrigen en el curso normal de la ciencia por medio de un
método racional. Una vez que se formaron los conceptos necesarios, los científicos
pudieron calificar de inmediato las conclusiones de Galileo de una manera que él no
pudo.
Un último punto nos llevará al tema del próximo capítulo. Hemos visto que un
concepto puede funcionar como luz verde a la inducción sólo si se define con precisión
y, en la ciencia física, la precisión requerida es matemática. Recuerde que Galileo tuvo
que definir los conceptos de "velocidad" y "aceleración" en términos matemáticos antes
de poder llegar a su teoría del movimiento. Se puede ver un desarrollo similar en óptica.
Antes de Newton, el tema de los colores se había tratado de una manera casi totalmente
cualitativa y, como resultado, hubo muy pocos avances. Un aspecto esencial del logro de
Newton fue transformar el tema en una ciencia cuantitativa. Comenzó midiendo los
diferentes ángulos de refracción de cada color, y terminó triunfalmente asociando cada
color con una longitud de onda calculada con precisión en su análisis del famoso
experimento de los “anillos”. Como veremos con más detalle, la integración cognitiva
necesaria para validar una generalización de alto nivel en física sólo es posible porque
los descubrimientos y las leyes se formulan en términos cuantitativos. Por tanto, el
progreso requiere que los conceptos clave se definan en términos susceptibles de
medición numérica.
La inducción en la física depende esencialmente de dos métodos especializados: la
experimentación es el medio para las matemáticas y las matemáticas son el lenguaje de
la ciencia física.
3.

El Universo Matemático

P ara descubrir la naturaleza del mundo físico, el hombre debe poder relacionar
cualquier hecho con lo que puede percibir directamente. Históricamente, el método que
lo hace posible se aplicó por primera vez a la astronomía.
Comenzamos en la escala de nuestra percepción. Así, el hombre precientífico vio a la
Tierra como la enorme pieza central del universo, rodeada de objetos mucho más
pequeños que se mueven de este a oeste a través del cielo. Casi todos estos objetos
aparecen como meros puntos de luz que decoran el cielo nocturno y sirven para
orientarnos en la Tierra. La atención a sus movimientos llevó a los hombres a dividir
estos puntos de luz en dos categorías: los muchos cientos de “estrellas fijas” visibles, con
posiciones relativas que no cambian; y cinco "estrellas errantes" o "planetas", que se
mueven de formas complejas en relación con las estrellas fijas. Además de las estrellas,
se destacaron dos objetos: el sol y la luna, ambos aproximadamente del mismo tamaño
aparente.
En el siglo V a. C., el filósofo Anaxágoras sugirió que el sol podría tener
aproximadamente el tamaño de la península griega. La mayoría de la gente de la época
pensó que no era plausible que el sol pudiera ser tan grande. Pero dado que las
distancias a los cuerpos celestes eran desconocidas y aparentemente incognoscibles,
nadie vio una manera de resolver el problema.
Sin embargo, dos siglos después, un astrónomo matemático encontró la forma.
Aristarchus comenzó entendiendo que la trigonometría, la rama de las matemáticas que
estudia los triángulos, proporcionó un método para comparar la distancia Tierra-Sol
con la distancia Tierra-Luna. Cuando la luna está exactamente medio llena, la línea del
sol a la luna debe formar un ángulo de noventa grados con la línea de la luna a la Tierra.
Entonces, durante una media luna, Aristarco midió el ángulo entre la línea de visión a la
luna y la línea de visión al sol. Usando las relaciones conocidas entre las longitudes de
los lados y los ángulos de un triángulo rectángulo, su resultado de ochenta y siete
grados implicaba que la distancia Tierra-Sol es aproximadamente veinte veces la
distancia Tierra-Luna. Dado que ambos objetos tienen el mismo tamaño aparente,
concluyó que el diámetro del sol debe ser unas veinte veces mayor que el diámetro de la
luna. (Este método es muy sensible a pequeños errores en el ángulo medido y, por lo
tanto, Aristarco subestimó en gran medida la distancia y el tamaño del sol).
Este resultado no dice nada sobre cómo el sol o la luna se comparan en tamaño con
la Tierra. Para obtener esa información, Aristarco aplicó el razonamiento matemático a
la observación de un eclipse lunar. Primero, tomó medidas durante un eclipse de este
tipo que le permitió comparar el tamaño de la luna con el tamaño de la sombra circular
de la Tierra sobre la luna. En segundo lugar, a partir de sus valores calculados para las
distancias relativas y los tamaños del sol y la luna, utilizó la trigonometría para
relacionar el tamaño de la sombra de la Tierra con el tamaño de la Tierra misma.
Juntando todo esto, concluyó que el diámetro de la luna es aproximadamente un tercio
del de la Tierra y, por lo tanto, el diámetro del sol es aproximadamente seis o siete veces
mayor que el de la Tierra.
La poderosa combinación de observación, medición y matemáticas proporcionó aún
más resultados. Se habían medido los tamaños aparentes del sol y la luna; ambos
cuerpos subtienden un ángulo de aproximadamente medio grado en el cielo. Entonces,
una vez que se calcularon sus tamaños reales (en relación con la Tierra), se podrían
determinar sus distancias a la Tierra. Se encontró que la distancia a la luna era de unos
treinta diámetros terrestres, lo que implica que la distancia al sol es de unos seiscientos
diámetros terrestres.
Quedaba el problema de relacionar estas medidas con distancias que podemos
percibir, ya que nadie puede ver un diámetro de la Tierra. La solución fue
proporcionada por Eratóstenes, el principal astrónomo griego de la generación
posterior a Aristarco. Una vez más, la trigonometría jugó un papel clave a la hora de dar
la respuesta. Eratóstenes sabía que al mediodía del 21 de junio el sol estaba
directamente sobre sus cabezas en la ciudad egipcia de Syene. Por lo tanto, un poste
vertical colocado en el suelo no proyecta sombra en este momento. También sabía que
la ciudad de Alejandría estaba a 500 millas directamente al norte de Syene (usando
unidades inglesas modernas por conveniencia). Colocó un poste vertical en el suelo en
Alejandría, y al mediodía del 21 de junio midió la longitud de la sombra y la comparó
con la longitud del poste. De su conocimiento de los triángulos rectángulos, dedujo que
los rayos del sol formaban un 7. Ángulo de 2 grados con la vertical. Entonces pudo
calcular la circunferencia de la Tierra por medio de una proporción simple; 500 millas
divididas por la circunferencia es igual a 7.2 grados divididos por 360 grados. Llegó al
resultado correcto de 25,000 millas para la circunferencia de la Tierra, lo que implica
que el diámetro de la Tierra es de aproximadamente 8,000 millas. Y una milla, por
supuesto, tiene una relación conocida con una unidad perceptible, el pie.
Los griegos aplicaron las matemáticas más extensamente a la astronomía que a
cualquier otra ciencia. Como resultado, la astronomía se convirtió en la ciencia física
más avanzada de la antigüedad. Por el contrario, se avanzó relativamente poco en física.
La influencia del platonismo convenció a muchos pensadores griegos de que los
cambios físicos y los movimientos de los materiales terrestres no son completamente
inteligibles y, por lo tanto, no son susceptibles de tratamiento matemático. Pero se
pensaba que los cuerpos celestes poseían un mayor grado de perfección y, por lo tanto,
los griegos tenían más confianza en la aplicación de las matemáticas a este ámbito.
Lamentablemente, no pudieron mantener esa confianza. También aquí el platonismo
pasó factura. Al principio, los griegos habían basado su astronomía matemática en ideas
físicas. La Tierra, por su naturaleza, se consideraba inmóvil en el centro del universo; los
cuerpos celestes eran transportados por esferas que giraban uniformemente o se
movían en trayectorias circulares uniformes simplemente debido a la naturaleza física
de su material (el "éter"). Sin embargo, en poco tiempo, los movimientos observados del
sol, la luna y los planetas obligaron a apartarse de estos principios. En lugar de buscar
nuevos principios, los griegos renunciaron al objetivo de comprender los cielos y se
conformaron con "describir las apariencias". El resultado fue la teoría de Ptolomeo, que
empleaba recursos matemáticos (distancias excéntricas, epiciclos, y puntos de
ecuación) que estaban inherentemente desprovistos de cualquier referencia a causas
físicas. Así, las matemáticas se soltaron de sus amarres en la física y, en consecuencia, la
astronomía flotó en aguas estancadas durante los siguientes catorce siglos.
Las matemáticas no son una cadena aislada "pura" de abstracciones y deducciones, y
si lo fuera, no sería más que un juego inútil. Más bien, es la ciencia de relacionar
cantidades entre sí, cantidades que en última instancia están relacionadas con objetos
perceptibles. Como veremos en breve, es mediante la relación de cantidades que los
científicos captan y expresan las relaciones causales.

El nacimiento de la física celestial


Aristarco fue el primero en proponer la idea que eventualmente conduciría a la
integración de la física y la astronomía. Nuestra experiencia típica es que un objeto
relativamente pequeño se mueve más fácilmente que un objeto enorme. Así, cuando
Aristarco descubrió que el sol es mucho más grande que la Tierra, sugirió que la Tierra
se mueve alrededor del sol y no al revés.
La idea heliocéntrica quedó como una mera sugerencia, sin desarrollar por los
astrónomos griegos. De hecho, existen importantes obstáculos para su pleno desarrollo.
Primero, la idea requirió en última instancia para su fundación una física
completamente nueva. En segundo lugar, requirió los métodos experimentales y
matemáticos necesarios para descubrir la nueva física. Y, de manera más general,
requería la absoluta convicción de que el universo, desde la Tierra hasta los confines
más lejanos del cosmos, puede ser captado por medio de tales métodos racionales. Esta
última convicción tiene su origen en la antigua Grecia, pero se desvaneció y luego
desapareció por completo cuando Occidente descendió al misticismo cristiano.
Con el redescubrimiento de Aristóteles a principios de la Edad Media, comenzó a
resurgir la confianza en el poder de la razón. Una consecuencia fue una creciente
insatisfacción con la astronomía ptolemaica. Averroes, el filósofo aristotélico del siglo
XII, identificó la esencia del problema cuando escribió: “Ptolomeo no pudo ver la
astronomía en sus verdaderos fundamentos…. Debemos, por tanto, dedicarnos a una
nueva investigación sobre esa auténtica astronomía cuyos fundamentos son principios
de la física…. En realidad, en nuestro tiempo la astronomía es inexistente; lo que
tenemos es algo que se ajusta al cálculo pero no concuerda con lo que es ”(cursiva
agregada).1
Nicolaus Copernicus fue el primero en responder al llamado de Averroes de una
“astronomía genuina”, es decir, una astronomía que intentaba explicar las
observaciones identificando los movimientos verdaderos. Resucitó la idea heliocéntrica
de Aristarco y la desarrolló en una teoría matemática completa. Con el sol fijo y todos
los planetas, incluida la Tierra, girando a su alrededor, pudo explicar aspectos del
movimiento planetario que Ptolomeo solo pudo describir utilizando dispositivos
matemáticos artificiales. Así, la teoría copernicana, publicada en 1543, fue el primer
paso clave hacia la restauración de las matemáticas a su papel adecuado como
herramienta para captar la realidad, en lugar de simplemente predecir "apariencias".
La perspectiva heliocéntrica permitió a Copérnico reconocer que las observaciones
contenían más información de la que había pensado Ptolomeo. En la teoría geocéntrica,
solo se podía calcular la posición angular de los planetas; no se pudieron determinar los
tamaños relativos de las órbitas. Sin embargo, si todos los planetas orbitan alrededor
del sol y nuestro punto de vista varía a medida que la Tierra se mueve, entonces las
observaciones cuidadosamente seleccionadas combinadas con el poder de la geometría
permiten calcular los tamaños relativos de las órbitas. Copérnico llevó a cabo estos
cálculos con una precisión impresionante.
Sus resultados proporcionaron evidencia para la teoría centrada en el sol. Conocer el
tamaño de las órbitas le permitió calcular la velocidad relativa de cada planeta.
Descubrió que cuanto más lejos está un planeta del sol, más lento se mueve. Esta
correlación entre la distancia del sol y la velocidad sugirió fuertemente una relación
causal. Copérnico escribió: “[E] l sol, como si descansara en un trono real, gobierna la
familia de estrellas que giran alrededor…. [E] n este orden encontramos ... que hay un
vínculo seguro de armonía para el movimiento y la magnitud de los círculos orbitales
que no se puede encontrar de ninguna otra manera ".2 La relación matemática exacta,
que no descubrió, jugaría más tarde un papel clave en el desarrollo de la física celeste.
El conocimiento de las distancias y velocidades relativas de los planetas, incluida la
Tierra, permitió a Copérnico explicar fenómenos que son completamente misteriosos en
la vista geocéntrica. Por ejemplo, se sabía desde hace milenios que la dirección del
movimiento de un planeta a través del cielo nocturno cambia periódicamente. Marte,
por ejemplo, generalmente se desplaza lentamente hacia el este en relación con el fondo
de las estrellas. Sin embargo, cada 780 días cambia de dirección y se desplaza hacia el
oeste durante unos dos meses antes de volver a dar marcha atrás y continuar su curso
hacia el este. Este movimiento aparentemente errático es una de las razones del nombre
"planeta", que deriva del verbo griego que significa "vagar". Ptolomeo modeló los
movimientos hacia atrás o "retrógrados" por medio de un segundo círculo más pequeño
llamado epiciclo. Cada planeta se mueve alrededor de su epiciclo,Figura 4). Los epiciclos
tuvieron éxito como dispositivo matemático para describir y predecir las posiciones
angulares observadas, pero nunca se ofreció ninguna razón física para explicar por qué
los planetas se moverían de esa manera.
Sin embargo, estos movimientos retrógrados se comprenden fácilmente desde la
perspectiva heliocéntrica. Todos los planetas giran en la misma dirección alrededor del
sol. Entonces, cuando la Tierra está entre el sol y Marte (por ejemplo), la Tierra que se
mueve más rápido pasa por el Marte más lento, lo que hace que su movimiento parezca
retrógrado, o hacia atrás, desde nuestro punto de vista (verFigura 5). La teoría
copernicana explicó los movimientos retrógrados de Júpiter y Saturno de la misma
manera, y dejó perfectamente claro por qué tales movimientos aparentes dependen de
la posición del planeta en relación con la Tierra y el sol. Copérnico demostró que las
características más desconcertantes de las "estrellas errantes" podrían entenderse
como consecuencias inevitables de observarlas desde la Tierra en órbita. Como él
mismo dijo, "Todas estas cosas proceden de la misma causa, que reside en el
movimiento de la Tierra".3

Figura 4. La teoría geocéntrica debe utilizar el dispositivo no causal de los epiciclos para
describir el movimiento retrógrado.

Ahora considere los planetas interiores, Mercurio y Venus. Según la visión


geocéntrica, su comportamiento es muy peculiar. A diferencia de los otros planetas,
siguen al sol en su órbita alrededor de la Tierra, como si estuvieran unidos al sol por
una correa. Ptolomeo nos pide que aceptemos, sin explicación, que hay dos tipos
diferentes de planetas: los que siguen al sol y los que no. Por el contrario, la teoría
heliocéntrica no presenta tal misterio. Dado que Mercurio y Venus orbitan más cerca del
sol que la Tierra, es obvio por qué estos planetas siempre se observan en las
proximidades del sol. Entonces, a diferencia de Ptolomeo, Copérnico podría explicar las
observaciones por medio de una teoría en la que todos los planetas se mueven
esencialmente de la misma manera.

Figura 5. La explicación heliocéntrica del movimiento retrógrado de Marte: cuando el


sol y Marte están en oposición, la Tierra pasa al Marte más lento.

La teoría heliocéntrica tenía una implicación crucial con respecto a la distancia entre
la Tierra y las estrellas. Las posiciones angulares de las "estrellas fijas" no cambian
notablemente a medida que la Tierra se mueve alrededor del sol. Esto fue sorprendente;
a medida que cambia nuestra ubicación, la dirección de nosotros a la estrella observada
también debería cambiar. La única explicación posible, según la teoría heliocéntrica, es
que la distancia sobre la que se mueve la Tierra (es decir, el diámetro de la órbita de la
Tierra) es insignificante en comparación con la distancia a las estrellas. Dada la
precisión de las posiciones angulares medidas y la estimación de Aristarco de la
distancia Tierra-Sol, esto implicaba que las estrellas debían estar al menos a diez mil
millones de millas de distancia. Esto es dos órdenes de magnitud mayor de lo que había
pensado Ptolomeo; por tanto, las matemáticas de la teoría heliocéntrica requerían un
universo mucho más grande.
Si bien la nueva escala del universo fue difícil de aceptar para algunos, el principal
obstáculo para aceptar la teoría heliocéntrica fue el movimiento de la Tierra misma.
Sobre la base de la teoría griega del movimiento, se pensaba que un movimiento tan
rápido de la Tierra conduciría a efectos obvios y catastróficos (por ejemplo, vientos
increíbles, gente volando de la Tierra al espacio, etc.). En el siglo XVI, la idea de nuestro
mundo girando sobre su eje y orbitando alrededor del sol aún evocaba la reacción
expresada por Ptolomeo: "Pero, de hecho, este tipo de sugerencia sólo tiene que ser
pensado para que se considere completamente ridículo". 4
Para obtener una audiencia para su teoría, Copérnico tuvo que ofrecer alguna
respuesta a esta acusación. No tuvo que dar la respuesta completa (esa ambiciosa tarea
finalmente fue lograda por Newton), pero tuvo que indicar que hay una manera de
resolver la aparente contradicción entre el movimiento de la Tierra y nuestra falta de
conciencia directa de él. Lo hizo citando la relatividad del movimiento. “Todo cambio
aparente en el lugar”, escribió Copérnico, “se produce por el movimiento de la cosa vista
o del espectador, o por los movimientos necesariamente desiguales de ambos…. Si algún
movimiento pertenece a la Tierra, parecerá, en las partes del universo que están afuera,
como si las cosas de afuera estuvieran pasando ”.5Más tarde, agregó: “De hecho, cuando
un barco flota en un mar tranquilo, todo lo que hay afuera les parece a los viajeros
moverse en un movimiento que es la imagen de ellos mismos, y piensan por el contrario
que ellos mismos y todas las cosas con ellos están en reposo. Así que puede suceder
fácilmente en el caso de la Tierra que se crea que todo [el universo de estrellas fijas] se
mueve en un círculo ”.6Entonces, aunque Copérnico no era físico, sí señaló el camino
hacia la nueva física. En el siglo siguiente, Galileo aprovecharía y ampliaría este mismo
ejemplo de la nave para explicar los principios de movimiento subyacentes a la
astronomía heliocéntrica.
Al carecer de una base adecuada en física, Copérnico conservó algunas de las
características no causales de la teoría geocéntrica. Continuó usando epiciclos, que eran
necesarios no para explicar los movimientos retrógrados de los planetas, sino para
compensar la suposición errónea de órbitas circulares uniformes. Además, los círculos
principales en la teoría copernicana todavía estaban centrados en puntos vacíos, con el
sol compensado por una distancia que se eligió libremente para dar el mejor ajuste a los
datos. Tales características tuvieron que ser eliminadas para completar una
transformación de la antigua “astronomía de las apariencias” a la nueva física celeste. A
principios del siglo XVII, esta fue la tarea emprendida por Johannes Kepler.
Kepler fue el mayor astrónomo teórico de su época y tuvo la suerte de heredar la
base de datos de Tycho Brahe, el mayor astrónomo observacional de la generación
anterior. La combinación era exactamente lo que requería la nueva astronomía: las
mediciones más completas y precisas en manos de un brillante teórico comprometido
con la comprensión de los verdaderos movimientos de los cuerpos astronómicos. Como
dijo el propio Kepler, “Tycho posee las mejores observaciones y, en consecuencia, por
así decirlo, el material para la construcción de una nueva estructura; también tiene
trabajadores y todo lo que uno pueda desear. Solo le falta el arquitecto que usa todo
esto según un plan ".7
¿Cuál era el plan de Kepler? El objetivo era identificar los movimientos de los
cuerpos celestes comprendiendo sus causas físicas. “Mi objetivo en esto es mostrar que
la máquina celestial no debe compararse con un organismo divino sino con un
mecanismo de relojería…. "8En un reloj, explicó, los movimientos regulares son
causados por fuerzas naturales que actúan sobre un peso; el sistema solar, propuso,
puede entenderse de manera similar. ¿Por qué medios podemos descubrir las
relaciones causales? En una visión profunda, escribió: "[Como el ojo fue creado para el
color, el oído para el tono, así fue creado el intelecto de los humanos para la
comprensión no sólo de cualquier cosa, sino también de las cantidades". 9 Si nuestras
mentes pueden descubrir los secretos del universo, pensó, la clave deben ser las
matemáticas.
Al principio de su carrera, Kepler reconoció la poderosa evidencia a favor de la
teoría heliocéntrica: el enorme tamaño del sol en relación con los planetas, la relación
entre la velocidad de un planeta y su distancia al sol, y la explicación de la teoría del
movimiento retrógrado y de los planetas. las diferencias observadas entre los planetas
interiores y exteriores. El significado de esta evidencia, pensó, no es simplemente que el
sol es el cuerpo central del sistema solar; el significado, razonó, es que el sol es el cuerpo
dominante en el sistema solar, es decir, que el sol ejerce una fuerza física sobre los
planetas que es la causa de sus órbitas.
El concepto de "fuerza" se había referido originalmente solo a empujones y tirones
observables entre cuerpos en contacto directo entre sí. Pero los fenómenos de la
electricidad y el magnetismo obligaron a los científicos a ampliar el concepto. En el caso
de estos fenómenos, estaba claro que un cuerpo puede ejercer una fuerza física sobre un
cuerpo distante por algún medio imperceptible. En 1600, William Gilbert publicó su
influyente libro On Magnets, que resumía el conocimiento existente sobre la electricidad
y el magnetismo y anunció su descubrimiento de que la Tierra misma es un imán.
Kepler leyó el libro con atención y tomó de él el concepto moderno de "fuerza", que era
un requisito previo de la física celeste.
Kepler pronto encontró más evidencia de su idea de una fuerza solar. Sabía que las
órbitas planetarias no se encuentran todas en el mismo plano. Están inclinados con
respecto al plano de la órbita de la Tierra en cantidades variables (hasta siete grados en
el caso de Mercurio). Cuando determinó cuidadosamente las inclinaciones de las
órbitas, descubrió un hecho crucial: los planos de las órbitas se cruzan en la posición del
sol, y el sol es el único objeto común a los planos orbitales. Así, por el método del
acuerdo, el sol parecía ser la única causa posible de las órbitas. Con este descubrimiento,
Kepler había comenzado el proceso de erigir una nueva estructura a partir de los datos
de Brahe; había llegado a la idea física que serviría de base.
Al principio, el enfoque causal de Kepler condujo a una innovación crucial en la
forma en que analizaba los datos. Copérnico había referido las posiciones planetarias al
centro de la órbita de la Tierra. Dado que el sol estaba desplazado del centro, Copérnico
estaba calculando las posiciones de los planetas en relación con un punto vacío. Kepler
objetó que tal procedimiento era físicamente absurdo y, en cambio, decidió referir todas
las posiciones planetarias directamente a la ubicación del sol. Este cambio de
perspectiva resultaría esencial para su éxito.
Dada esta base, Kepler preguntó: ¿Cómo se mueven los planetas como resultado de
la fuerza solar? Era lógico que se dirigiera a Marte en busca de una respuesta. De todos
los planetas, fue Marte el que más problemas causó tanto a Ptolomeo como a Copérnico.
En ambos modelos orbitales, hubo discrepancias significativas entre las posiciones
angulares observadas y predichas. Por supuesto, tales discrepancias no fueron el único
problema; Kepler también rechazó estos modelos porque ambos usaban epiciclos, lo
que requería que Marte girara alrededor de un punto vacío sin ninguna razón física. En
palabras de Kepler, se trataba de una "suposición puramente geométrica, para la cual no
existe un cuerpo correspondiente en los cielos".10 Dado que su objetivo era desarrollar
una física celeste, el dispositivo arbitrario de los epiciclos no podía tolerarse.
Así que Kepler comenzó su asalto a Marte evitando los epiciclos e intentando
construir la mejor órbita posible utilizando los otros dispositivos matemáticos estándar
en el juego de herramientas del astrónomo. Siguiendo una tradición de dos mil años,
asumió que la órbita era circular. El sol se desplazó a cierta distancia del centro del
círculo y se colocó un “punto de ecuación” al otro lado del punto central. El dispositivo
del punto de ecuación fue introducido por primera vez por Ptolomeo como una forma
de "salvar las apariencias" partiendo del principio del movimiento uniforme. El
movimiento parece uniforme sólo desde el punto de ecuación; es decir, una línea desde
este punto hasta el planeta barrerá ángulos iguales en tiempos iguales. Pero dado que el
punto de ecuación no está en el centro del círculo,Figura 6).
A primera vista, parece que Kepler debería haber rechazado los ecuantes por la
misma razón por la que rechazó los epiciclos; es un punto vacío que controla el
movimiento de un cuerpo físico. Sin embargo, comprendió que a la ecuación se le podía
dar una interpretación física. Al colocar este punto en una ubicación adecuada, podría
modelar la forma en que la velocidad de un planeta varía con su distancia al sol.
Entonces, Kepler comenzó usando la ecuación como un dispositivo matemático
conveniente para modelar una relación causal entre el planeta y el sol.
Figura 6. En el modelo circular original de Kepler para la órbita de Marte, el sol está
desviado del centro y se usa un punto “ecuante” para variar la velocidad.

Una vez seleccionado el modelo, se enfrentó a la difícil tarea de determinar los


parámetros numéricos específicos que mejor se ajustan a las posiciones angulares
observadas de Marte. Los datos de observación dan la dirección de la línea de la Tierra a
Marte, pero las variaciones en esta dirección dependen tanto del movimiento de Marte
como del movimiento de la Tierra. La posición cambiante de la Tierra es un factor de
complicación; modelar la órbita de Marte alrededor del sol sería mucho más fácil si
nuestras observaciones se hicieran desde el sol.
Kepler resolvió este problema seleccionando cuidadosamente un pequeño
subconjunto de datos que eliminó el factor de complicación. Aproximadamente cada dos
años, hay un momento en que la Tierra se encuentra entre el Sol y Marte y se encuentra
en la misma línea. En esos momentos, se dice que Marte está en oposición (en el lado
opuesto de la Tierra al sol). Cuando está en oposición, la dirección de la Tierra a Marte
es la misma que la dirección del Sol a Marte; es decir, la posición angular medida es la
misma que se mediría desde el sol.
La base de datos de Brahe contenía diez de esas oposiciones de Marte. Kepler
necesitaba determinar cuatro parámetros en su modelo circular de la órbita: la
velocidad angular, la relación entre la distancia entre el centro del sol y el radio, la
relación entre la distancia entre el centro y el ecuador y el radio y la dirección de la línea
que contiene la sol, centro y ecuante. Seleccionó cuatro puntos de oposición para
calcular los cuatro parámetros. Al carecer de los métodos de las matemáticas modernas,
Kepler utilizó un tedioso procedimiento de aproximaciones sucesivas. Después de más
de setenta iteraciones, finalmente llegó a los valores de los parámetros que daban el
mejor ajuste a las cuatro posiciones angulares. Descubrió que la distancia del sol al
centro del círculo tenía que ser significativamente mayor que la distancia del centro al
ecuante.
Luego, Kepler comparó las posiciones angulares predichas por su modelo con los
seis puntos de oposición restantes que no se habían utilizado para llegar al modelo. Las
predicciones coincidieron con estas observaciones en un arco de aproximadamente dos
minutos, que era aproximadamente el tamaño de los errores en las mediciones de
Brahe. Por el momento, parecía que Kepler había triunfado sobre Marte.
Sin embargo, no estaba simplemente tratando de salvar las apariencias. Estaba
tratando de determinar la órbita real, y hay más en una órbita que posiciones angulares.
Entonces Kepler hizo la siguiente pregunta lógica: ¿su modelo también proporcionaba
las distancias correctas entre el sol y Marte? Los datos de la oposición no
proporcionaron la información necesaria para responder a esta pregunta. Aquí
necesitaba observaciones cuando Marte no estaba en oposición, para poder formar
triángulos con líneas dibujadas entre el sol, la Tierra y Marte. Su enfoque fue comparar
esos triángulos. A partir del conocimiento de los ángulos y las distancias relativas
Tierra-Sol, pudo calcular las distancias relativas Marte-Sol; es decir, podría determinar
cómo varía la distancia entre el sol y Marte en la órbita.
Vale la pena señalar cómo Kepler conocía los ángulos en tales triángulos. Por
supuesto, las observaciones de Brahe proporcionaron la dirección de la línea de la
Tierra a Marte. Para las direcciones de las otras dos líneas, Kepler utilizó modelos
disponibles en lugar de datos brutos. Ya había demostrado que su modelo de la órbita
de Marte daba direcciones de la línea sol-Marte con una precisión de aproximadamente
dos minutos de arco. Para la dirección de la línea sol-Tierra, utilizó un modelo
desarrollado por Brahe que era lo suficientemente preciso para sus propósitos. No fue
posible pasar directamente de los datos brutos a la teoría final; estos modelos
intermedios, que eventualmente serían reemplazados por la teoría final de Kepler,
integraron grandes cantidades de datos y, por lo tanto, sirvieron como peldaños
indispensables.
Aunque el modelo sol-Tierra de Brahe era lo suficientemente preciso para
posiciones angulares, Kepler sospechaba que no modelaba correctamente las distancias
sol-tierra. Razonó que las órbitas planetarias tienen la misma causa y, por lo tanto, los
planetas deberían moverse esencialmente de la misma manera. Pero Brahe había
utilizado un modelo más simple del sistema sol-Tierra en el que no había un punto de
ecuación. Kepler estaba convencido de que la Tierra debería moverse más lento cuando
más lejos del sol y más rápido cuando más cerca (como los otros planetas). Si es así,
agregar una ecuación daría como resultado un modelo significativamente mejorado de
la órbita de la Tierra. Y la órbita de la Tierra fue crucial para su batalla con Marte;
necesitaba distancias precisas entre el sol y la Tierra para calcular las distancias entre el
sol y Marte.
El desarrollo de un nuevo modelo de la órbita de la Tierra presentó a Kepler otro
problema difícil. Los astrónomos están atrapados en la Tierra; no pueden ir a un lugar
distante para observar el movimiento de la Tierra contra el fondo de estrellas fijas. Sin
embargo, Kepler pensó ingeniosamente en una forma de superar esta restricción de
viaje. Sabía que el período de la órbita de Marte es de 687 días; es decir, cada 687 días,
Marte completa una órbita completa y, por lo tanto, regresa a la ubicación desde la que
comenzó. Por lo tanto, Kepler seleccionó observaciones de Marte a intervalos de 687
días. Esto es equivalente a mantener constante la posición de Marte; en este conjunto de
datos, las variaciones en la posición angular de Marte son causadas únicamente por
cambios en la posición de la Tierra. Para cada punto de datos, Kepler consideró el
triángulo formado por líneas entre el sol, la Tierra y Marte. Como ya hemos visto,
conocía las direcciones de las tres líneas y, por lo tanto, los tres ángulos del triángulo. Y,
debido a que la posición de Marte es siempre la misma, todos los triángulos tienen un
lado en común (la línea sol-Marte). A partir de esos triángulos, Kepler pudo calcular
cómo variaba la distancia entre el sol y la Tierra de un punto a otro.
Los resultados de estos cálculos mostraron que el valor de Brahe para la distancia
entre el sol y el centro de la órbita de la Tierra era demasiado grande. Kepler logró un
ajuste mejorado a los datos con una menor distancia sol-centro en combinación con una
ecuación que estaba ubicada a la misma distancia del centro en el otro lado. Este fue un
gran paso en el camino hacia su objetivo; finalmente tuvo un modelo de la órbita de la
Tierra que era lo suficientemente preciso para usarlo en el cálculo de las distancias
entre el sol y Marte.
Este trabajo también tuvo otro beneficio. Mientras desarrollaba el modelo anterior,
Kepler descubrió que la velocidad de la Tierra era casi inversamente proporcional a su
distancia del sol. Este era el tipo de relación causal que estaba buscando.
Inmediatamente planteó la hipótesis de que la relación inversa velocidad / distancia era
la verdadera ley, y su uso del punto de ecuación era solo un dispositivo conveniente
para aproximarlo.
Pero, ¿qué tan cerca estuvo esta aproximación? Kepler decidió calcular la órbita de
la Tierra mediante la aplicación directa de la ley de velocidad / distancia y comparar
estos resultados con su modelo de ecuación. El proceso matemático fue
extremadamente tedioso. El cálculo aún no se había descubierto, por lo que Kepler solo
pudo dividir la órbita en pequeños segmentos, hacer un cálculo para cada segmento y
sumar laboriosamente los resultados. Mientras realizaba estos cálculos aparentemente
interminables, se le ocurrió un atajo inteligente. Lo que realmente necesitaba saber era
qué tan lejos viaja la Tierra en un tiempo dado a lo largo de su trayectoria, que solo está
indirectamente relacionada con la ley de velocidad / distancia. Sin embargo, se dio
cuenta de que si la velocidad es inversamente proporcional a la distancia desde el sol,
entonces es aproximadamente cierto que la línea del sol a la Tierra barrerá áreas iguales
en tiempos iguales. Matemáticamente,
En el caso de la órbita de la Tierra, Kepler demostró que las diferencias entre el
modelo ecuante, la ley inversa de velocidad / distancia y la ley del área eran
insignificantes (alrededor de medio minuto de arco, como máximo). La característica no
causal del punto de ecuación ahora podría eliminarse. Al elegir entre las dos leyes
causales, Kepler adoptó provisionalmente la ley del área porque simplificaba los
cálculos. Eventualmente, las observaciones de Marte decidirían el problema.
Antes de volver a Marte, vale la pena enfatizar dos puntos sobre el método de
Kepler.
Primero, no usó simplemente las matemáticas para ajustar los datos de Brahe;
también usó las matemáticas para generar datos. Los datos brutos de Brahe consisten
únicamente en posiciones angulares; Kepler usó estos ángulos y trigonometría para
generar relaciones de distancia y luego exigió que su modelo se ajustara tanto a las
posiciones angulares como a las distancias. Sin trigonometría, no habría distancias para
que encajara su modelo.
En segundo lugar, el procedimiento de Kepler es sorprendentemente similar al
experimento. Mientras trabajaba en la órbita de Marte, seleccionó un subconjunto de
datos que eliminó la complicada variable de la posición de la Tierra. Mientras trabajaba
en la órbita de la Tierra, seleccionó un subconjunto de datos en el que la posición de
Marte es constante. Su biógrafo, Max Caspar, escribe: "Son siempre las observaciones las
que lo encadenan, lo que obliga a responder a sus preguntas". 11 "Obligó" a las
observaciones a responder a sus preguntas controlando variables específicas y aislando
así la variable de interés, que es la esencia del método experimental.
Armado con un modelo preciso de la órbita de la Tierra, Kepler regresó a su misión
de obligar a Marte a responder sus preguntas. Eligió tres observaciones de Marte de la
base de datos de Brahe y, a partir de los triángulos sol-Tierra-Marte, calculó la distancia
sol-Marte en cada uno de los tres puntos. Solo necesitaba tres puntos para determinar
un círculo y pudo calcular la distancia del sol desde el centro del círculo. Este cálculo fue
un momento crucial en la historia de la ciencia. Dejó a Kepler enfrentando una
contradicción, una contradicción, como resultó, que no podría resolverse sin una
revolución en la astronomía.
La distancia entre el centro y el sol que calculó Kepler no era la misma que la
distancia correspondiente que había utilizado en su modelo que proporcionaba
posiciones angulares precisas de Marte. Cuando sustituyó la distancia correcta entre el
centro del sol en su modelo, las posiciones angulares tenían un error de hasta ocho
minutos de arco. Sabía que los datos de Brahe tienen una precisión de
aproximadamente dos minutos. No había forma de evitar la conclusión: su modelo
circular para la órbita de Marte estaba simplemente equivocado. No se pudo hacer
consistente tanto con las posiciones angulares observadas como con las distancias
correctas.
A diferencia de sus predecesores, Kepler no pudo evadir tal problema simplemente
insertando una característica arbitraria en su modelo matemático. Un historiador ha
explicado este punto de la siguiente manera:
Fue la introducción [de Kepler] de la causalidad física en la geometría formal de los
cielos lo que le hizo imposible ignorar el arco de ocho minutos. Mientras la cosmología
se guiara por reglas del juego puramente geométricas, independientemente de las
causas físicas, las discrepancias entre la teoría y los hechos podrían superarse
insertando otra rueda en el sistema. En un universo movido por fuerzas físicas reales,
esto ya no era posible.12
Pero, ¿qué característica del modelo estaba mal? Kepler estaba seguro de que su
valor para la distancia entre el sol y el centro era correcto. Además, a partir de su
trabajo en la órbita de la Tierra, confiaba en que las variaciones de velocidad se
aproximaban al menos bien por su ley de áreas. Eso dejó solo un posible culpable: la
forma de la órbita. Kepler concluyó que Marte no se mueve en círculo. Así, el principio
fundamental de una tradición de dos mil años fue anulado por una pequeña
discrepancia entre la medición y la teoría en el caso de una sola órbita planetaria.
Cuando examinó cuidadosamente estas discrepancias, vio que los errores en su
modelo circular ocurrían en un patrón definido. Para describir el patrón, debo
introducir algunos conceptos nuevos que Kepler formó como resultado de su enfoque
causal de la astronomía.
Como hemos visto, Kepler fue el primer astrónomo en referir todas las posiciones
planetarias directamente al sol. El punto de la órbita donde el planeta está más alejado
del sol lo llamó "afelio" (en griego, "apo" significa "lejos de"); el punto más cercano al sol
lo llamó perihelio ("peri" significa "cerca"). La línea que conecta el perihelio, el sol y el
afelio la llamó "línea de ábsides". Luego trazó una segunda línea, perpendicular a la línea
de los ábsides y pasando por el punto ubicado a medio camino entre el afelio y el
perihelio (es decir, el centro). Cuando el planeta está en las proximidades de esta
segunda línea, se refirió a él como en los "cuadrantes". Las áreas de la órbita a medio
camino entre los ábsides y los cuadrantes (es decir, en ángulos de cuarenta y cinco
grados de estas líneas perpendiculares) se denominan "octantes".
Cuando Marte estaba cerca de las dos líneas perpendiculares (es decir, los ábsides y
los cuadrantes), la órbita circular de Marte predijo las posiciones angulares correctas.
Los errores ocurrieron en los octantes; el modelo colocó a Marte unos ocho minutos de
arco por delante de su posición real en dos de los octantes, y unos ocho minutos de arco
por detrás en los otros dos (verFigura 7). Kepler estudió el patrón y comprendió la
implicación: en el modelo circular, Marte se movía demasiado rápido por los ábsides y
demasiado lento por los cuadrantes. Era necesario modificar la forma de la órbita para
corregir estas velocidades; Marte tenía que estar más lejos del sol a lo largo de la línea
de los ábsides y más cerca del sol en los cuadrantes. En otras palabras, Marte debe
moverse en una órbita de forma ovalada, ligeramente alargada en los ábsides y
ligeramente comprimida en los cuadrantes. Confirmó esta idea calculando varias
distancias Marte-Sol, lo que mostró que Marte entra dentro del modelo circular cerca de
los cuadrantes.
Figura 7. La distribución de errores en el modelo circular de Kepler para la órbita de
Marte.

Renunciar a las órbitas circulares no fue fácil, incluso para un genio innovador como
Kepler. El círculo posee una simetría que carecía de la forma ligeramente aplanada
exigida por sus investigaciones de Marte. Para darle sentido a este resultado, volvió a su
idea de la fuerza solar y buscó una causa física de la asimetría. Hasta ahora, la fuerza
solar había servido como la idea guía que hizo posibles sus descubrimientos. En este
punto, sin embargo, fue desviado temporalmente por especulaciones sobre la
naturaleza específica de la fuerza.
En retrospectiva, podemos ver que el esfuerzo de Kepler por desarrollar una física
celeste estaba condenado al fracaso por una premisa falsa. "[E] sustancia muy corporal",
escribió, "... por naturaleza tiende a permanecer en el mismo lugar en el que se
encuentra".13No comprendía la idea de que una fuerza provoca un cambio en el
movimiento en lugar del movimiento en sí; en otras palabras, no tenía el concepto de
"inercia". Influenciado por la física griega antigua, asumió que cualquier movimiento
debe ser causado por una fuerza en la dirección del movimiento del cuerpo. Combinó
esta suposición con el descubrimiento de Gilbert de que la Tierra es un imán y, por lo
tanto, llegó a su hipótesis: el sol ejerce una fuerza magnética sobre los planetas que los
empuja en sus órbitas.
Kepler elaboró esta hipótesis para dar cuenta de la órbita de forma ovalada de
Marte. La fuerza magnética solar, propuso, tiene dos componentes. Primero, especuló
que el sol está girando rápidamente y este movimiento de alguna manera crea una
fuerza magnética que barre los planetas en círculos. En segundo lugar, los planetas
mismos son imanes, con el polo sur atraído por el sol y el polo norte repelido. Cuando el
polo sur está orientado hacia el sol, la órbita del planeta se acerca; cuando el polo norte
está orientado hacia el sol, la órbita del planeta se aleja más. Este componente
atractivo / repulsivo de la fuerza magnética explica la trayectoria asimétrica y no
circular del planeta.
Se convenció a sí mismo de que tal fuerza solar daría lugar a órbitas en forma de
huevo, es decir, más estrechas en la parte de la órbita cercana al sol y más anchas en la
parte de la órbita más alejada del sol. Luego pasó la mayor parte del año siguiente en un
intento inútil de ajustar la forma del huevo a las observaciones de Marte. Más tarde, tras
reconocer su error, escribió: “Lo que me pasó confirma el viejo proverbio: una perra
apurada produce cachorros ciegos…. El lector debe mostrar tolerancia a mi credulidad
".14
Por supuesto, lo que Kepler merece de nosotros no es "tolerancia", sino nuestra más
alta admiración por su incansable búsqueda de la verdad. Sin embargo, hay cierta
validez en su autocrítica. Su hipótesis sobre la naturaleza específica de la fuerza solar
fue apoyada solo por su intento de conectarla con el magnetismo terrestre. Pero nadie
había observado jamás un imán actuando de la forma en que Kepler suponía que
actuaba el sol sobre los planetas. A pesar de su uso de la palabra "magnético", la fuerza
solar de Kepler era en realidad sui generis. Al final, lo admitió cuando escribió: “Estaré
satisfecho si este ejemplo magnético demuestra la posibilidad general del mecanismo
propuesto. En cuanto a sus detalles, sin embargo, tengo dudas ". 15
Desafortunadamente, sufrió un año difícil mientras perseguía sus especulaciones y
el huevo que habían puesto. A pesar de que estaba en manos de un modelo defectuoso,
el trabajo tuvo un efecto beneficioso: se sumergió completamente en los datos de
observación y en sus cálculos de las distancias sol-Marte. Se había descarriado con el
modelo del huevo, pero nunca perdió de vista las observaciones, e inevitablemente lo
llevaron de regreso a la verdad. La luz empezó a amanecer sobre él cuando descubrió
una peculiar coincidencia numérica. La coincidencia implicó que la distancia desde el sol
hasta un punto del cuadrante es igual al radio mayor de la órbita. Después de algunos
pequeños errores, Kepler reconoció que esta igualdad es una propiedad de una elipse
con el sol en un foco. El hechizo hipnótico de la hipótesis del huevo finalmente se
rompió, y luego comentó:dieciséis No se trataba simplemente de un despertar para
Kepler, sino para la ciencia de la astronomía: se había resuelto uno de los problemas
más destacados de las edades, la órbita de Marte.
Con el conocimiento de la forma precisa de la órbita, podría resolver una
ambigüedad anterior. Pudo demostrar que su "ley del área" se ajustaba mejor a los
movimientos observados de Marte que la ley inversa de velocidad / distancia. Además,
comprendió la relación entre las dos leyes: la ley de velocidad / distancia es correcta, y
equivalente a la ley del área, si no se usa la velocidad total, sino el componente de
velocidad perpendicular a la línea del sol a Marte.
Kepler generalizó inmediatamente sus resultados; lo que fue cierto para Marte fue
cierto para todos los planetas. Así llegó a sus dos primeras leyes del movimiento
planetario: los planetas se mueven en órbitas elípticas con el sol ubicado en un foco, y la
línea del sol a un planeta barre áreas iguales en tiempos iguales. Con la excepción de la
Tierra, no realizó el mismo procedimiento tedioso para determinar los parámetros
elípticos de las otras órbitas planetarias. Tal esfuerzo no habría proporcionado mucha
más evidencia para sus leyes. Usando círculos y ecuaciones, las otras órbitas podrían
modelarse casi dentro de los límites de precisión de los datos de Brahe. (Mercurio
parecería ser una excepción, ya que su órbita se aparta significativamente de un círculo;
sin embargo, debido a su proximidad al sol, los datos eran menos completos y menos
precisos).
Era eminentemente razonable que Kepler no dudara en generalizar desde la órbita
de Marte. Al principio, había citado pruebas sólidas de que los planetas se movían por la
misma causa y, por lo tanto, debían moverse esencialmente de la misma manera.
Además, una de las ventajas clave de la teoría heliocéntrica era que los planetas se
movían de la misma manera; se eliminó la aparente diferencia entre los movimientos de
los planetas "internos" y "externos". En el contexto de la teoría causal de Kepler, el
concepto de “planeta” podría funcionar y funcionó como luz verde para la inducción. Su
investigación se centró en el movimiento planetario; se había centrado en Marte
simplemente porque era el más adecuado para proporcionar las respuestas a sus
preguntas.
Kepler descubrió la teoría correcta del sistema solar utilizando solo un pequeño
subconjunto de la gran base de datos de Brahe. Sus conclusiones se basaron
principalmente en observaciones de Marte y el sol, y los pasos clave en el camino a
menudo se realizaron utilizando solo unos pocos puntos de datos cuidadosamente
seleccionados. Sus cálculos se guiaron en cada paso por su hipótesis bien fundamentada
sobre el papel causal del sol.
El contexto más amplio que lo guió se basó en una amplia gama de datos y muchas
generalizaciones de alto nivel. En astronomía, dependía de todos los conocimientos
descubiertos por los griegos y Copérnico; en matemáticas, dependía del trabajo de
Euclides, Apolonio, Arquímedes y Vieta; En física, hemos visto cómo Kepler hizo uso del
concepto ampliado de "fuerza" que surgió de los estudios de la electricidad y el
magnetismo.
Las dos primeras leyes del movimiento planetario de Kepler fueron las joyas
contenidas en su libro New Astronomy Based on Causation, publicado en 1609. Nueve
años más tarde, Kepler descubrió su tercera y última ley del movimiento planetario. En
contraste con las dos primeras leyes, que especifican la naturaleza de una órbita
individual, la tercera ley establece una relación matemática entre las órbitas y, por lo
tanto, se aplica al sistema solar en su conjunto.
Aunque Copérnico había descubierto que un planeta más alejado del sol se mueve
más lento, la relación matemática exacta había permanecido esquiva. Kepler estaba
convencido de que, dado que las órbitas planetarias tienen la misma causa, deberían ser
matemáticamente iguales de alguna manera. Por lo tanto, comenzó a buscar alguna
función de la distancia media y el período orbital (que es inversamente proporcional a
la velocidad media) que permaneció sin cambios. En 1618, después de muchas pruebas
y errores, encontró lo que había estado buscando. Su tercera y última ley establece que
el cubo de la distancia media al sol dividido por el cuadrado del período orbital es una
constante para todos los planetas. El descubrimiento de esta ley fue el resultado de una
extraordinaria persistencia, que, a su vez,
La publicación de Kepler de sus leyes fue un hito histórico: fueron las primeras leyes
matemáticas exactas que describían el movimiento de los cuerpos (la cinemática de
Galileo no se publicó hasta la década de 1630). En la era post-newtoniana, es fácil dar
por sentadas tales leyes; sin embargo, a principios del siglo XVII, el contexto era
bastante diferente. Con respecto al estado del conocimiento cuando Kepler comenzó su
trabajo, un historiador comenta: “La paciencia y el esfuerzo indescriptibles requeridos
para descubrir los secretos de la naturaleza mediante la experimentación y la
observación aún eran desconocidos. El concepto de leyes de la naturaleza que
establecen relaciones causales entre fenómenos y los pone en fórmulas aún no se
sostenía. Los hombres aún no habían aprendido el método inductivo ... " 17
Kepler hizo su parte para enseñar a los hombres ese método al describir con una
franqueza inusual tanto cómo hizo sus descubrimientos y cómo cometió sus errores.
Desafortunadamente, cualquiera que esté familiarizado con la cosmología
contemporánea tiene motivos para preguntarse si los investigadores de hoy han
aprendido la lección. El propósito de las siguientes secciones es identificar algunos de
los puntos principales.

Matemáticas y causalidad
Antes del surgimiento de la teoría heliocéntrica, la ciencia de la astronomía había
renunciado a la causalidad y, por lo tanto, separó sus matemáticas del mundo físico. La
astronomía ptolemaica fue aceptada durante más de un milenio porque el hombre había
adoptado una actitud muy humilde hacia la naturaleza. En el ámbito material, había
asumido dócilmente que estaba más allá de su capacidad para captar las conexiones
necesarias entre la naturaleza de las cosas y sus acciones. En consecuencia, los
astrónomos solo podían esperar inventar esquemas para "describir las apariencias".
Curiosamente, los escépticos del campo de “describir las apariencias” a menudo
tratan de reclamar a Kepler como uno de los suyos. Insisten en que las leyes del
movimiento planetario no son enunciados causales, sino meras regularidades
descriptivas. Después de todo, argumentan, Kepler desconocía la causa actualmente
aceptada de las órbitas planetarias, la interacción gravitacional de masas. Por lo tanto,
concluyen, no descubrió conexiones causales y sus supuestas leyes son simplemente
descripciones empíricas del movimiento planetario. Según este punto de vista, la
generalización de Kepler desde Marte a los otros planetas fue una suposición
afortunada.
Como hemos visto, una visión tan escéptica contradice el proceso de descubrimiento
real de Kepler y sus conclusiones. Pensó en sus leyes de la siguiente manera: primero, el
sol ejerce una fuerza en cada planeta que hace que se mueva en una órbita elíptica (con
el sol ubicado en un foco); segundo, la fuerza solar hace que cada planeta se mueva de
modo que la línea del sol al planeta barre áreas iguales en tiempos iguales; tercero, la
fuerza solar disminuye con la distancia de una manera que hace que el cubo de la
distancia media al sol dividido por el cuadrado del período orbital sea constante para
todos los planetas. Claramente, estos son enunciados causales, como deben ser para
calificar como leyes.
De hecho, Kepler conocía la causa de las órbitas planetarias: identificó
correctamente la causa como el sol y alguna propiedad de los planetas que responde al
sol. Este fue el conocimiento causal necesario para alcanzar y validar sus
generalizaciones. Posteriormente, Newton descubrió que la propiedad relevante es la
masa, lo que da lugar a la atracción gravitacional. Este era el conocimiento causal más
avanzado necesario para validar las generalizaciones mucho más amplias de Newton,
que subsumían las leyes de Kepler como concretas. Quizás, en el futuro, los físicos
logren una comprensión más profunda de la causa en términos de una teoría física
totalmente consistente del campo gravitacional. Si es así, ese conocimiento sin duda
jugará un papel clave en la validación de generalizaciones aún más amplias.
Las identificaciones causales anteriores no se contradicen entre sí. La afirmación de
Kepler es correcta hasta donde llega, pero dice menos que la de Newton e implica
mucho menos. Y la afirmación de Newton es correcta hasta donde llega, pero Einstein
descubrió más sobre la gravitación y aún hay más por descubrir.
El conocimiento causal necesario para probar una generalización está delimitado
por el alcance de la generalización. Por ejemplo, considere la ley de órbitas elípticas de
Kepler. Si se trata de una ley general y no simplemente de una descripción de
particulares, debemos ser capaces de responder a ciertas preguntas. ¿Órbitas alrededor
de qué? El sol, que se encuentra en un foco de la elipse. ¿Por qué el sol? Porque ejerce
una fuerza sobre el planeta provocando la órbita. Cómo sabemos esto? Aquí citamos la
evidencia de Kepler sobre la fuerza solar: el enorme tamaño del sol, la dependencia de
la velocidad planetaria de la distancia al sol y el hecho de que el sol es el único cuerpo
contenido en todos los planos orbitales. Esto es todo lo que se requiere. A diferencia de,
considere la ley de Newton de que todos los cuerpos se atraen entre sí con una fuerza
que es proporcional al producto de sus masas e inversamente proporcional al cuadrado
de la distancia entre ellos. Las preguntas que debemos responder para validar esta
generalización son demasiado numerosas para enumerarlas aquí, pero pertenecen a los
conceptos de "masa" y "aceleración", las leyes del movimiento y la integración de la
física terrestre con la astronomía (ver la Siguiente capítulo).
Es importante reconocer que el conocimiento causal necesario para probar una
generalización no es el mismo que el conocimiento causal del cual se puede deducir la
generalización. Es un error común sustituir el primero por el segundo en un esfuerzo
por reducir todo razonamiento lógico a la deducción. Según este punto de vista, las leyes
de Kepler son meras hipótesis hasta que se deducen de las leyes de Newton, que son
meras hipótesis hasta que se deducen de leyes más generales, etc. Así, el "conocimiento"
no es más que un esquema piramidal de hipótesis, que en última instancia sólo se
validan mediante una revelación intuitiva de la llamada primera causa. Este enfoque
conduce a dos campos: los escépticos que admiten que carecen de tal intuición y los
racionalistas que fingen tenerla.
Los racionalistas suelen apelar a la simetría, la elegancia y la belleza de su teoría
matemática, afirmando que tales características estéticas agradables implican una
visión real del mundo de las Formas (Platón) o de la mente del Creador (cualquier
religión). Como los escépticos, introducen una brecha entre la causalidad física y las
matemáticas. Los escépticos lo hacen porque consideran que las causas son
incognoscibles y que el formalismo matemático es arbitrario; los racionalistas de la
física lo hacen porque sostienen que las causas fundamentales no son físicas y que las
leyes de la naturaleza pueden captarse independientemente del contacto sensorial con
el mundo físico.
A menudo se afirma que Platón allanó el camino para la revolución científica al
enfatizar el valor de las matemáticas. Pero tal afirmación ignora la esencia del punto de
vista de Platón. Las matemáticas se valoran correctamente como una herramienta para
comprender las leyes causales del mundo físico; Platón, por otro lado, valoraba las
matemáticas como un medio para desviar la mente del mundo físico y dirigirla hacia el
mundo de las Formas. En su opinión, las ideas matemáticas no se derivan del mundo
físico y no se aplican a él excepto de forma aproximada. Tales ideas son innatas en
nosotros desde que nacemos, y sus referentes existen en una dimensión extrasensorial,
no física. Se supone que las matemáticas son una ciencia perfecta que consiste en
conocimiento puro, sin ninguna dependencia del mundo físico.
Esta visión fue un gran obstáculo que tuvo que superar la revolución científica. El
progreso de la ciencia requirió la visión anti-platónica de que el mundo físico es
perfecto, es decir, que es completamente real y digno del estudio más minucioso, y que
las matemáticas son el lenguaje para expresar conexiones causales en el mundo. Esta
fue la idea que motivó a Kepler y Galileo a pasar décadas buscando las leyes
matemáticas exactas que gobiernan la naturaleza, mientras se negaban a aceptar
cualquier inconsistencia entre sus principios y los datos sensoriales.
Trágicamente, Kepler estaba desgarrado por puntos de vista conflictivos sobre la
naturaleza del conocimiento en general y de las matemáticas en particular. Abrió la
puerta a la ciencia moderna, pero la atravesó solo a la mitad. Se vio frenado por su
lealtad parcial a una versión cristianizada del platonismo. Cuando estuvo en las garras
de este punto de vista, buscó causas en la mente de Dios en lugar de en la naturaleza de
las entidades físicas, sancionó las especulaciones descabelladas basadas en la
"intuición" y toleró las brechas resultantes entre la teoría y la observación. Así, Kepler
estuvo con un pie adelante en la Edad de la Razón y un pie atrás en la Edad Media. Al
hacerlo, presenta un caso de estudio único. En la sección anterior vimos los resultados
de su primer método; veamos ahora su segundo método y sus resultados.
El platónico Kepler se guió por su creencia de que el mundo físico fue creado a partir
de la mente Divina, que las ideas matemáticas de Dios son innatas en nosotros y que el
propósito de estudiar el universo físico es que “el pensamiento del Creador sea
reconocido en su naturaleza, y que su sabiduría inagotable brille con más intensidad
".18Por lo tanto, sus explicaciones se basaron en apelaciones a la perfección y la belleza
estética del modelo de Dios para el universo. Consideraba las matemáticas como
independientes y anteriores al mundo físico. "Las cosas matemáticas son las causas de
lo físico", escribió Kepler, "porque Dios desde el principio de los tiempos llevó dentro de
sí mismo en una simple y divina abstracción las cosas matemáticas como prototipos de
las cantidades materialmente planeadas".19 Cuando Kepler siguió este enfoque, pasó
por alto la física y fue directamente a su supuesta fuente: el amor de Dios por las
regularidades matemáticas.
Un ejemplo de cómo el platonismo afectó a la astronomía de Kepler se puede
encontrar en su primer libro, The Cosmic Mystery, publicado en 1596. Los matemáticos
griegos habían descubierto que hay cinco figuras geométricas sólidas y simétricas que
se pueden construir a partir de superficies planas idénticas (un ejemplo es el cubo, que
está formado por seis cuadrados idénticos). Estas figuras, llamadas los cinco sólidos
regulares, se tenían en alta estima debido a la perfección de su simetría. Las órbitas
planetarias, pensó Kepler, debieron haber sido ordenadas por Dios de manera que las
cinco figuras geométricas perfectas encajaran entre ellas, lo que implicaba que debía
haber seis y solo seis planetas.
Al elegir juiciosamente qué figura encajar entre cada par de planetas adyacentes,
Kepler llegó a un esquema que se aproximaba muy aproximadamente a los tamaños
relativos de las órbitas (el error promedio fue de más del 20 por ciento). Qua platónico,
fue más tolerante con las discrepancias con las observaciones; después de todo, Platón
había enfatizado que el mundo físico es un reino imperfecto. Así que, a pesar de la
inexactitud del plan, Kepler declaró extasiado que había descubierto la base matemática
del plan de Dios.
Más tarde, Kepler llevó este enfoque más allá al relacionar aspectos de las órbitas
planetarias con tonos musicales en un intento de entender el sistema solar como una
sinfonía celestial escrita y dirigida por Dios. Los antiguos pitagóricos habían descubierto
las regularidades matemáticas subyacentes a las armonías musicales; Kepler buscó
relacionar estas armonías con la estructura del sistema solar. Por ejemplo, descubrió
que la relación entre la velocidad angular mínima y máxima de Saturno es de
aproximadamente 4: 5, correspondiente al acorde musical conocido como tercio mayor.
De manera similar, la relación entre la velocidad angular más lenta de Júpiter y su
velocidad angular más rápida corresponde a un tercio menor, la de Marte representa la
quinta, y así sucesivamente. Luego comparó las velocidades angulares extremas de
diferentes planetas y logró construir los intervalos de la escala musical completa.
Finalmente, declaró que cuando varios planetas están simultáneamente en los puntos
extremos de sus respectivas órbitas, este esquema da lugar a un motete con cada
planeta cantando su parte asignada. Él concluyó:
Los movimientos celestiales no son más que un canto continuo para varias voces
(percibido por el intelecto, no por el oído)…. Por tanto, ya no es de extrañar que el
hombre, a imitación de su creador, haya descubierto por fin el arte del canto figurado,
desconocido para los antiguos. El hombre quería ... participar de su gozo haciendo
música a imitación de Dios.20
Esta teoría musical del cosmos se publicó en un libro titulado La armonía del mundo.
Al explicar el concepto de "armonía" de Kepler, un historiador escribe:
El sentimiento de armonía surge cuando se produce una coincidencia del orden
percibido con el correspondiente arquetipo innato. El arquetipo en sí es parte de la
mente de Dios y fue grabado en el alma humana por la Deidad cuando creó al hombre a
su propia imagen. El parentesco con la doctrina de Platón de las formas ideales es
claro.21
Un resultado particularmente sorprendente de las premisas filosóficas
contradictorias de Kepler se puede ver en sus puntos de vista sobre la causa de las
mareas oceánicas. Como científico, partió de la evidencia observacional y buscó una
causa física. La correlación entre las mareas y la órbita de la luna lo llevó a la idea
correcta de que las mareas son causadas por una fuerza atractiva que ejerce la luna
sobre los océanos de la Tierra. Sin embargo, cuando consideró el mismo problema
desde la perspectiva de su misticismo platónico / cristiano, buscó una causa espiritual.
Especuló que Dios dotó a los planetas de almas y explicó que las mareas del océano se
deben a la respiración del cuerpo terrestre animado. Las dos explicaciones son polos
opuestos, tan distantes como las ideas filosóficas que las llevaron a ellas. “Dos Keplers,
por así decirlo, uno frente al otro”, escribe su biógrafo, Max Caspar. “Ambos persiguen
hasta su última consecuencia un pensamiento que han captado o que, más bien, los ha
captado. Con un Kepler era el pensamiento de la gravitación, con el otro el del alma de la
Tierra. Ahora chocan. ¿Qué pueden decirse? La contradicción está sin resolver ". 22 Por lo
tanto, tenemos el espectáculo de una mente grande pero conflictiva que fue empujada
simultáneamente en direcciones opuestas, con un camino que conduce a
descubrimientos cruciales y el otro a callejones sin salida.
Por tanto, el legado de Kepler implica mucho más que sus tres leyes del movimiento
planetario. Siguiendo dos métodos opuestos y mostrándonos los resultados, sin saberlo
realizó un experimento en filosofía de la ciencia. Específicamente, probó la naturaleza
de las matemáticas: ¿es la clave para comprender las conexiones causales en este
mundo o la clave para un reino sobrenatural de abstracciones?
Los resultados del experimento no podrían haber sido más decisivos.

El poder de las matemáticas


¿Qué conocimiento de astronomía es posible sin las matemáticas?
Podemos mirar hacia atrás al comienzo de la historia registrada para encontrar la
respuesta. Los pastores de la antigua Babilonia conocían las constelaciones de estrellas
y podían describir sus movimientos anuales, y podían dar descripciones aproximadas
de las posiciones cambiantes de los planetas, el sol y la luna. Por ejemplo, un pastor bien
informado podría decir: Marte está ahora en la constelación X, un poco más arriba y al
este de la estrella Y; continuará moviéndose lentamente hacia el oeste durante las
próximas dos lunas llenas, y luego reanudará su curso normal hacia el este.
Nótese que incluso el pastor antiguo no podía escapar por completo de las
matemáticas; la descripción anterior incluye una medición de tiempo en la que el
movimiento de Marte se compara cuantitativamente con las fases de la luna. El pastor
usó el cielo como brújula y reloj, e incluso su conocimiento primitivo tuvo que ser
cuantificado para servir a sus propósitos. Sin embargo, su uso de las matemáticas fue
mínimo (es decir, conteo simple) y el estado de su conocimiento refleja lo que es posible
sin instrumentos de medición y matemáticas superiores.
Por supuesto, el conocimiento del pastor no califica como ciencia; consistía en
observaciones desconectadas sin comprensión de las causas. Una ciencia es un cuerpo
integrado de conocimientos, y en las ciencias físicas esta integración es posible gracias a
las matemáticas. En astronomía, el proceso comienza cuando los datos de observación
se expresan en términos de números que denotan latitudes y longitudes de los cuerpos
celestes (en tiempos especificados numéricamente). Estos números (por ejemplo, los
datos de Brahe) se integran luego por medio de una teoría causal (por ejemplo, la teoría
de Kepler del sistema solar). Un erudito ha resumido elocuentemente la esencia de lo
que hizo Kepler con las medidas de Brahe: “Kepler puso orden en este caos. Había
buscado las leyes que unían estos números, de modo que ya no estén juntos sin relación
alguna, sino que cada uno pueda calcularse a partir del otro. 23El caos se transformó en
orden expresando primero las observaciones numéricamente, luego usando geometría
y álgebra para deducir más relaciones numéricas, y finalmente llegando a ecuaciones
que son las leyes del movimiento planetario. Todo el proceso fue matemático de
principio a fin.
Sólo mediante las matemáticas pudo Kepler relacionar las posiciones y movimientos
de los cuerpos celestes. Miremos de nuevo sus leyes y examinémoslas desde esta
perspectiva.
La ley de las órbitas elípticas establece una relación que se puede escribir de la
siguiente manera (ver Figura 8):

Figura 8. Kepler descubrió que la órbita de Marte se describe mediante la ecuación r = a


+ c (cos β), que es una elipse con el sol en el foco.

r = a + c (cos β)
dónde
r = la distancia del planeta al sol,
a = el radio mayor,
c = la distancia del sol al centro de la elipse, y
β = el ángulo entre la línea de ábsides y la línea del centro al planeta.
La ecuación expresa una relación numérica entre dos variables: la distancia ry el
ángulo β (los otros términos son constantes). En el proceso de razonamiento desde las
observaciones hasta la ley, Kepler descubrió por primera vez esta ecuación y solo más
tarde se dio cuenta de que describe una elipse con el sol en un foco. A principios del
siglo XVII, aún no se conocían las ecuaciones algebraicas que describían figuras
geométricas. Para comprender el sistema solar, Kepler consideró necesario ser pionero
en la rama de las matemáticas que se conocería como geometría analítica.
Nótese que no existe una relación entre estas distancias y ángulos que puedan
observarse y describirse de manera cualitativa. Ni la distancia r ni el ángulo β son
directamente observables; ambos son cognitivamente accesibles sólo por medio de una
larga y compleja cadena de deducciones matemáticas (a partir de observaciones, por
supuesto).
Ahora considere la ley de área de Kepler. Para pequeños cambios en la posición del
planeta, la ley se puede expresar de la siguiente manera:
r2 (∆θ) = constante (∆t)
dónde
∆θ = el cambio en la dirección de la línea del sol al planeta, y
∆t = el intervalo de tiempo durante el cual el planeta se ha movido.
Esta es la forma en que Kepler usó la ley al construir la órbita de Marte. Dado un
modelo que proporcionó valores de r, esta ecuación le permitió calcular el cambio de
posición angular durante cualquier intervalo de tiempo dado (sumando laboriosamente
los cambios durante pequeños intervalos de tiempo). Y, de nuevo, la ley relaciona
variables (r y θ) de las que no tenemos conciencia excepto por medio de las
matemáticas.
Recuerde la forma en que las dos leyes anteriores se complementaron en el proceso
de descubrimiento. Mientras desarrollaba su modelo de la órbita de la Tierra, Kepler
llegó a la ley del área sin saber si era una verdad exacta o simplemente una muy buena
aproximación. Luego usó la ley para predecir las posiciones angulares de Marte y
compararlas con las posiciones angulares observadas. Esto reveló errores de arco de
ocho minutos en el modelo circular de la órbita de Marte, lo que llevó al descubrimiento
de que las órbitas planetarias son elipses. Finalmente, después de descubrir la forma de
la órbita de Marte, Kepler demostró que la ley del área es exacta. De esta manera, las
leyes se descubrieron juntas, y cada una desempeñó un papel en la validación de la otra.
Más importante aún, el papel de las matemáticas en este proceso de descubrimiento
fue fundamental. Los astrónomos no comenzaron por captar la estructura del sistema
solar de una manera aproximada y cualitativa y luego usaron las matemáticas
simplemente para completar los detalles cuantitativos. Más bien, lo contrario es cierto:
fueron los detalles cuantitativos, como los pequeños errores del arco de ocho minutos,
los que llevaron a comprender los principios básicos.
Finalmente, considere la tercera ley de Kepler, que se puede expresar de la siguiente
manera:
a3 / T2 = constante (es decir, el mismo número para todos los planetas)
Recordemos que Copérnico había comparado las órbitas planetarias y enfatizó que
un planeta más alejado del sol se mueve más lento. Sin embargo, tal enunciado
cualitativo tiene poco valor excepto en la medida en que motiva la búsqueda de una ley
matemática. Como veremos en el próximo capítulo, la afirmación de Copérnico habría
sido inútil para Newton; por otro lado, la tercera ley de Kepler permitió a Newton
descubrir la gravitación universal. Una vez más, vemos las matemáticas como el medio
para descubrir y expresar conexiones causales y, en última instancia, como el medio
para integrar tales leyes causales en una teoría fundamental.
Las matemáticas permitieron a los fundadores de la ciencia moderna extraer el
significado completo de sus observaciones, y los resultados fueron a menudo muy
sorprendentes. Estos resultados están implícitos en las observaciones originales, pero
sin las matemáticas tales implicaciones permanecerían ocultas para siempre.

Prueba de la teoría de Kepler


Aunque Kepler citó pruebas muy sólidas en apoyo de sus leyes del movimiento
planetario, no pudo afirmar válidamente que su teoría del sistema solar estuviera
probada.
El obstáculo para la prueba fue el conflicto entre la astronomía y la física de Kepler.
Recuerde que él creía que el movimiento es causado por una fuerza en la dirección del
movimiento; en particular, pensó que la Tierra era empujada en su órbita por la fuerza
solar. Dado que la Tierra se mueve muy rápido, esta fuerza debe ser bastante fuerte. Es
difícil imaginar cómo podríamos ser empujados de esta manera sin sentirlo u observar
ningún efecto. Además, Kepler planteó la hipótesis de que la fuerza solar es de
naturaleza magnética. Si esto fuera cierto, entonces todos los cuerpos no magnéticos
(incluyéndonos a nosotros mismos) quedarían atrás cuando la Tierra magnética fuera
empujada. Por lo tanto, Kepler no pudo responder a las objeciones tradicionales al
movimiento de la Tierra y, por lo tanto, no pudo lograr la integración de la astronomía y
la física que era necesaria para probar su teoría.
La física de Galileo, desafortunadamente, no se publicó hasta después de la muerte
de Kepler. Galileo entendió que las fuerzas causan cambios en el movimiento, no el
movimiento en sí. Por lo tanto, la Tierra, su atmósfera y sus habitantes pueden moverse
juntos a gran velocidad sin estar sujetos a una fuerza de empuje y sus efectos
potencialmente catastróficos. Este fue uno de los grandes logros de Galileo: proporcionó
la base en física necesaria para dar sentido a la teoría heliocéntrica.
Además, los descubrimientos que hizo Galileo con el telescopio recién inventado
proporcionaron más evidencia para la teoría. Cuando dirigió su telescopio a Venus,
observó un ciclo completo de fases, lo que implica que Venus orbita alrededor del sol
(en contradicción directa con la teoría de Ptolomeo). Descubrió que Júpiter era un
sistema copernicano en miniatura, con cuatro lunas más pequeñas orbitando el gran
planeta. Además, su análisis de las manchas solares y de los eclipses de las lunas de
Júpiter proporcionó una fuerte evidencia del movimiento de la Tierra. Estos
descubrimientos se hicieron en los años 1610–13, inmediatamente después de la
publicación de Kepler de sus dos primeras leyes.24
A pesar de la comprensión del movimiento de Galileo y sus observaciones
telescópicas, tampoco logró captar la prueba completa de la teoría heliocéntrica.
Despreciaba el misticismo de Kepler y cometió el trágico error de tirar al bebé con el
agua de la bañera. Nunca entendió que el otro lado de Kepler, el científico, había
revolucionado la astronomía al descubrir las leyes causales del movimiento planetario.
Así que Galileo, en su esfuerzo por establecer la teoría heliocéntrica, se quedó
defendiendo a Copérnico, pero la teoría de Copérnico retuvo características arbitrarias
y no causales como los epiciclos y, por lo tanto, no pudo ser probada.
Así, hubo un breve período (alrededor de tres décadas) durante el cual la teoría de
Kepler del sistema solar tuvo un estatus peculiar: se habían descubierto las piezas de
una prueba completa, pero ningún individuo había captado todas las piezas y las había
ensamblado. Esta integración se logró finalmente en las décadas de 1640 y 1650 cuando
los científicos aceptaron las leyes de Galileo y Kepler.
Entonces se preparó el escenario para Isaac Newton.
4.

Integración de Newton

G Alileo y Kepler hicieron a un lado los viejos escombros conceptuales y sentaron las
bases de la ciencia moderna. Las categorías antinaturales de movimiento "natural" y
"violento", el extraño aparato celeste de círculos en círculos excéntricos conducidos por
puntos vacíos, fue limpiado para dejar espacio a una nueva estructura, construida por
medio del nuevo método experimental y matemático. . Hemos visto las primeras piezas
de esta nueva estructura: la cinemática de Galileo y la astronomía de Kepler.
También hemos visto los primeros pasos dados hacia la integración de las ciencias
de la física y la astronomía. La Tierra fue identificada como uno de los planetas y el
telescopio reveló que algunos cuerpos celestes tienen características similares a las de
la Tierra: nuestra luna tiene montañas y valles, Júpiter tiene lunas y el sol gira. Sin
embargo, en esta etapa temprana, la conexión entre los reinos terrestre y celestial era
tenue. Aunque Galileo había utilizado la “relatividad del movimiento” para dar sentido
al movimiento de la Tierra, no había nada más que conectara sus leyes del movimiento
terrestre con las leyes del movimiento planetario de Kepler.
¿Cómo se pueden identificar las conexiones fundamentales entre fenómenos que
parecen tan radicalmente diferentes, por ejemplo, entre la caída de una manzana o la
oscilación de un péndulo y un planeta que orbita en una elipse? La clave fue descubrir
una teoría matemática que relacionara los movimientos con las fuerzas que los causan.
Esta tarea fue extraordinariamente ambiciosa; Además de la necesidad de nuevos
experimentos cruciales y datos astronómicos más precisos, requirió el desarrollo de
nuevos conceptos y nuevos métodos matemáticos. Cuando finalmente se completó, se
había creado la ciencia moderna de la física, y los cuerpos celestes ocuparon su lugar
entre sus sujetos, regidos por sus leyes.

El desarrollo de la dinámica
Newton comenzó con un problema que era lo suficientemente simple de resolver, pero
lo suficientemente complejo como para producir nuevos conocimientos cruciales.
Comenzó analizando la forma de movimiento que los griegos habían considerado
perfecta: movimiento circular uniforme. En cierto sentido, era perfecto: estaba
perfectamente adaptado para exponer los errores de los predecesores de Newton e
iluminar los principios de una nueva dinámica.
Como vimos en Capitulo 2Galileo nunca comprendió que los cuerpos se mueven con
velocidad constante en línea recta en ausencia de todas las fuerzas externas. Al carecer
del concepto de "gravedad", sugirió que el movimiento horizontal a velocidad constante
significaba en última instancia un movimiento en un círculo alrededor de la Tierra, que
pensó que podría ocurrir en ausencia de una fuerza externa. EnCapítulo 3, vimos que
Kepler nunca comprendió que cualquier movimiento podría ocurrir en ausencia de una
fuerza; supuso que todo movimiento es el resultado de un empujón externo en la
dirección del movimiento. En el análisis de Newton del movimiento circular, identificó y
rechazó ambos errores.
Antes de Newton, el caso de la luna dando vueltas alrededor de la Tierra se
consideraba completamente diferente del caso de un halcón dando vueltas alrededor de
su presa. Newton, sin embargo, ascendió a un nivel de abstracción que trataba estos dos
fenómenos como iguales; su objetivo era analizar el movimiento circular como tal, y
aplicar lo que encontró a todos y cada uno de los casos del mismo. Su política aquí se
expresa en el dicho que luego identificaría como una "regla de razonamiento": "[A] los
mismos efectos naturales debemos, en la medida de lo posible, asignar las mismas
causas".1
Una parte importante de la motivación de Newton para estudiar el movimiento
circular fueron las órbitas planetarias, que son casi circulares. Pero no comenzó su
análisis considerando los planetas; comenzó con casos en los que la causa del
movimiento es mucho más fácil de identificar. Consideró un peso sujeto al extremo de
una cuerda y se balanceaba en un círculo, y una pelota rodando en un círculo dentro de
un cuenco. En estos casos, ¿cuál es la causa del movimiento circular? Para el peso, es la
tensión en la cuerda; el hombre que sostiene la cuerda debe tirar hacia adentro. En el
instante en que lo suelte, el peso ya no se moverá en círculo, sino que volará
horizontalmente en línea recta (mientras la fuerza de gravedad lo empuja hacia la
Tierra). Para la bola en el cuenco, el movimiento circular es causado por el empuje hacia
adentro ejercido por la superficie del cuenco. Si la bola se escapa del cuenco, entonces
también volará inicialmente en línea recta. En ambos casos, el movimiento circular
uniforme del cuerpo es sostenido por una fuerza constante dirigida hacia el centro del
círculo.
En un cuaderno, Newton escribió una versión temprana de lo que más tarde se
convirtió en su primera ley del movimiento: "Una cantidad siempre se moverá en la
misma línea recta (sin cambiar la determinación o celeridad de su movimiento) a menos
que alguna causa externa la desvíe".2 La causa externa es una fuerza, es decir, un
empujón o un tirón.
Newton reconoció que era crucial distinguir entre el tipo de movimiento que resulta
de una fuerza y el tipo que puede ocurrir en ausencia de fuerza. Los conceptos de
movimiento utilizados por Galileo eran inadecuados para este propósito. Recuerde que
la definición de Galileo de "aceleración constante" se aplicaba solo al caso de
movimiento en una dirección constante. Para él, la aceleración significaba un cambio de
velocidad. En el caso de un movimiento circular uniforme, la velocidad del cuerpo es
constante y, por lo tanto, su "aceleración galileana" es cero. Sin embargo, hay algo
esencialmente igual en los casos de aceleración estudiados por Galileo y en el caso del
movimiento circular uniforme: en ambos hay un cambio en el movimiento que resulta
de una fuerza aplicada sobre el cuerpo. Se necesitaba un concepto ampliado de
"aceleración" para integrar estas instancias.
Para estudiar y comprender los efectos de las fuerzas, el movimiento tenía que
caracterizarse en términos tanto de su magnitud como de su dirección. Así se formó el
concepto de "velocidad", y la "aceleración" se definió entonces como la tasa de cambio
de velocidad. Tanto la velocidad como la aceleración son cantidades vectoriales, es
decir, son integraciones de magnitud y dirección. La formación de estos conceptos fue
un paso revolucionario que hizo posible la ciencia de la dinámica.
Armado con estos conceptos, Newton podría preguntarse: ¿Cuál es la aceleración de
un cuerpo que se mueve con rapidez constante en un círculo? Por simetría, supo que la
aceleración es constante y siempre dirigida hacia el centro del círculo. ¿Pero cuál es su
magnitud? Consideró un intervalo de tiempo corto en el que el cuerpo se mueve a través
de un pequeño arco en el círculo. Durante este tiempo, el cuerpo se ha desviado de un
camino recto por una pequeña distancia, d. Para los casos de aceleración constante,
Galileo había dado la ley matemática que relaciona la distancia d con la aceleración y el
intervalo de tiempo. Usando la ley de Galileo y la geometría clásica, Newton pudo
derivar una ecuación que expresaba la aceleración como una función de la cuerda del
arco, el intervalo de tiempo y el radio del círculo.
En su siguiente paso, Newton hizo uso de un nuevo concepto, "límite", que se
encuentra en la base del cálculo, la rama de las matemáticas que había descubierto. A
medida que el intervalo de tiempo anterior se acorta progresivamente, la cuerda del
arco se vuelve cada vez más parecida al arco mismo. En el "límite", es decir, cuando el
intervalo de tiempo se acerca a cero, la relación entre la longitud de la cuerda y la
longitud del arco se acerca a uno. Por lo tanto, en este límite, la cuerda se puede
reemplazar con el arco. Newton hizo esta sustitución y llegó a su ley de movimiento
circular uniforme: la magnitud de la aceleración en cualquier punto del círculo es igual a
la rapidez del cuerpo al cuadrado dividida por el radio del círculo.
Newton no asumió nada sobre la naturaleza específica de la fuerza que causa esta
aceleración. Su análisis se basó únicamente en el hecho de que una fuerza hace que un
cuerpo se desvíe del movimiento en línea recta a velocidad constante y, por lo tanto, con
el fin de estudiar las fuerzas, debemos definir la aceleración como se indicó
anteriormente. Por tanto, su ley no está restringida por las causas físicas que operan en
un caso particular; es aplicable a cualquier cuerpo que se mueva uniformemente en
círculo.
Fue en esta etapa cuando Newton centró su atención en los planetas. Si las órbitas se
aproximan como circulares y si expresamos la velocidad en función del radio y el
período, entonces la ley de Newton implica que la aceleración de un planeta es
proporcional a su radio orbital dividido por su período al cuadrado. Luego recordó que,
según la tercera ley de Kepler, el período al cuadrado es proporcional al radio al cubo. Al
combinar estas dos relaciones, obtuvo un resultado extraordinario: el sol ejerce una
fuerza de atracción en cada uno de los planetas, provocando aceleraciones que son
inversamente proporcionales al cuadrado de la distancia del planeta al sol.
A continuación, consideró la luna y su órbita aproximadamente circular alrededor de
la Tierra. Sabía que tal movimiento implica que la Tierra ejerce una fuerza atractiva
sobre la Luna. Como siempre buscaba conectar hechos dispares pero relacionados,
Newton pensó en preguntar: ¿Es la fuerza de atracción de la Tierra de la misma
naturaleza que la fuerza solar, es decir, causa aceleraciones que también varían como el
inverso del cuadrado de la distancia? Si la Tierra tuviera varias lunas a diferentes
distancias, entonces la pregunta podría responderse comparando las diferentes
aceleraciones. Pero solo tenemos una luna, entonces, ¿cómo podría Newton determinar
la variación de la aceleración con la distancia?
La respuesta está en el concepto mismo de aceleración. El concepto identifica una
similitud esencial entre el movimiento circular uniforme y la caída libre: un cuerpo en
movimiento circular se aleja continuamente de una trayectoria recta y acelera hacia el
centro del círculo. Así, la luna cae hacia la Tierra con una aceleración constante, al igual
que un cuerpo que cae cerca de la superficie de la Tierra. Galileo había estudiado la
caída libre terrestre, y fue esta aceleración la que Newton pudo comparar con la de la
luna. Este es un ejemplo histórico de un concepto que funciona como luz verde a la
inducción. La legendaria comparación de Newton entre la luna y la manzana que cae fue
exigida por el concepto de vector de aceleración (alcanzado inductivamente).
Se conocían las cantidades necesarias para hacer la comparación. La distancia de la
manzana al centro de la Tierra es un radio de la Tierra y la distancia a la Luna es de
sesenta radios de la Tierra. Si la aceleración varía como el inverso del cuadrado de la
distancia, entonces la aceleración de la manzana será mayor que la aceleración de la
luna por el factor (60) 2. Utilizando datos aproximados sobre la caída libre y el tamaño
de la Tierra, Newton calculó la relación de aceleraciones y encontró una concordancia
aproximada con la ley del cuadrado inverso. Así, la gravedad terrestre parecía ser la
misma fuerza que mantiene a la luna en su órbita y que el sol ejerce sobre los planetas.
El sueño de Kepler de una ciencia integrada que abarcara la física y la astronomía ya no
era simplemente un sueño; con este cálculo, se convirtió en una posibilidad real.
Este fue el nacimiento de la idea de la gravitación universal, pero estuvo lejos de ser
la prueba de ello. En esta etapa inicial, Newton tenía muchas más preguntas que
respuestas. Por ejemplo, ¿qué pasa con el hecho de que las órbitas reales son elipses, no
círculos? ¿Y cuál es la justificación para usar un radio de la Tierra como la distancia
entre la manzana y la Tierra? Gran parte de la Tierra está más cerca de la manzana y
mucho más lejos; ¿Por qué atraería la Tierra desde su centro? Además, si la gravedad es
verdaderamente universal y cada trozo de materia atrae al resto de la materia, las
implicaciones y complejidades son abrumadoras. Por ejemplo, ¿cuál es el efecto de la
atracción de la luna hacia la Tierra, o de la atracción del sol hacia la luna, o de la
atracción de un planeta hacia otros planetas? ¿Qué pasa con los cuerpos extraños como
los cometas, que se mueven de manera tan diferente?
La principal dificultad a la que se enfrentó Newton no fue que tales preguntas
estuvieran aún sin respuesta. La dificultad radicaba en que aún no se podían responder,
no sin una comprensión mucho más profunda de la relación entre fuerza y movimiento.
Una cosa es decir que es necesario empujar o tirar para cambiar la velocidad de un
cuerpo; otra hazaña es identificar la ley matemática exacta que relaciona la fuerza
externa con la aceleración del cuerpo, y otra hazaña más identificar una ley que nos dice
qué le sucede al cuerpo que ejerce la fuerza. Newton estaba empezando a desarrollar las
herramientas cognitivas que necesitaría para probar la gravitación universal.
Hemos visto cómo Newton comprendió que la velocidad de un cuerpo permanece
constante en ausencia de una fuerza externa, que es su primera ley de movimiento.
Ahora sigamos los pasos principales del razonamiento que condujeron a su segunda y
tercera leyes del movimiento.
El concepto de "fuerza" se origina a partir de sensaciones de presión que
experimentamos directamente cuando sostenemos un peso o cuando empujamos o
tiramos de un cuerpo. La fuerza tiene magnitud y dirección, y los científicos aprendieron
a medir la magnitud usando balanzas, carros de acero y escalas de resorte. El concepto
de "aceleración", por otro lado, es un desarrollo más avanzado. Fue Galileo quien explicó
por primera vez cómo se podía calcular la aceleración lineal a partir de tiempos y
distancias medidos, y ahora hemos visto el concepto expandido de un escalar a una
cantidad vectorial. En esta etapa, cuando Newton investiga la relación matemática de la
fuerza y la aceleración, ambas cantidades están claramente definidas y se pueden medir
independientemente.
Además, ya se había descubierto un hecho clave. La fuerza es directamente
proporcional a la aceleración, y esto ha sido probado por experimentos en los que se
varió la fuerza de una manera conocida y se midió la aceleración resultante. Las
investigaciones de Galileo de una bola rodando por un plano inclinado proporcionaron
los primeros experimentos de este tipo.
Galileo describió un procedimiento para medir directamente la fuerza sobre la
pelota.3Primero, dijo, sujete la bola a un peso conocido por medio de una cuerda y
coloque una polea en la parte superior del plano inclinado. Coloque la bola en el plano
inclinado con la cuerda sobre la polea y el peso colgando verticalmente. Luego ajuste el
peso hasta que equilibre exactamente la pelota; este peso es la fuerza sobre la pelota en
la dirección de su movimiento restringido hacia abajo del plano. El resultado de esta
medición es lo que cabría esperar: la fuerza sobre la pelota es simplemente el
componente de su peso en la dirección de la inclinación, es decir, es el peso de la pelota
multiplicado por la relación altura-longitud de la avión.
Por lo tanto, podemos cuadriplicar la fuerza sobre la pelota simplemente
cuadruplicando la altura del avión (manteniendo la misma longitud). Si lo hacemos,
encontramos que el tiempo de descenso es la mitad de lo que era antes, lo que implica
que la aceleración se ha cuadruplicado, es decir, ha aumentado en el mismo factor que la
fuerza. Alternativamente, usando el método de Galileo para medir la velocidad final de
la pelota (verCapitulo 2), podemos demostrar experimentalmente que la altura inicial es
proporcional al cuadrado de la rapidez final. Con un poco de álgebra, se puede
demostrar que esta relación también implica que la fuerza es directamente
proporcional a la aceleración.
El péndulo proporciona otro experimento que lleva a la misma conclusión. El
período de un péndulo cicloide es independiente de la amplitud, y se puede demostrar
matemáticamente que este hecho también implica una proporcionalidad directa entre
fuerza y aceleración. Debido a que los experimentos del péndulo y el plano inclinado
eran tan conocidos, Newton dio por sentada esta proporcionalidad y nunca se molestó
en presentar su prueba inductiva en detalle.
Por supuesto, todavía no tenía una ley de movimiento en forma de ecuación. Todavía
faltaba un concepto, y se puede sentir la frustración de Newton en algunas de sus
primeras notas. En un momento, escribió: "Así como el cuerpo A es para el cuerpo B,
también debe hacerlo el poder o la eficacia, el vigor, la fuerza o la virtud de la causa que
engendra la misma cantidad de velocidad ..."4Mientras escribía, Newton debió haberse
estado preguntando: ¿qué pasa con el cuerpo A exactamente y qué pasa con el cuerpo B?
Nadie se había formado todavía un concepto claro de "masa".
Los griegos habían propuesto que toda la materia está dotada de "pesadez" o
"ligereza". Se afirmó que los elementos tierra y agua eran intrínsecamente pesados,
mientras que el aire y el fuego son intrínsecamente ligeros. Estas propiedades fueron
consideradas como la causa del movimiento vertical natural. El concepto griego inválido
de "ligereza" era una luz roja que impedía a cualquiera descubrir que toda la materia
tiene la propiedad "masa". En 1643, Evangelista Torricelli realizó un experimento
crucial que eliminó esta luz roja del camino de la física moderna.
Torricelli trató de explicar un hecho que era bien conocido por los ingenieros de
minas: una bomba no puede levantar agua a más de diez metros por encima de su nivel
natural. La primera pregunta que se hizo Torricelli fue: ¿Por qué funciona una bomba?
En otras palabras, cuando un extremo de un tubo se inserta en el agua y el aire sale del
tubo, ¿por qué sube el agua al interior del tubo? La respuesta comúnmente aceptada fue
que "la naturaleza aborrece el vacío", pero esta respuesta implica que la ausencia de
materia en el tubo es la causa del movimiento del agua, es decir, "la nada" es
literalmente empujar el agua hacia el tubo. Para Torricelli era obvio que aquellos que
intentaron explicar el efecto haciendo referencia a la nada, de hecho, no habían
explicado nada.
En cambio, Torricelli identificó algo que explicaba el efecto: el peso del aire
presionando la superficie del agua. Cuando se elimina el aire del tubo, la atmósfera
exterior que presiona la superficie del agua empuja el agua hacia arriba del tubo. Es
similar a la acción de una palanca; el peso del aire elevará el mismo peso de agua (por
unidad de superficie). Por tanto, el peso de toda la atmósfera sobre una superficie
particular debe ser igual al peso de treinta y cuatro pies de agua sobre esa superficie.
La idea de Torricelli implicaba que la presión del aire levantaría el mismo peso de
cualquier fluido. Por ejemplo, 2,5 pies de mercurio pesan lo mismo que treinta y cuatro
pies de agua; por lo tanto, cuando se coloca un tubo de vacío en una piscina de mercurio,
el mercurio debe subir 2,5 pies por el tubo. Torricelli hizo el experimento y observó
precisamente este resultado. Tenga en cuenta que usó el método de acuerdo aquí: la
misma causa (es decir, el mismo peso de aire) conduce al mismo efecto (es decir,
aumenta el mismo peso de fluido). Experimentos posteriores de Blaise Pascal y Robert
Boyle utilizaron el método de la diferencia para llegar a la misma conclusión. Estos
experimentos demostraron que la disminución de la cantidad de aire por encima de la
superficie del fluido da como resultado una menor subida de fluido en el tubo; es decir,
a medida que eliminamos la causa, el efecto desaparece.
Por lo tanto, se demostró que incluso el aire es pesado. Contrariamente a los griegos,
no existe la propiedad de la "ligereza" absoluta. Cuando algo se eleva en el aire, lo hace
porque es menos pesado que el aire que desplaza. En otras palabras, tal elevación
"natural" se explica por el principio de flotabilidad de Arquímedes, un principio que se
aplica tanto al aire como al agua. Después del trabajo de Torricelli, los científicos
aceptaron el hecho de que toda la materia es pesada.
El siguiente paso fue aclarar el significado de "pesadez". Los griegos habían
considerado la pesadez como una propiedad intrínseca del cuerpo. Sin embargo, pesar
un cuerpo es medir la magnitud de su "empuje hacia abajo", y esto depende de algo más
que del propio cuerpo. Como hemos visto, Newton se dio cuenta de que la pesadez es
una medida de la atracción gravitacional de la Tierra y esta fuerza varía con la posición
del cuerpo en relación con la Tierra. En la década de 1670 se descubrió evidencia
adicional para esta conclusión. Dos astrónomos, Edmund Halley y Jean Richer,
descubrieron de forma independiente que los relojes de péndulo oscilan más
lentamente cerca del ecuador que en latitudes más altas, e infirieron correctamente que
las sacudidas del péndulo pesan menos cerca del ecuador. Por lo tanto, la "pesadez"
surge de tres factores: la naturaleza del cuerpo, la naturaleza de la Tierra,
Pero, ¿cuál es la propiedad del cuerpo que contribuye a su pesadez? Newton lo
identificó como la "cantidad de materia" o "masa" del cuerpo. Su razonamiento hizo uso
tanto del método de la diferencia como del método de acuerdo. Primero, consideró dos
cuerpos sólidos del mismo material, pesados en el mismo lugar. Se encuentra que sus
pesos son precisamente proporcionales a sus volúmenes, y la constante de
proporcionalidad es una característica invariante de cada material puro e
incompresible. Por tanto, el peso de un cuerpo es proporcional a su "cantidad de
materia"; al duplicar el volumen hemos duplicado la cantidad de materia y el peso se ha
duplicado (método de diferencia). En segundo lugar, Newton consideró un material
compresible como la nieve. Podemos pesar una muestra de nieve, luego comprimirla a
un volumen más pequeño y luego pesarla nuevamente.
Newton preguntó entonces cómo afecta la masa de un cuerpo a su movimiento
cuando se aplica una fuerza. Es obvio que la masa afecta el movimiento; para provocar
una aceleración particular, se requiere una fuerza mayor para una mayor cantidad de
materia (por ejemplo, empujar un automóvil requiere más esfuerzo que empujar una
bicicleta). Pero, ¿cuál es la relación exacta? Para responder a la pregunta, necesitaba un
experimento en el que la aceleración se mantenga constante mientras se varían la masa
del cuerpo y la fuerza aplicada. Newton no tuvo que buscar muy lejos para encontrar
tales experimentos; Galileo los había hecho cuando investigó la caída libre.
Desde lo alto de una torre, Galileo había dejado caer dos bolas de plomo que diferían
mucho en tamaño y peso. Supongamos que la bola más grande tiene un volumen diez
veces mayor que el de la bola más pequeña; por tanto, su cantidad de materia, o masa,
era diez veces mayor. La fuerza sobre cada bola es simplemente su peso; Al usar una
balanza o una barra de acero, podemos determinar que el peso de la bola más grande es
diez veces el peso de la bola más pequeña. Entonces, considerando la bola más grande
en relación con la bola más pequeña, hemos aumentado tanto la fuerza como la masa en
un factor de diez. Sin embargo, Galileo demostró que la aceleración de la caída libre
sigue siendo la misma. Sabemos que la aceleración es exactamente proporcional a la
fuerza, por lo que debe ser exactamente inversamente proporcional a la masa (de modo
que los factores de diez se cancelen). Este resultado concuerda con nuestra experiencia
común; implica que para un cuerpo de mayor masa se requiere una fuerza
proporcionalmente mayor para lograr una aceleración particular. Newton llegó así a su
segunda ley del movimiento: la fuerza aplicada es igual al producto de la masa del
cuerpo por su aceleración, o F = mA.
El alcance de esta generalización es impresionante. Puede parecer sorprendente que
Newton pudiera llegar a una ley fundamental tan completa a partir de las observaciones
y experimentos que se han descrito. Pero una vez que uno tiene la idea de agrupar todos
los empujones y tirones bajo el concepto de "fuerza", y de agrupar todos los cambios de
velocidad bajo el concepto de "aceleración", y de atribuir a todos los cuerpos una
propiedad llamada "masa" y de buscando una relación matemática entre estas
cantidades medidas, entonces unos pocos experimentos bien diseñados pueden dar
lugar a una ley. En esta etapa, sin embargo, la prueba de esta ley universal aún no está
completa. Depende no solo de lo anterior, sino de toda la evidencia presentada en esta
sección y la siguiente; es decir, la ley es parte de una teoría que debe evaluarse en su
conjunto.
Hemos visto cómo esta ley se basa en el principio de Galileo de que todos los
cuerpos caen con igual aceleración. Debido a que este principio era tan crucial para su
teoría del movimiento, Newton exigió que se estableciera mediante experimentos más
precisos que los de Galileo. Quería demostrar más allá de toda duda que la masa inercial
de un cuerpo —la propiedad por la cual resiste la aceleración— es exactamente
proporcional a su peso.
Newton se dio cuenta de que el péndulo proporcionaba los medios para tal
demostración experimental. Dedujo de F = mA que la masa inercial de un péndulo es
proporcional a su peso multiplicado por el período al cuadrado (asumiendo que la
longitud del péndulo se mantiene constante). Por tanto, si el período es siempre el
mismo para todas y cada una de las oscilaciones del péndulo, la masa inercial debe ser
exactamente proporcional al peso. Utilizando un recipiente pequeño como péndulo,
Newton varió tanto la masa como el material de los péndulos; llenó el recipiente con
oro, plata, vidrio, arena, sal, madera, agua e incluso trigo. Todas las sacudidas oscilaron
hacia adelante y hacia atrás con el mismo período, y realizó el experimento con tal
cuidado que fácilmente podría haber detectado una diferencia de una parte entre mil.
(El creador de la física moderna tenía pasión por la medición precisa).
Hasta ahora, Newton se había centrado en el movimiento de un cuerpo sujeto a una
fuerza aplicada. En esta etapa, centró su atención en la fuerza en sí y su origen: es
ejercida por otro cuerpo. ¿Qué le pasa a este otro cuerpo?
Para responder a la pregunta, Newton necesitaba estudiar la interacción de dos
cuerpos en condiciones en las que se conocen las fuerzas y se puede medir con precisión
el movimiento posterior de ambos. Ideó el experimento perfecto utilizando un péndulo
doble con sacudidas colisionando. Usó péndulos con una longitud de diez pies, y midió y
compensó cuidadosamente los pequeños efectos de la resistencia del aire. Varió la masa
de las sacudidas y sus amplitudes iniciales, y luego midió sus amplitudes finales después
de la colisión.
Galileo había demostrado que la velocidad de una sacudida en la parte inferior de la
oscilación es proporcional a la cuerda del arco a través del cual ha oscilado. Por tanto,
en el momento de la colisión, Newton conocía la velocidad relativa de ambas sacudidas.
Además, a partir de sus mediciones de las amplitudes finales, pudo calcular la velocidad
relativa de ambas sacudidas inmediatamente después de la colisión. Los resultados del
experimento mostraron que la masa del primer bob multiplicada por el cambio de su
velocidad es igual a la masa del segundo bob multiplicada por el cambio de su velocidad.
Dado que la fuerza ejercida sobre cada sacudida es igual al producto de su masa y su
cambio de velocidad, Newton había demostrado que las sacudidas ejercen fuerzas entre
sí que son iguales en magnitud y en dirección opuesta.
Newton realizó este experimento con péndulos de acero, vidrio, corcho e incluso
lana enrollada. En su elección de materiales, varió deliberadamente la dureza de las
sacudidas y, por lo tanto, demostró que su ley se aplicaba tanto a las colisiones elásticas
como a las inelásticas. Dado que todas las colisiones caen en una de estas dos categorías,
su generalización siguió: siempre que dos cuerpos ejercen fuerzas entre sí por medio
del contacto directo, las fuerzas son iguales en magnitud y se dirigen de manera
opuesta.
Newton luego investigó el caso de las fuerzas sin contacto, es decir, fuerzas que
actúan sobre distancias por medios imperceptibles. Colocó un imán y un poco de hierro
en un trozo de madera e hizo flotar la madera en aguas tranquilas. El imán y el hierro
estaban separados por una corta distancia y cada uno ejercía una fuerte fuerza de
atracción sobre el otro. Sin embargo, la embarcación no se movió, lo que implica que las
dos fuerzas eran de igual magnitud y se dirigían de manera opuesta, dando lugar a una
fuerza neta cero.
¿La ley también se aplica a los cuerpos que se atraen gravitacionalmente? Newton
respondió que sí y dio un argumento convincente. Dado que la Tierra atrae todos los
materiales en su superficie, era razonable suponer (y luego se probaría) que cada parte
de la Tierra atrae a todas las demás partes. Así que considere la atracción mutua, por
ejemplo, de Asia y América del Sur. Si estas dos fuerzas no fueran iguales y opuestas,
habría una fuerza neta en la Tierra como un todo y, por lo tanto, la Tierra provocaría su
aceleración. Esta autoaceleración continuaría indefinidamente y provocaría
perturbaciones en la órbita de la Tierra. Pero no se observan tales perturbaciones; por
el contrario, la aceleración de la Tierra está determinada por su posición en relación con
otros cuerpos (principalmente el sol). Por lo tanto, las fuerzas de atracción mutuas
ejercidas por dos partes de la Tierra deben ser iguales y opuestas.
En este punto, Newton había demostrado que su ley se aplica a las fuerzas
gravitacionales, las fuerzas magnéticas, las colisiones elásticas y las colisiones
inelásticas, es decir, reunió evidencia sobre el rango de fuerzas conocidas y no encontró
excepciones. Había llegado así a su tercera ley del movimiento: todas las fuerzas son
interacciones de dos cuerpos, y los cuerpos siempre ejercen fuerzas entre sí que son
iguales en magnitud y en dirección opuesta.
Al considerar un solo cuerpo, el concepto “velocidad” identificaba aquello que
permanecía igual en ausencia de una fuerza externa (esta es la primera ley). En el caso
de dos cuerpos que interactúan, Newton identificó una "cantidad de movimiento" total
que permanece igual antes y después de la interacción. Esta cantidad, que ahora
llamamos "momento", es el producto de la masa de un cuerpo y su velocidad. La tercera
ley de Newton implica que la cantidad de movimiento total de dos cuerpos que
interactúan siempre permanece igual, siempre que no exista una fuerza externa.
Además, este principio de "conservación del impulso" se aplica incluso a un sistema
complejo de muchos cuerpos que interactúan; dado que es cierto para cada interacción
individual, también es cierto para la suma.
Después de formar el concepto de "impulso", Newton podría dar una formulación
más general de su segunda ley. En su forma final, que es aplicable a un cuerpo o sistema
de cuerpos, la ley establece que la fuerza externa neta es igual a la tasa de cambio del
momento total. Esta forma de la ley se puede aplicar de manera sencilla a casos más
complejos (por ejemplo, imagine dos cuerpos que chocan y explotan en muchos
cuerpos).
Newton reconoció que sus tres leyes del movimiento están íntimamente
relacionadas. Hemos visto que la tercera ley prohíbe la autoaceleración de la Tierra,
pero observe que tal fenómeno también está prohibido por la primera y segunda leyes,
que identifican la causa de la aceleración como una fuerza externa. Dado el hecho de que
las fuerzas son interacciones de dos cuerpos, la coherencia con la segunda ley exige que
estas interacciones se ajusten a la tercera ley. Las leyes nombran aspectos relacionados
de una teoría integrada del movimiento; de hecho, cuando se da a la segunda ley su
formulación general, tanto la primera como la tercera pueden considerarse sus
corolarios. Por lo tanto, las leyes se refuerzan mutuamente y, por lo tanto, la evidencia
experimental de la tercera ley también cuenta como evidencia de la segunda ley.
He esbozado los principales pasos mediante los cuales Newton indujo sus leyes del
movimiento. En su declaración final, las leyes parecen engañosamente simples. Pero
ahora podemos apreciar que están muy lejos de ser evidentes. Para alcanzarlos, Newton
necesitaba conceptos complejos de alto nivel que no existían antes del siglo XVII,
conceptos como "aceleración", "límite", "gravedad", "masa" y "momento". Necesitaba
una variedad de experimentos que estudiaran la caída libre, el movimiento en plano
inclinado, péndulos, proyectiles, presión de aire, péndulos dobles e imanes flotantes. Se
basó en las observaciones que habían llevado a la teoría heliocéntrica del sistema solar,
en la experiencia de tirar hacia adentro para hacer oscilar un cuerpo en un círculo, en
las observaciones que determinaban la distancia a la luna, en los instrumentos
inventados para medir. fuerza, e incluso sobre el conocimiento químico de cómo
purificar materiales (ya que esto jugó un papel en la formación del concepto "masa").
Sus leyes se aplican a todo lo que observamos en movimiento, y las indujo a partir de
conocimientos que abarcan esa enorme base de datos.
Sin embargo, durante el siglo pasado, algunos filósofos, físicos e historiadores de la
ciencia han afirmado que las leyes del movimiento no son realmente leyes en absoluto;
más bien, son meras definiciones aceptadas por convención. Este punto de vista se
deriva de la filosofía empirista y fue famoso por Ernst Mach. 5Los empiristas consideran
la segunda ley como una definición conveniente del concepto "fuerza", que
supuestamente no tiene ningún significado excepto como un nombre para el producto
de masa y aceleración; de manera similar, argumentan que la tercera ley equivale a una
definición conveniente de "masa". Quienes defienden tales puntos de vista se han dejado
la incómoda tarea de responder algunas preguntas obvias. ¿Por qué una definición
particular es "conveniente", mientras que cualquier definición alternativa sería
cognitivamente desastrosa? ¿Qué pasa con las fuerzas estáticas que existen y se pueden
medir en ausencia de aceleración? ¿Cómo es posible que el concepto "fuerza" se haya
formado milenios antes que los conceptos "masa" y "aceleración"? No se han recibido
respuestas de los discípulos de Mach.
Newton no anticipó el escepticismo que se volvió desenfrenado en la era post-
kantiana. Consideró obvio el hecho de que las leyes del movimiento son verdades
generales alcanzadas por inducción y, por lo tanto, no se desvió de su camino para
enfatizar el punto. De hecho, consideraba que las leyes del movimiento no eran
controvertidas, razón por la cual su discusión sobre ellas en los Principia es tan concisa.
Veía estas leyes como el medio para su fin, no como el fin en sí mismo. Las leyes nos
permiten razonar desde los movimientos observados hasta las fuerzas que los causan, y
luego razonar desde estas fuerzas conocidas hasta todos sus diversos efectos. Como dijo
Newton, "[E] l todo el peso de la filosofía parece consistir en esto: desde los fenómenos
de los movimientos para investigar las fuerzas de la naturaleza, y luego desde estas
fuerzas para demostrar los otros fenómenos".6 Aclaró su significado al proporcionar un
ejemplo a gran escala de este programa.

El descubrimiento de la gravitación universal


Los Principia presentan un argumento largo y complejo a favor de la ley de la
gravitación universal. Hoy en día, la ley misma es familiar para cualquier persona
educada. Sin embargo, el argumento de Newton y sus implicaciones epistemológicas son
menos familiares. Esbozaré los pasos de su razonamiento en esta sección y discutiré
algunas de las implicaciones en la siguiente.
Newton comenzó por inferir la naturaleza de la fuerza solar a partir de las leyes del
movimiento planetario de Kepler. Por supuesto, este había sido el objetivo de Kepler,
pero sin una comprensión de la dinámica y sin el método del cálculo diferencial, había
sido inalcanzable. Tres cuartos de siglo después, Newton tenía las herramientas
adecuadas para el trabajo.
Su primer paso fue probar un resultado que inicialmente es algo sorprendente: la ley
del área de Kepler es cierta incluso en ausencia de una fuerza. Usando trigonometría,
Newton demostró que una línea desde cualquier punto fijo a un cuerpo que se mueve
con velocidad constante barrerá áreas iguales en tiempos iguales. Así que
inmediatamente estableció una conexión entre su dinámica y la teoría planetaria de
Kepler: el movimiento inercial se ajusta a la ley del área. Solo a partir de este resultado,
quedó claro que esta ley tiene una amplia aplicación más allá del movimiento
planetario.
En su siguiente paso, Newton asumió que el cuerpo está sujeto a una serie de fuerzas
de impacto que siempre se dirigen hacia un punto fijo. Mostró que la ley del área
también es válida para este caso. Luego dejó que el intervalo de tiempo entre estos
impactos se acercara a cero y, por lo tanto, demostró que la ley de Kepler es válida para
cualquier fuerza continua que siempre se dirija a lo largo de la línea que conecta el
cuerpo con algún punto fijo (tales fuerzas se denominan "fuerzas centrales"). No
importa cómo varía la fuerza con la distancia, o si es atractiva o repulsiva. Siempre que
la fuerza no tenga un componente tangencial (o lateral), la ley del área es válida.
Entonces, la ley del área nos dice la dirección de la fuerza solar, pero no contiene
información sobre la magnitud. Fue la ley de Kepler de las órbitas elípticas la que
permitió a Newton demostrar que la magnitud de la fuerza solar varía como el inverso
del cuadrado de la distancia. Aquellos que estudien los detalles de esta demostración
quedarán impresionados por el genio matemático de Newton. Para nuestros propósitos,
sin embargo, podemos pasar por alto estos detalles y simplemente identificar los
elementos esenciales de la prueba.
Primero, la fuerza solar está relacionada con la aceleración del planeta por la
segunda ley de movimiento de Newton. En segundo lugar, para cualquier intervalo de
tiempo corto durante el cual la aceleración puede considerarse constante, Galileo dio la
ley que relaciona la aceleración con el intervalo de tiempo y con la distancia a la que cae
el cuerpo (en este caso, la "caída" del planeta es su alejamiento desde un camino recto y
hacia el sol). En tercer lugar, la ley del área de Kepler permitió a Newton reemplazar los
intervalos de tiempo con áreas, transformando así un problema de dinámica en un
problema de geometría. Finalmente, ciertos teoremas sobre elipses (descubiertos en la
antigüedad por Apolonio) permitieron a Newton relacionar la pequeña distancia que el
planeta “cae” durante el intervalo con otras distancias que definen su ubicación en la
elipse. Por lo tanto, tenía todas las piezas que necesitaba: Conocía la relación entre
fuerza y aceleración, y podía expresar la aceleración en términos de las propiedades
geométricas de la elipse. Al final, esta complejidad matemática condujo a un resultado
simple: el sol ejerce una fuerza de atracción sobre los planetas que varía como el
cuadrado inverso de la distancia.
Al igual que con la ley del área, Newton reconoció que la ley de las órbitas elípticas
es un caso especial de una verdad más general. Las propiedades geométricas que
Newton había utilizado no son exclusivas de las elipses; son propiedades generales de
las secciones cónicas, es decir, también se aplican a parábolas e hipérbolas. Por lo tanto,
la fuerza solar no necesariamente hará que un cuerpo se mueva en una órbita elíptica; el
camino puede ser una parábola o una hipérbola en su lugar. En general, una fuerza de
atracción del cuadrado inverso hace que un cuerpo se mueva en una sección cónica; la
sección cónica particular está determinada por la posición inicial y la velocidad del
cuerpo. Si las condiciones iniciales son tales que el cuerpo es capturado por el campo
gravitacional del sol, entonces la órbita será una elipse (o un círculo). Sin embargo, si la
velocidad del cuerpo es demasiado grande, luego pasará a través de nuestro sistema
solar en un camino parabólico o hiperbólico. Newton presentó los detalles, mostrando
cómo calcular la trayectoria de un cuerpo a partir de cualquier conjunto de condiciones
iniciales.
Finalmente, Newton consideró la tercera ley de Kepler. Para una órbita elíptica,
mostró que esta relación entre el período orbital y el radio mayor se deriva de la
naturaleza de la fuerza solar. En la prueba, usó todos los hechos que habían entrado en
su prueba de la ley del cuadrado inverso, además usó la ley del cuadrado inverso en sí y
la conocida expresión para el área de una elipse. Aquí vemos otro ejemplo más de una
conexión asombrosa establecida por medio de las matemáticas. No hay forma de
adivinar que el período orbital es proporcional a la potencia de tres mitades del radio
mayor y que es completamente independiente del radio menor. Este hecho está
implícito en las premisas del argumento de Newton, pero se requieren matemáticas
avanzadas para hacer la deducción.
Este análisis matemático tuvo otra implicación: mostró que la tercera ley de Kepler
no es exacta. En su prueba, Newton asumió que el sol no se acelera. Sin embargo, su
tercera ley del movimiento implica que el planeta ejerce una fuerza igual y opuesta
sobre el sol, lo que hace que se mueva en una órbita muy pequeña alrededor del centro
de masa de los dos cuerpos. Newton demostró que este efecto conduce a una ligera
modificación de la tercera ley de Kepler; la corrección, mostró, depende de la relación
entre la masa del planeta y la masa del sol. En el caso de Júpiter, el planeta más masivo,
la magnitud de esta corrección es aproximadamente una parte en mil.
Newton indujo la naturaleza de la fuerza solar a partir de las leyes de Kepler y, en el
proceso, obtuvo una comprensión mucho más profunda de esas leyes. Demostró que la
ley del área se aplica a dos cuerpos que se atraen o se repelen; que la ley de las órbitas
elípticas se puede ampliar a una ley de las secciones cónicas que describen los
movimientos de dos cuerpos cualesquiera que se atraen mediante una ley del cuadrado
inverso; y que la tercera ley de Kepler es casi cierta porque la masa del sol es mucho
mayor que la masa de los planetas.
En el análisis de Newton, podemos ver tres aspectos interrelacionados del poder de
las matemáticas. Primero, las matemáticas nos permiten descubrir nuevos hechos
(como la ley de la gravitación) al derivar implicaciones adicionales de lo que ya se
conoce. En segundo lugar, conecta hechos conocidos (como las leyes de Galileo y Kepler)
que de otro modo se distinguirían sin ninguna relación. En tercer lugar, proporciona
una visión crucial del dominio sobre el que es válida una generalización, al aclarar de
qué depende la generalización y de qué no depende (como vimos en el caso de las leyes
de Kepler).
Después de inferir la atracción del cuadrado inverso del sol a partir de los
movimientos planetarios observados, Newton investigó las leyes de la fuerza que se
pueden inferir de otros tipos de movimiento. Por ejemplo, consideró los círculos
excéntricos que los astrónomos habían utilizado desde la antigüedad. Demostró que la
fuerza necesaria para producir tal movimiento es físicamente absurda; la fuerza de
atracción ejercida por el sol en un planeta tendría que depender no solo de dónde está
el planeta, sino también de dónde estará en un momento posterior. Por lo tanto, incluso
en los casos en que dicho modelo es consistente con los datos disponibles, se descarta
porque viola la ley de causalidad.
Curiosamente, Newton demostró que una fuerza de atracción proporcional a la
distancia causaría una órbita elíptica. En este caso, sin embargo, el sol debe estar en el
centro y no en el foco de la elipse. Además, todos los planetas girarían alrededor del sol
con el mismo período, en marcado contraste con las observaciones. Newton consideró
entonces el caso de una fuerza solar atractiva en forma de cubo inverso y mostró que la
órbita resultante sería una espiral con un ángulo constante entre el radio y el vector de
velocidad.
El más importante de estos "casos contrafácticos" que Newton analizó fue el de una
fuerza cuadrada inversa con un pequeño término de cubo inverso agregado. Aquí
demostró que las órbitas resultantes podían obedecer las leyes de Kepler en una
aproximación muy cercana. Sin embargo, Newton aún pudo identificar una diferencia
entre estas órbitas y las realmente observadas. Cuando se agrega un término de cubo
inverso pequeño, el eje mayor de la elipse no permanece fijo en el espacio; en cambio,
gira lentamente a una velocidad que depende de la magnitud del término inverso del
cubo.
Newton no estaba simplemente flexionando sus músculos matemáticos en este
cálculo. Se dio cuenta de que si la idea de la gravitación universal es correcta, entonces
las órbitas planetarias no son exactamente elípticas; El movimiento de un planeta se
verá ligeramente perturbado por cuerpos distintos al sol. Además, era muy consciente
del hecho de que siempre estamos razonando a partir de datos de precisión limitada. Si
bien ya había demostrado que una órbita exactamente elíptica implica una fuerza solar
que es exactamente el cuadrado inverso, no se sigue necesariamente que una órbita
aproximadamente elíptica implique tal fuerza solar. Newton fue cauteloso al hacer tales
inferencias, por lo que decidió investigar los efectos de una desviación de la ley del
cuadrado inverso. Al demostrar que incluso una pequeña desviación cambiaría las
órbitas planetarias de una manera que contradice las observaciones,
En esta etapa, Newton centró su atención en otros cuerpos además del sol. Galileo
había descubierto cuatro lunas en órbita alrededor de Júpiter, y más tarde Christian
Huygens y Gian Cassini habían descubierto cinco lunas en órbita alrededor de Saturno.
Debido a que los astrónomos habían realizado notables mejoras en el diseño de
telescopios, Newton tenía datos precisos sobre estas órbitas lunares. Descubrió que las
leyes de Kepler se aplicaban tanto a estas lunas como a los planetas. Lo más
impresionante es que demostró que para ambos conjuntos de lunas el período orbital al
cuadrado era precisamente proporcional al radio orbital al cubo. De ello se deduce que
Júpiter y Saturno atraen sus lunas con el mismo tipo de fuerza inversa al cuadrado que
ejerce el sol sobre los planetas.
Newton también citó evidencia de que los planetas se atraen entre sí. Los
astrónomos habían notado que hay alteraciones en la órbita de Saturno cuando está en
conjunción con Júpiter. Por supuesto, la idea de la gravitación universal explica tales
perturbaciones. Júpiter es el más masivo de los planetas y, en su punto de mayor
aproximación, ejerce una atracción significativa sobre Saturno. Newton identificó una
forma sencilla de mejorar el modelo de la órbita de Saturno: el foco de la elipse debe
colocarse en el centro de masa Sol-Júpiter, en lugar del sol mismo. De esta manera,
Newton redujo los errores máximos en la posición angular de Saturno a solo dos
minutos de arco.
Finalmente, el enfoque de Newton volvió a la Tierra y al origen de su gran idea. Una
vez más, calculó las aceleraciones relativas de la luna y la manzana. En el cálculo
aproximado que había realizado muchos años antes, había habido una discrepancia de
alrededor del 10 por ciento con la ley del cuadrado inverso. Ahora estaba preparado
para eliminar las suposiciones, las aproximaciones, las inexactitudes en los datos, y para
ver si la atracción de la Tierra realmente variaba exactamente como el cuadrado inverso
de la distancia.
En su cálculo original, Newton había utilizado un radio de la Tierra como la distancia
entre la manzana y la Tierra. Esto equivale a suponer que la Tierra esférica se atrae
como si toda su masa estuviera en el centro. Pero, ¿por qué atraería de esta manera? La
gravitación universal implica que cada trozo de materia está tirando
independientemente de la manzana hacia él, con una fuerza que es inversamente
proporcional al cuadrado de su distancia a la manzana. Parece casi milagroso que todos
estos tirones independientes de cada parte de la Tierra sean exactamente iguales a la
masa total de la Tierra que se extrae del centro. Sin una prueba matemática, Newton no
estaba dispuesto a creerlo.
Hoy en día, con todo el poder del cálculo integral disponible, cualquier estudiante
competente de física puede realizar esta prueba. Fue más desafiante para Newton, pero
lo logró al construir una prueba geométrica muy inteligente que aprovechó al máximo la
simetría de la esfera. La Tierra atrae desde su centro, mostró, si y solo si la fuerza de
atracción varía como el cuadrado inverso de la distancia y la densidad de masa de la
Tierra depende solo de la distancia desde el centro.
Anteriormente, su uso de un radio terrestre para la distancia a la manzana había
sido una suposición dudosa; ahora, con su prueba matemática, lo exigía la idea de la
gravitación universal. El radio de la Tierra se había medido con precisión y el valor que
usó Newton era muy cercano al aceptado hoy. Para la distancia a la luna, Newton revisó
cuidadosamente las medidas independientes de varios investigadores y adoptó sesenta
radios terrestres como el mejor valor disponible. Entonces, si la atracción de la Tierra
varía de la misma manera que la atracción de Júpiter y Saturno y el sol, entonces la
aceleración de la luna multiplicada por (60) 2 debería ser igual a la aceleración de la
manzana.
El período de la órbita de la luna se conocía con mucha precisión. Dado que la órbita
es casi circular, Newton podría usar su ley de aceleración circular (como lo había hecho
años antes). Sin embargo, esta vez agregó una pequeña corrección para la atracción del
sol, que disminuyó ligeramente (en una parte en 179) su estimación de la aceleración
causada por la Tierra. También estimó el efecto menor del tirón recíproco de la luna
sobre la Tierra. Cuando por fin llegó a su respuesta final y lo multiplicó por (60) 2, su
valor predicho para la aceleración gravitacional en la superficie de la Tierra era 32,2
pies / seg2. Años antes, Huygens había utilizado péndulos para medir esta aceleración
con mucha precisión. El valor medido coincidió con el valor calculado de Newton: fue de
32,2 pies / seg2.
Tenga en cuenta que sería inválido si Newton se hubiera limitado a decir: “La luna
cae hacia la Tierra; la manzana cae hacia la Tierra; por tanto, la causa es la misma en
ambos casos ”. A veces, diferentes causas pueden conducir a efectos cualitativamente
similares (por ejemplo, un imán con carga eléctrica en su superficie atraerá tanto
limaduras de paja como de hierro, pero por diferentes razones). Sin embargo, cuando
Newton demuestra que la luna y la manzana caen a tasas que están precisamente de
acuerdo con una fuerza que varía como el cuadrado inverso de la distancia desde el
centro de la Tierra, entonces no puede haber duda de que la misma causa está en juego.
Una vez que Newton demostró que la atracción entre los cuerpos celestes es la
fuerza familiar de la gravedad terrestre, todo lo que se sabía sobre la gravedad en la
Tierra era aplicable a la fuerza celeste. Por lo tanto, la prueba experimental de que la
gravedad terrestre es proporcional a la masa también sirve como prueba de que la
fuerza de atracción de cualquier cuerpo celeste es proporcional a su masa. Además,
según la tercera ley de Newton, la interacción gravitacional debe depender de la masa
de ambos cuerpos atrayentes de la misma manera. Así Newton llegó a la ley completa de
la gravitación: la fuerza varía directamente como el producto de las masas e
inversamente como el cuadrado de la distancia entre ellas.
Con el fin de comparar la aceleración de la luna con la de la manzana, Newton podría
aproximar la órbita de la luna como circular sin introducir ningún error significativo. La
órbita se puede modelar con mayor precisión, por supuesto, como una elipse. Sin
embargo, los datos de observación de los astrónomos demostraron que la órbita de la
luna es bastante compleja; no obedece precisamente a las leyes de Kepler. La razón de
las anomalías en la órbita es la atracción gravitacional del sol; la distancia entre la luna y
el sol difiere ligeramente de la distancia entre la Tierra y el sol, y esto provoca una
pequeña aceleración relativa entre la luna y la Tierra.
Newton hizo un enorme esfuerzo para explicar las anomalías lunares. Partiendo del
hecho de que la atracción gravitacional del sol varía como el cuadrado inverso de la
distancia, mostró que las aceleraciones perturbadoras causadas por el sol varían como
el cubo inverso. Ya hemos visto que tal fuerza hace que el eje mayor de la órbita gire; a
partir de la magnitud del término, Newton pudo explicar la rotación de tres grados por
mes en la órbita de la luna que habían observado los astrónomos. También explicó las
variaciones en la excentricidad de la órbita, el movimiento de los puntos en los que la
luna cruza el plano de la eclíptica y las variaciones anuales de estas anomalías. Su
análisis proporcionó una evidencia muy impresionante de la ley de la gravitación
universal; además de explicar las leyes de Kepler,
Newton continuó explotando la luna cuando centró su atención en las mareas del
océano. La correlación de las mareas con la posición de la luna había sido notada por los
primeros exploradores griegos que se aventuraron en el Océano Atlántico. Sin embargo,
antes de la formación del concepto de "gravedad", la idea de que la luna podía influir en
nuestros mares a menudo se descartaba como equivalente a la creencia en la magia. Los
descubrimientos de Newton provocaron un cambio radical al identificar la causa física
y, por lo tanto, dejar en claro que tal influencia era una consecuencia necesaria de las
leyes naturales.
Las mareas oceánicas son causadas por el hecho de que la luna no atrae a todas las
partes de la Tierra por igual. El lado de la Tierra más cercano a la luna se atrae un poco
más que el centro de la Tierra (tirando de él hacia la luna), mientras que el lado opuesto
de la Tierra se atrae menos que el centro (dejándolo más lejos de la luna). Esto hace que
los océanos se abulten en ambos lados, dando lugar a mareas altas. Las protuberancias
están fijas con respecto a la luna, pero la rotación diaria de la Tierra hace que las mareas
suban y bajen en cualquier lugar en particular. Si la luna estuviera estacionaria, el
tiempo entre mareas altas sería de doce horas; El movimiento de la luna aumenta este
intervalo de tiempo a 12,5 horas. Newton señaló que el sol también causa las mareas
oceánicas, pero mostró que el efecto del sol es menos de un tercio del de la luna.
Pudo explicar todas las características principales de las mareas. Las mareas son
mayores cuando coinciden las mareas lunares y solares, y esto sucede cuando la luna
está en oposición o en conjunción con el sol (es decir, cuando la luna está llena o nueva).
Durante las medias lunas, las mareas son menores porque el sol anula parcialmente el
efecto de la luna. Explicó las variaciones observadas en las mareas que son causadas por
variaciones en la distancia al sol, en la distancia a la luna y en la inclinación de la luna
con respecto al ecuador. Además, analizó el efecto de marea inversa en la luna causado
por la atracción de la Tierra. Esta atracción da lugar a protuberancias de casi treinta
metros en los lados cercano y lejano de la luna. Newton señaló que el tirón de la Tierra
sobre estos bultos de marea explica por qué el mismo lado de la Luna siempre mira
hacia la Tierra.
Las mareas afectan la forma de la Tierra elevando nuestros océanos en apenas diez
pies (como máximo). Newton se dio cuenta de que su dinámica implicaba otro efecto
sobre la forma de la Tierra que es mucho mayor en magnitud. Si la materia de la Tierra
es (o alguna vez fue) suficientemente móvil, entonces la rotación diaria de la Tierra hará
que se abulte en el ecuador y se aplana en los polos. Este debe ser el caso, ya que de lo
contrario la materia móvil se trasladaría al ecuador y el desierto del Sahara estaría en el
fondo de un océano muy profundo. Dada la velocidad a la que gira la Tierra y algunas
suposiciones sobre la distribución de masa dentro de la Tierra, Newton podría usar sus
leyes de movimiento y gravitación para calcular el tamaño del abultamiento ecuatorial.
Por supuesto, no había datos disponibles sobre la variación de la densidad de masa
dentro de la Tierra. Newton decidió realizar el cálculo utilizando una densidad
constante, aunque señaló explícitamente que el desconocimiento de este factor
provocaba cierta incertidumbre en el resultado. Estimó que el radio ecuatorial excedía
el radio polar en diecisiete millas, lo que está razonablemente cerca de la diferencia real
de trece millas. Por lo tanto, la Tierra es un esferoide achatado en lugar de una esfera, y
el tamaño del efecto es tal que debería haber consecuencias observables.
De hecho, los científicos ya habían observado algunas de las consecuencias.
Recordemos, por ejemplo, que se descubrió en la década de 1670 que los relojes de
péndulo oscilaban más lentamente cerca del ecuador que en París o Londres. Newton
explicó que las sacudidas del péndulo se mueven más lentamente en el ecuador por dos
razones: la fuerza gravitacional es más débil porque están más lejos del centro de la
Tierra, y su aceleración se reduce aún más por el efecto centrífugo de la rotación de la
Tierra. Demostró que la expresión matemática del peso de un cuerpo terrestre contiene
un pequeño término variable que es proporcional al cuadrado del seno de la latitud, y su
análisis tuvo en cuenta los cambios observados en las frecuencias del reloj.
La evidencia adicional de la teoría de Newton provino de las observaciones de
Júpiter. Los astrónomos habían descubierto que el radio ecuatorial de Júpiter es mayor
que su radio polar en aproximadamente una parte en trece. Al observar las manchas en
Júpiter, sabían la velocidad a la que giraba el gran planeta. Newton calculó su
abultamiento ecuatorial y su resultado estuvo cerca del valor medido. Estaba
demostrando el poder explicativo de su dinámica en una escala cada vez mayor.
El cálculo de Newton de la forma de la Tierra le permitió aclarar otro misterio, que
había dejado perplejos a los astrónomos durante dieciocho siglos. En el siglo II a. C.,
Hiparco descubrió que las estrellas se mueven de una manera peculiar. Además de la
aparente rotación diaria, el centro de esta rotación celeste (es decir, la ubicación de la
"estrella del norte") también se mueve lentamente en un pequeño círculo. Dada la teoría
heliocéntrica, esto implica una precesión del eje de rotación de la Tierra, es decir, el eje
barre un cono tal como podemos observar en el caso de una peonza. Las leyes del
movimiento y la gravitación de Newton explicaron este efecto. La luna y el sol atraen la
masa del abultamiento ecuatorial de la Tierra, provocando un par que mueve el eje de
rotación de la Tierra en un cono con un radio angular de veintitrés grados (igual al
ángulo entre el plano del ecuador y el de la eclíptica). El par es pequeño y, por tanto, la
precesión es muy lenta. Newton calculó cuidadosamente la atracción gravitacional
sobre el abultamiento ecuatorial y calculó la tasa de precesión. Llegó a un valor cercano
al medido por los astrónomos, que habían determinado que el eje de la Tierra completa
una revolución en unos veintiséis mil años. Con casi cada vuelta de página en los
Principia, se explicaba otro fenómeno. que había determinado que el eje de la Tierra
completa una revolución en unos veintiséis mil años. Con casi cada vuelta de página en
los Principia, se explicaba otro fenómeno. que había determinado que el eje de la Tierra
completa una revolución en unos veintiséis mil años. Con casi cada vuelta de página en
los Principia, se explicaba otro fenómeno.
Los Principia fueron una demostración de tour de force de la inteligibilidad del
universo. El gran final de esta demostración fue el análisis de Newton de los cometas,
los objetos misteriosos y previamente impredecibles que eran ampliamente
considerados como signos de la ira de Dios. Newton disipó esos temores al demostrar
que los cometas están regidos por la fuerza de la gravitación, no por un Dios
temperamental.
Los astrónomos habían recopilado datos precisos sobre los movimientos de un
cometa que había aparecido en 1680 (observado por primera vez por Gottfried Kirch).
Newton analizó estos datos con mucho cuidado y concluyó que el cometa se movía en
una elipse extremadamente alargada. Se observó que su velocidad cambiaba
rápidamente, pero siempre en perfecta conformidad con la ley de área de Kepler. La
órbita está inclinada en un ángulo de sesenta y un grados con el plano de la órbita de la
Tierra. El cometa se acerca mucho al sol cada 575 años y su distancia máxima del sol es
138 veces mayor que la distancia media entre la Tierra y el sol. Difícilmente se puede
imaginar una órbita que difiera más dramáticamente de las órbitas planetarias, sin
embargo, Newton demostró que el cometa se mueve de acuerdo con las mismas leyes.
Sacó la única conclusión posible: "La teoría que corresponde justamente con un
movimiento tan desigual,7
Se observó otro cometa a finales de 1682. El amigo de Newton, Edmund Halley,
procesó los datos y calculó la órbita. Mostró que el cometa se acerca dentro de la órbita
de Venus cada setenta y cinco años, su distancia máxima del sol es aproximadamente
treinta y cinco veces mayor que la distancia Tierra-sol, y la órbita está inclinada
dieciocho grados con respecto al plano. de la órbita de la Tierra. Halley predijo que el
cometa volvería a aparecer en 1758, y regresó casi exactamente según lo programado,
retrasado solo ligeramente por la influencia de Júpiter.
La ley de la gravitación universal integró y explicó diversas observaciones a una
escala sin precedentes. Aun así, hubo científicos que encontraron los Principia
insatisfactorios. Plantearon la misma crítica que habían dirigido anteriormente a la
teoría de los colores de Newton. Nuevamente, se quejaron, Newton no había podido
identificar la primera causa. En el fondo, cargaron, sus explicaciones eran vacías porque
no había explicado los medios físicos por los que los cuerpos se atraen entre sí. 8
Esta crítica se deriva de la idea de que debemos deducir el conocimiento de las
"primeras causas" en lugar de inducirlo a partir de la experiencia. Los oponentes de
Newton no podían comprender que el conocimiento se adquiere comenzando con
observaciones y procediendo paso a paso hasta el descubrimiento de las causas y,
finalmente, al descubrimiento de las causas fundamentales. Querían comenzar con las
primeras causas y deducir de ellas toda la ciencia de la física. Newton sabía que este
método racionalista conducía a la indulgencia de la fantasía, no al conocimiento
científico. Al responder a sus críticos, repitió el punto que había señalado años antes:
No he podido descubrir la causa de esas propiedades de la gravedad a partir de los
fenómenos y no formulo hipótesis; porque todo lo que no se [infiere] de los fenómenos
debe llamarse hipótesis, y las hipótesis ... no tienen lugar en la filosofía experimental. En
esta filosofía, las proposiciones particulares se infieren de los fenómenos y luego se
generalizan por inducción. Así fue como ... se descubrieron las leyes del movimiento y la
gravitación. Y a nosotros nos basta con que la gravedad realmente exista y actúe de
acuerdo con las leyes que hemos explicado, y sirva abundantemente para explicar todos
los movimientos de los cuerpos celestes y de nuestro mar. 9
Los científicos que siguen el método racionalista intentan evitar el proceso de
descubrimiento. Utilizando nada más que imaginación y deducción, fabrican ciencias
enteras, sin descubrir ningún conocimiento y sin dejar preguntas sin respuesta. El
método inductivo de Newton conduce al resultado opuesto: un contexto de
conocimiento enormemente ampliado, y cada descubrimiento da lugar a más preguntas.
Hoy en día, la negativa de Newton a especular sobre un mecanismo subyacente de
atracción gravitacional a veces se malinterpreta de una manera que le habría resultado
inconcebible. Los empiristas modernos, en un esfuerzo por reclamar a Newton como
uno de los suyos, argumentan que defendía un enfoque descriptivo y no causal de la
física.10Pero Newton no era escéptico. Junto con las leyes del movimiento, la ley de la
gravitación es el arquetipo mismo de una ley causal: establece una relación necesaria
entre una propiedad de una entidad (masa) y su acción. A lo largo de los Principia,
Newton se centró en identificar relaciones causales.
El libro final de los Principia se titula apropiadamente "El sistema del mundo".
Newton había heredado una gran cantidad de conocimientos de sus predecesores, pero
era un conocimiento que consistía en leyes independientes pertenecientes a ciencias
distintas. Newton indujo las relaciones causales fundamentales que conectaban este
conocimiento en un todo sistemático. Con este logro, la ciencia de la física alcanzó la
madurez.
Aquí vemos el resultado del método inductivo en todo su esplendor.

El descubrimiento es una prueba


El "problema de la inducción" generalmente se plantea de una manera que parece
excluir una solución. Se describe como el problema de justificar un “salto” inductivo de
unas pocas observaciones a una verdad universal. Luego se pregunta: ¿Cómo podemos
estar seguros de una conclusión que trasciende la evidencia de esta manera?
Esta perspectiva está extrañamente separada del proceso de descubrimiento real
que culminó en las leyes del movimiento y la gravitación de Newton. En los últimos tres
capítulos, hemos seguido el razonamiento que condujo a estas leyes y, sin embargo, no
hemos encontrado ningún paso que pueda describirse razonablemente como "saltos"
más allá de la evidencia. Por el contrario, cada nuevo paso se deriva de la evidencia,
dado el contexto previo de conocimiento. Así que ahora la pregunta es: ¿Cómo lograron
los científicos llegar a leyes universales sin dar saltos ilógicos?
Gran parte de la respuesta radica en la objetividad de los propios conceptos. Cuando
el concepto de "fuerza" se amplió para incluir empujones y tirones ejercidos a lo largo
de una distancia por medios imperceptibles, esto no se hizo de forma arbitraria; fue
necesario por observaciones de fenómenos eléctricos y magnéticos. De manera similar,
no hubo nada arbitrario en la expansión del concepto "aceleración" para incluir cambios
en la dirección de un cuerpo, así como en su velocidad; esto era necesario para
distinguir el movimiento causado por una fuerza del movimiento que puede ocurrir en
ausencia de fuerza. Los conceptos de "fuerza" y "aceleración" permitieron identificar
que tanto el sol como la Tierra ejercían una fuerza de atracción de la misma naturaleza,
denotada por el concepto de "gravitación". Este concepto, a su vez, permitió identificar
que el peso es una medida de la fuerza gravitacional, y se hizo necesario aislar la
propiedad de los cuerpos que causa esta fuerza; Luego, los experimentos determinaron
que el peso y la inercia de un cuerpo son proporcionales a su "cantidad de materia" o
"masa".
Asimismo, no hubo nada arbitrario en el razonamiento que identificó las conexiones
causales que estos conceptos hicieron accesibles. Las variables se aislaron y midieron
sistemáticamente en una serie de experimentos que incluyeron caída libre, planos
inclinados, péndulos y péndulos dobles. Cuando Newton anunció sus leyes matemáticas,
había estudiado las fuerzas mecánicas, gravitacionales e incluso magnéticas; había
estudiado masas que variaban en magnitud desde la de un guijarro hasta la del sol, e
incluían una amplia variedad de materiales diferentes; había estudiado movimientos
que variaban en velocidad desde una sacudida que se balanceaba lentamente al final de
un péndulo largo hasta un cometa que cruzaba el cielo nocturno, y variaban en forma de
lineal a circular, de parabólico a elíptico. Por lo tanto, las leyes fueron verdaderamente
integraciones de datos, no actos de fe.
Un riguroso proceso de lógica inductiva permitió a Newton pasar de
generalizaciones más estrechas a sus leyes fundamentales. Por ejemplo, no saltó a la ley
de la gravitación universal y luego buscó casos de confirmación. Más bien, como vimos,
comenzó identificando la naturaleza de la fuerza solar en los planetas. En los Principia,
luego mostró que Júpiter y Saturno ejercen una fuerza similar en sus respectivas lunas
y, por lo tanto, tenía una ley que atañe tanto a los planetas como a las lunas. A
continuación, mostró que la Tierra ejerce una fuerza similar tanto en los cuerpos
terrestres como en nuestra luna, y por lo tanto tenía una ley que se aplicaba a todos los
cuerpos de la superficie de la Tierra, así como a los planetas y las lunas. Luego mostró
que la fuerza de atracción no es simplemente ejercida por la Tierra como un todo, pero
es ejercido independientemente por cada fragmento de materia que compone la Tierra
(su análisis de la forma y precesión de la Tierra, y las mareas del océano, proporcionó
evidencia importante para esta conclusión). Finalmente, demostró que la ley se aplicaba
incluso a los cometas, los cuerpos celestes que eran legendarios por su misterioso
comportamiento y apariencia. Esta fue la génesis del descubrimiento de Newton de que
todos los cuerpos tienen la propiedad de "masa" y, por lo tanto, se atraen de acuerdo
con su ley de gravitación.
Si, al final, le hubieran preguntado a Newton: "Ahora que tienes esta teoría, ¿cómo la
vas a probar?" podría responder simplemente señalando el proceso de descubrimiento
en sí. La secuencia lógica paso a paso por la que llegó a su teoría es la prueba. Cada paso
fue la comprensión de una conexión causal mediante el procesamiento matemático de
datos de observación. Como no hubo saltos arbitrarios, no hay problema en justificarlos.
Para afirmar este punto negativamente: para hacer la pregunta anterior, uno tiene
que abandonar el contexto relevante. La pregunta no surge si se tiene en cuenta
claramente toda la secuencia que condujo desde las observaciones a las leyes
fundamentales. Sin embargo, si se supone que la teoría se creó a partir de los recursos
de la imaginación de Newton, entonces la cuestión de la prueba se convierte en un
problema insoluble. El mero proceso de deducir las consecuencias de una teoría que son
confirmadas por observaciones nunca conduce o puede conducir a una prueba. Tal
proceso es insuficiente incluso cuando las predicciones abarcan una amplia variedad de
fenómenos diferentes. El contraargumento inevitable, ofrecido por todos aquellos que
dan por dados conceptos y generalizaciones, sin indagar en su fuente, es: tal vez alguien
más, que posea una imaginación igualmente rica, puede idear una teoría completamente
diferente que explique los mismos hechos. Sin comprender la forma en que el marco
conceptual de Newton surgió y es necesario para las observaciones, no hay respuesta a
esta objeción. Sin embargo, dada la prueba inductiva, uno puede y debe responder
simplemente descartando esta sugerencia como una fantasía arbitraria.
Hoy en día se sostiene casi universalmente que el proceso de creación de teorías no
es objetivo. De acuerdo con la visión más común, que está institucionalizada en el
llamado “método hipotético-deductivo”, es solo la prueba de teorías (es decir, comparar
predicciones con observaciones) lo que le da a la ciencia cualquier pretensión de
objetividad. Desafortunadamente, dicen los defensores de este método, tal prueba no
puede resultar en una prueba, y ni siquiera puede resultar en una refutación, ya que
cualquier teoría puede salvarse de una observación inconveniente simplemente
agregando hipótesis más arbitrarias. De modo que el método hipotético-deductivo
conduce inevitablemente al escepticismo.
A pesar de su negación implícita del conocimiento científico, esta visión del método
les parece plausible a muchos científicos. Una razón puede encontrarse en la forma en
que se enseña la ciencia; las verdades fundamentales sobre la naturaleza se entregan
como dulces de Halloween a los jóvenes estudiantes, a quienes se les dan solo
fragmentos aleatorios de la evidencia a partir de la cual se indujeron las teorías. La
educación de un científico de hoy se centra en desarrollar su habilidad para deducir las
consecuencias de las teorías. Así, el científico emerge de su formación con abstracciones
flotantes memorizadas y una gran experiencia en su aplicación. Cuando escucha una
descripción del método hipotético-deductivo, la reconoce como una descripción precisa
de su propio estado de ánimo. De esta manera, un vergonzoso fracaso de la educación se
convierte en una teoría estándar del método científico.
La diferencia entre un científico que induce una teoría y uno que "crea libremente"
una teoría es la diferencia entre un hombre parado en tierra firme y un personaje de
dibujos animados flotando en el aire sobre un abismo. No es de extrañar que aquellos
que creen que las teorías son "creaciones libres" perciban el desastre inminente, es
decir, normalmente creen que todas las teorías están condenadas a caer y ser
reemplazadas por otras construcciones imaginativas. Por el contrario, el método
inductivo conduce a la conclusión opuesta: una teoría alcanzada y validada por este
método nunca es derrocada. Así, por ejemplo, las leyes de Newton no han sido
contradichas por ningún descubrimiento realizado desde la publicación de los Principia.
Más bien, todos los descubrimientos posteriores de la física han supuesto su teoría y se
han basado en ella.
La confusión generalizada con respecto a este punto se debe al tratamiento de las
leyes científicas como dogmas fuera de contexto más que como integraciones de
concretos. El propio Newton, sin embargo, nunca dijo: “Mis leyes se aplican sin
modificaciones no solo a todo lo que se conoce actualmente en física y astronomía, sino
también a todos los fenómenos que se estudiarán alguna vez, sin importar lo lejos que
esté de cualquier fenómeno estudiado hasta el momento”. fecha. Doy estas leyes como
mandamientos, para que se apliquen independientemente del contexto cognitivo ". No
hizo tal declaración porque sabía que el proceso de razonamiento inductivo que
condujo a sus leyes estableció el contexto dentro del cual se prueban. Se requieren más
pruebas si las leyes se van a extender a ámbitos no estudiados anteriormente.
Los casos en los que se dice que fallan las leyes de Newton son todos iguales: son
casos en los que sus leyes han sido arrancadas del contexto en el que fueron
descubiertas y aplicadas a un ámbito muy alejado de cualquier cosa que él haya
considerado jamás. Los casos se refieren a cuerpos que se mueven casi a la velocidad de
la luz, que es aproximadamente diez mil veces la velocidad de la Tierra en su órbita
alrededor del sol; o pertenecen a efectos sutiles de campos gravitacionales muy fuertes,
ninguno de los cuales pudo medirse hasta más de un siglo después de Newton; o
pertenecen al comportamiento de las partículas subatómicas, un ámbito que los físicos
comenzaron a estudiar unos dos siglos después de Newton.
Para aclarar la relación entre las teorías tempranas y los avances posteriores que
hacen posibles, examinemos una pieza particular de evidencia que a menudo se dice
que refuta la teoría gravitacional de Newton. Se observa que el eje principal de la órbita
de Mercurio gira muy lentamente. Como se ve desde la Tierra, la rotación total parece
ser de aproximadamente 1,56 grados por siglo. Los cálculos muestran que casi el 90 por
ciento de esta rotación aparente es causada por la precesión del eje de rotación de la
Tierra, que se explica completamente por la teoría de Newton. Del efecto restante, más
del 90 por ciento es causado por la atracción gravitacional de otros planetas, lo que
también se explica por la teoría de Newton. Eso deja menos del 1 por ciento del efecto
total observado, que equivale a cuarenta y tres segundos de arco por siglo, sin explicar
la teoría de Newton.
Einstein no refutó las leyes de Newton, del mismo modo que Newton no refutó las
leyes de Kepler. En ambos casos, se presupuso la verdad de la teoría anterior y luego se
desarrolló una teoría más general que se aplicó dentro de un contexto ampliado de
conocimiento. Y, en ambos casos, el contexto ampliado del conocimiento incluyó
pequeñas discrepancias entre los nuevos datos y la vieja teoría, que luego fueron
explicadas por la nueva teoría. A menudo, así es como avanza la ciencia.
Solo hay un aspecto de la teoría de Newton que fue rechazado en lugar de ser
absorbido por la teoría de Einstein (y, en este caso, uno solo puede desear que Einstein
hubiera sido consistente en su rechazo). Newton trató los conceptos "espacio" y
"tiempo" como existentes independientes de los cuerpos, más que como relaciones
entre cuerpos. Por lo tanto, vio el espacio como un telón de fondo cósmico infinito que
existe independientemente de los cuerpos colocados en él, y afirmó que este telón de
fondo tiene efectos físicos reales en los cuerpos que se aceleran con respecto a él.
Newton ofreció argumentos científicos para apoyar su visión del espacio y el tiempo,
pero estos argumentos son incongruentes.11El espacio y el tiempo “absolutos” no
jugaron ningún papel en el razonamiento que probó su teoría (por lo tanto, no tuve
necesidad de mencionar estas ideas al presentar su proceso de descubrimiento). De
hecho, el espacio y el tiempo "absolutos" estaban íntimamente conectados con los
puntos de vista religiosos de Newton y, por lo tanto, son un elemento arbitrario en su
teoría. Ocasionalmente hizo concesiones a la religión y, por lo tanto, se apartó de su
método científico explícitamente establecido. Este es el ejemplo más atroz de tal
desviación.
En la teoría de Newton, el marco del espacio absoluto se identifica con un sistema de
coordenadas en el que las estrellas fijas no giran. Este marco se define objetivamente,
sobre la base de la observación. Por lo tanto, Newton podría haber reemplazado su
discusión sobre el espacio absoluto (y el tiempo) con la siguiente declaración: “Las leyes
del movimiento y la gravitación presentadas en este libro son válidas en el marco de las
estrellas fijas, o en cualquier marco que pueda aproximarse como no acelerado con
respecto a las estrellas fijas. Si es posible desarrollar una teoría que esté libre de esta
restricción, lo dejo a la consideración del lector ”. Tal afirmación habría dejado en claro
el estatus objetivo de su teoría y habría eliminado la tarea imposible de intentar
establecer la existencia del espacio como una pseudoentidad sobrenatural.
No se requirieron descubrimientos posteriores en física para identificar y rechazar
el error de Newton. Varios de los contemporáneos de Newton señalaron que no había
justificación para cosificar el espacio y el tiempo. 12La visión relacional correcta se
remonta a Aristóteles, quien trató el espacio como una suma de lugares y explicó que el
concepto “lugar” se refiere a una relación entre cuerpos. Así, las ideas de espacio y
tiempo absolutos fueron identificadas como arbitrarias dos mil años antes; los
descubrimientos de Einstein no son necesarios para comprender este tema.
Los descubrimientos posteriores se suman al conjunto cognitivo, pero nunca lo
refutan. De hecho, aquí hay una relación simbiótica; el conocimiento anterior hace
posible descubrir el conocimiento posterior, y el conocimiento posterior a menudo nos
permite ver implicaciones nuevas y profundas en el conocimiento temprano.
Considere, por ejemplo, la relación entre la dinámica de Newton y la cinemática de
Galileo. Siempre ha dejado perplejos a los historiadores de la ciencia que Newton
atribuyera a Galileo la segunda ley del movimiento (F = mA). Dado que Galileo no
conocía esta ley, ¿por qué Newton dijo que la aprendió de él? La respuesta proporciona
información sobre la forma en que Newton aprovechó al máximo los logros de su
predecesor. Esta ley estaba fuera del alcance de Galileo porque no tenía los conceptos
necesarios. En el contexto de Newton, que incluía el concepto de vector "aceleración" y
los conceptos de "gravedad" y "masa", los experimentos de Galileo implican que F = mA.
En efecto, Newton pudo leer su segunda ley del movimiento entre las líneas del texto de
Galileo, aunque este mensaje era invisible para el propio autor.
Hemos encontrado otros ejemplos similares. El descubrimiento de Torricelli de que
el aire tiene peso llevó a los científicos a una formulación más general del principio de
flotabilidad de Arquímedes. A la luz de la dinámica de Newton, la ley de área del
movimiento planetario de Kepler se generalizó al principio de conservación del
momento angular, que se aplica a todos los cuerpos. La adquisición de conocimiento no
es simplemente un ascenso paso a paso en la jerarquía, con la mirada siempre hacia
adelante en el siguiente paso. Tal metáfora pasa por alto el hecho de que el enfoque de
un pensador debe volver regularmente al conocimiento anterior para integrarlo con
nuevos descubrimientos. Un aspecto crucial de la integración cognitiva es la tarea de
revisar el conocimiento antiguo y extraer de él las nuevas implicaciones que solo
pueden verse a la luz de los avances más recientes.
La revolución científica del siglo XVII logró el ambicioso objetivo que se persiguió
por primera vez en la antigua Grecia. Los griegos intentaron identificar principios
básicos que pudieran integrar su conocimiento del universo en un todo inteligible. Sin
embargo, carecían de los métodos matemáticos y experimentales necesarios. En su
impaciencia, pasaron por alto el lento y laborioso proceso de descubrimiento; en
cambio, intentaron un salto gigante de las observaciones a los principios fundamentales,
y se quedaron cortos. Finalmente, una pérdida de confianza llevó a la aceptación
pragmática de la teoría sin sentido de Ptolomeo, con su mezcolanza de elementos
arbitrarios.
Al comienzo de la revolución científica, Copérnico comentó sobre la falta de
integración en la astronomía. Con respecto a sus predecesores, escribió: “[E] o están
exactamente en la misma situación que alguien que toma de diferentes lugares las
manos, los pies, la cabeza y otras extremidades, con una forma muy hermosa, pero no
con referencia a un cuerpo y sin correspondencia entre sí. —Para que esas partes
constituyan un monstruo en lugar de un hombre ".13Vimos que Copérnico dio los
primeros pasos para transformar a este monstruo en un hombre. Newton completó la
tarea, quien convirtió la física y la astronomía en un cuerpo de conocimiento con todas
las partes encajadas en un todo perfecto.
Hemos visto la lógica inexorable de la progresión de Copérnico a Galileo y Kepler y
finalmente a Newton. Bajo la poderosa influencia de Newton, el método inductivo saltó
a la fama y su némesis, el arbitrario, cayó en descrédito. El método que los científicos
aprendieron de los Principia y la Óptica brindó luz verde a una nueva era, una era en la
que finalmente se esclarecieron muchos secretos de la naturaleza y nacieron nuevas
ciencias (p. Ej., Electricidad, química y geología). Debido a que tal iluminación fue tan
característica del siglo que siguió a Newton, los historiadores le han dado a esta época
un nombre apropiado: la Ilustración.
5.

La teoría atómica

L os científicos necesitan estándares objetivos para evaluar teorías. En ninguna parte


esta necesidad es más evidente que en la extraña historia de la teoría atómica de la
materia. Antes del siglo XIX, había poca evidencia para la teoría; sin embargo, muchos
filósofos naturales creían que la materia estaba hecha de átomos y algunos incluso
perdían el tiempo construyendo historias imaginativas sobre la naturaleza de las
partículas fundamentales. Luego, durante el siglo XIX, se produjo una extraña inversión:
a medida que se acumulaban rápidamente pruebas sólidas de la teoría, muchos
científicos rechazaron la idea de los átomos e incluso se opusieron a ella.
Ambos errores —la creencia dogmática que no estaba respaldada por evidencia,
seguida por el escepticismo dogmático que ignoraba abundantes evidencias— se
basaban en teorías falsas del conocimiento. Los atomistas de la antigua Grecia eran
racionalistas, es decir, creían que el conocimiento se puede adquirir solo con la razón,
independientemente de los datos sensoriales. Los escépticos del siglo XIX eran
empiristas modernos, es decir, creían que el conocimiento es simplemente una
descripción de datos sensoriales y, por lo tanto, las referencias a entidades no
observables no tienen sentido. Pero el conocimiento científico no son las abstracciones
flotantes de los racionalistas o las descripciones a nivel perceptual de los empiristas; es
la comprensión de las relaciones causales identificadas mediante el método inductivo.
En este capítulo,
Si seguimos la idea de los átomos desde la antigua Grecia hasta el siglo XIX, se
destaca un hecho notable: mientras la teoría atómica no se haya inducido a partir de
datos científicos, será inútil. Durante más de dos milenios, los científicos no pudieron
hacer predicciones ni idear experimentos basados en la teoría. No explicó nada ni
integró nada. Dado que la idea griega de los átomos no deriva de hechos observados,
permanece aislada del conocimiento real de quienes investigan la naturaleza. Si uno
intenta pensar en las implicaciones de una idea arbitraria, simplemente se queda en
blanco; las implicaciones dependen de las conexiones con el resto del conocimiento. En
términos de la analogía de Rand, la palabra "átomo" era solo una etiqueta en una
carpeta de archivos vacía.
Todos, incluidos los científicos, deben comenzar con la evidencia disponible para los
sentidos, y no hay evidencia perceptiva directa de la existencia de átomos. En el nivel
perceptual, la materia parece ser continua. En las primeras etapas de la ciencia, las
preguntas sobre las propiedades últimas e irreductibles de la materia, incluida la
cuestión de si es discreta en alguna escala imperceptible, no surgen legítimamente. Las
preguntas que surgen de las observaciones son muy desafiantes. Por ejemplo: ¿Cómo se
mueven los cuerpos? ¿Qué fuerzas pueden ejercer el uno sobre el otro? ¿Cómo cambian
cuando se calientan o enfrían? ¿Por qué los objetos aparecen coloreados y cómo se
relaciona la luz coloreada con la luz blanca ordinaria? Cuando reaccionan diferentes
materiales, ¿qué transformaciones pueden sufrir y en qué circunstancias?
Para 1800, después de siglos de investigar tales preguntas, los científicos finalmente
tenían el conocimiento avanzado que hizo que la pregunta de los átomos fuera
significativa y la respuesta posible. Cuando la idea de átomos surgió a partir de hechos
observados, los científicos tenían un contexto en el que podían pensar en ello y, por lo
tanto, podían derivar implicaciones, hacer predicciones y diseñar experimentos. El
resultado fue una repentina oleada de actividad científica que rápidamente reveló una
enorme profundidad y rango de evidencia a favor de la composición atómica de la
materia.

Elementos químicos y átomos


No hubo ciencia de la química antes de la Ilustración. Había conocimientos prácticos
sobre la extracción de metales, la síntesis de vidrio y el teñido de ropa. También hubo
intentos prematuros de reducir la desconcertante variedad de materiales conocidos a
unos pocos elementos básicos. Los griegos habían supuesto que toda la materia
terrestre estaba formada por cuatro elementos: tierra, agua, aire y fuego. Más tarde,
algunos alquimistas intentaron reducir la "tierra" a sal, mercurio y azufre. Pero estos
primeros intentos fueron especulaciones vacías, no teoría científica; tales ideas no
estaban respaldadas por las observaciones y eran incapaces de explicarlas.
La situación cambió drásticamente en la segunda mitad del siglo XX, cuando se
aplicó a la química el método que había conducido a un éxito tan espectacular en la
física. El padre de la química moderna, Antoine Lavoisier, escribió en una carta a
Benjamin Franklin que su objetivo era "seguir lo más posible la antorcha de la
observación y la experimentación". Añadió: "Este curso, que todavía no se ha seguido en
química, me llevó a planificar mi libro de acuerdo con un esquema absolutamente
nuevo, y la química se ha acercado mucho más a la física experimental". 1
El primer paso en la ciencia de la química fue hacer una clara distinción entre
sustancias puras y mezclas. A diferencia de las mezclas, las sustancias puras tienen
propiedades invariables y bien definidas. En las mismas condiciones, cada muestra de
una sustancia pura se derretirá (o hervirá) exactamente a la misma temperatura. Cada
una de estas muestras tiene la misma dureza y la misma densidad de masa, y la misma
cantidad de calor siempre provocará el mismo aumento de temperatura (para una
unidad de masa). Además, cuando una parte de una sustancia sufre una reacción
química, las propiedades de la parte restante no cambian. Así, el concepto de "sustancia"
se basó en la conceptualización previa de varias propiedades físicas y químicas, y en el
conocimiento de cómo medir esas propiedades. El concepto de "mezcla" podría
definirse entonces como un material compuesto por dos o más sustancias.
El siguiente paso clave fue la división de sustancias en elementos y compuestos. Esto
fue posible gracias al descubrimiento de que la masa se conserva en las reacciones
químicas, es decir, los pesos de los reactivos son siempre iguales a los pesos de los
productos. Se encontró que algunas sustancias se pueden descomponer en dos o más
sustancias con el mismo peso total; por otro lado, otras sustancias resistieron todos
esos intentos de descomposición química. Los que no se pueden descomponer son
elementos; los que se pueden descomponer son compuestos, es decir, son sustancias
compuestas por dos o más elementos. Armada con el principio de conservación de
masas y el método de análisis cuantitativo, la química finalmente se liberó de las
conjeturas arbitrarias; la báscula dio un veredicto objetivo.
Los "elementos" de los griegos no pudieron resistir este nuevo método cuantitativo.
En 1774, se descubrió que el aire era una mezcla de nitrógeno y oxígeno.
Aproximadamente al mismo tiempo, Lavoisier demostró que la combustión era el
resultado de la combinación de sustancias con oxígeno, no la liberación de "fuego"
elemental. Unos años más tarde, se demostró que el agua es un compuesto de dos
elementos, hidrógeno y oxígeno. Se demostró que el elemento griego restante, la tierra,
constaba de muchas sustancias diferentes. En total, los químicos del siglo XVIII
identificaron más de veinte elementos.
Gran parte de la confusión que había plagado a la química temprana estaba
incorporada en su terminología. A menudo se usaba el mismo nombre para diferentes
sustancias (por ejemplo, todos los gases se denominaban diversas modificaciones de
"aire"). A la inversa, a veces se usaban diferentes nombres para referirse a la misma
sustancia, dependiendo de cómo se sintetizara (por ejemplo, el elemento antimonio
tenía al menos cuatro nombres). En otros casos, los compuestos recibieron el nombre
de su descubridor o del lugar donde se encontraron; tales nombres no dan ninguna
pista sobre la composición de la sustancia. La situación empeoró por el legado de los
alquimistas, que se veían a sí mismos como un culto secreto y, por lo tanto, usaban una
terminología que era intencionalmente oscura (por ejemplo, “león verde”, “estrella
regulus de Marte”).
Lavoisier tomó la iniciativa para poner orden en este caos. Reconoció que las
verdaderas generalizaciones sólo pueden alcanzarse y expresarse mediante un lenguaje
objetivo. Él originó muchos de los nombres modernos para elementos, y sus nombres
para compuestos identificaron sus elementos constituyentes. Las sustancias se
clasificaron en grupos más amplios (p. Ej., Ácidos, alcaloides, sales) de acuerdo con sus
propiedades esenciales. Entendió que los conceptos no son convenciones arbitrarias;
son integraciones de particulares similares y las agrupaciones deben basarse en los
hechos. Una palabra que se refiere al azar a una colección de cosas diferentes sólo puede
dar lugar a error y confusión. Por otro lado, Lavoisier señaló, “Un lenguaje bien
compuesto… no permitirá que los profesores de química se desvíen del curso de la
naturaleza; o deben rechazar la nomenclatura o deben seguir irresistiblemente el
rumbo marcado por ella. Por tanto, la lógica de las ciencias depende esencialmente de
su lenguaje ".2Presentó su nuevo lenguaje, el lenguaje químico que todavía usamos hoy
en día, en un libro histórico, Elements of Chemistry, publicado en 1789.
Con la base proporcionada por un método cuantitativo y un lenguaje objetivo, los
químicos que siguieron a Lavoisier lograron un rápido progreso en la comprensión de
cómo los elementos se combinan para formar compuestos. El siguiente descubrimiento
crucial fue realizado por Joseph Louis Proust, quien dedicó muchos años al estudio de
varios compuestos de metales (por ejemplo, carbonatos, óxidos, sulfuros). En 1799,
anunció la ley de composición constante, que establece que diferentes muestras de un
compuesto siempre contienen los mismos elementos en las mismas proporciones en
masa. Por ejemplo, demostró que el carbonato de cobre siempre contiene cobre,
oxígeno y carbono en la misma proporción de masa (aproximadamente cinco a cuatro a
uno), independientemente de cómo se preparó la muestra en el laboratorio o cómo se
aisló de la naturaleza.
Inicialmente, la evidencia que apoyaba la ley de Proust era sólida pero no
concluyente. Otro químico francés, Claude Louis Bertholett, afirmó haber encontrado
contraejemplos. Señaló que el plomo puede reaccionar con una cantidad variable de
oxígeno, dando como resultado un material que cambia de color de manera continua. Un
ejemplo similar lo proporciona el mercurio disuelto en ácido nítrico, que también
reacciona con una cantidad variable de oxígeno. Sin embargo, Proust analizó
cuidadosamente estos casos y demostró que los productos eran mezclas, no
compuestos; el plomo forma tres óxidos diferentes y el mercurio reaccionaba para
formar dos sales distintas. Alrededor de 1805, después de que se identificaron
numerosos supuestos contraejemplos como mezclas de dos o más compuestos, los
químicos aceptaron la ley de la composición constante.
Los químicos de este período descubrieron que varios otros metales, como el plomo,
se combinan con el oxígeno para formar más de un compuesto. Hay dos óxidos de
estaño, dos de cobre y tres de hierro. Además, este fenómeno no se limitó a los óxidos
metálicos; Los químicos identificaron dos gases diferentes hechos de carbono y oxígeno,
y otros dos gases hechos de carbono e hidrógeno. Cuando midieron cuidadosamente los
pesos de los elementos combinados en tales casos, surgió un patrón crucial.
En 1803, John Dalton analizó tres gases compuestos de nitrógeno y oxígeno. El
primero es un gas incoloro que tiene un olor agradable y la capacidad de provocar una
risa histérica al inhalarlo; el segundo es incoloro, casi inodoro y tiene una densidad de
masa significativamente menor; el tercero tiene la densidad de masa más alta de los tres
y un color marrón oscuro a altas temperaturas. El análisis cuantitativo mostró que los
tres gases también se distinguen por los pesos relativos de los dos elementos de
combinación. Si consideramos muestras de cada gas que contienen 1,75 gramos de
nitrógeno, encontramos que el gas de la risa contiene un gramo de oxígeno, el segundo
gas contiene dos gramos y el tercer gas contiene cuatro gramos. Dalton encontró un
resultado similar cuando analizó dos gases diferentes que están compuestos de carbono
e hidrógeno; para muestras que contienen el mismo peso de carbono, el peso de
hidrógeno contenido en uno de los gases es precisamente el doble que el del otro. Sobre
la base de estos datos, Dalton llegó a una nueva ley: cuando dos elementos se combinan
para formar más de un compuesto, los pesos de un elemento que se combinan con pesos
idénticos del otro están en proporciones múltiples simples.
Como sucedió con la ley de la composición constante, los químicos no aceptaron
inmediatamente la ley de las proporciones múltiples cuando Dalton publicó su libro Un
nuevo sistema de filosofía química en 1808. Había tres problemas. Primero, se
necesitaban datos más precisos para verificar las proporciones de masas enteras. En
segundo lugar, se necesitaban más ejemplos de la ley, que abarcaban el rango de gases
ligeros a compuestos de metales pesados (Dalton había estudiado solo unos pocos
gases). En tercer lugar, las aparentes violaciones de la ley deben resolverse
demostrando que tales casos siempre involucran mezclas, no compuestos. Gracias en
gran parte al destacado trabajo de un químico sueco, Jons Jacob Berzelius, los tres
problemas se resolvieron en menos de una década. En 1816, Berzelius había probado la
ley de proporciones múltiples más allá de toda duda razonable.
Esta ley proporcionó la primera evidencia clara para la teoría atómica de la materia.
Implica que cuando los elementos se combinan en compuestos, lo hacen en unidades
discretas de masa. Un compuesto puede contener una unidad de un elemento, dos o
tres, pero nunca 2,63 unidades de este tipo. Esto es precisamente lo que cabría esperar
si cada elemento químico estuviera compuesto por átomos con masas idénticas. La
naturaleza discreta de la materia se había revelado finalmente en las observaciones.
El concepto de "átomo" que surgió de las observaciones difería de la vieja idea
basada en deducciones de abstracciones flotantes. En la antigua Grecia, el "átomo" se
había definido como la unidad de materia última, inmutable e irreductible. Sin embargo,
Lavoisier señaló que la idea griega era vacía porque no se sabía nada acerca de tales
partículas últimas. En cambio, el nuevo concepto científico que tomó forma a principios
del siglo XIX fue el de átomo químico. Los científicos llegaron a comprender que un
átomo tenía que redefinirse como la partícula más pequeña de un elemento que puede
entrar en una combinación química. La cuestión de si es posible romper estos átomos
químicos en constituyentes más pequeños por medios no químicos tuvo que dejarse de
lado y dejarse abierta. Con esta comprensión, el concepto "átomo" recibió un contenido
real por primera vez.
Aproximadamente al mismo tiempo que se publicó el libro de Dalton, el químico
francés Joseph Louis Gay-Lussac descubrió otra ley que manifestaba la naturaleza
discreta de los elementos químicos. Gay-Lussac descubrió que los volúmenes de gases
involucrados en una reacción siempre se pueden expresar como una proporción de
números enteros pequeños. A una temperatura por encima del punto de ebullición del
agua, por ejemplo, un litro de oxígeno se combinará con dos litros de hidrógeno para
dar exactamente dos litros de vapor. Citó varios otros ejemplos de la ley. Por ejemplo:
un litro de nitrógeno se combinará con tres litros de hidrógeno para dar exactamente
dos litros de gas amoniaco, o el litro de nitrógeno puede reaccionar con un litro de
oxígeno para producir dos litros de óxido nítrico.
Aunque Gay-Lussac describió su ley de combinar volúmenes de gas como “muy
favorable a la teoría [atómica]”, no explicitó las implicaciones. 3 Esa tarea quedó en
manos de un científico italiano llamado Amedeo Avogadro.
Una sustancia, según la teoría atómica, está compuesta por moléculas, es decir,
partículas que constan de uno o más átomos. Considerada a nivel microscópico, una
reacción química ocurre cuando una pequeña cantidad de moléculas (generalmente
dos) se juntan, los átomos se reorganizan y el producto es una pequeña cantidad de
moléculas diferentes. Por lo tanto, si comparamos el número de moléculas de cada
reactivo y producto, deben existir en proporciones de números enteros pequeños. Pero
esto es precisamente lo que Gay-Lussac encontró para los volúmenes de gases
involucrados en una reacción. Por lo tanto, razonó Avogadro, debe haber una relación
directa entre el volumen y el número de moléculas. En 1811, propuso su hipótesis: los
mismos volúmenes de gases (a la misma temperatura y presión) contienen el mismo
número de moléculas.
La hipótesis de Avogadro tiene implicaciones extraordinarias. Relaciona las
relaciones de volumen, una cantidad macroscópica mensurable, con el número de
moléculas involucradas en cada reacción química microscópica individual. Así, el hecho
de que dos litros de hidrógeno reaccionen con un litro de oxígeno para producir dos
litros de vapor implica, según Avogadro, que dos moléculas de hidrógeno reaccionen
con una molécula de oxígeno para producir dos moléculas de agua. En muchos casos, su
hipótesis le permitió determinar el número de átomos en cada molécula. Al comparar
las diversas reacciones conocidas, concluyó que los gases comunes son diatómicos; es
decir, una molécula de hidrógeno consta de dos átomos de hidrógeno unidos entre sí, y
lo mismo ocurre con el oxígeno y el nitrógeno. De las proporciones de volumen y su
hipótesis, Avogadro concluyó que una molécula de agua se compone de dos átomos de
hidrógeno combinados con un átomo de oxígeno, y una molécula de amoníaco son tres
átomos de hidrógeno combinados con un átomo de nitrógeno. La medición de variables
macroscópicas como la masa y el volumen estaba desvelando el mundo oculto de los
átomos y las moléculas.
Los científicos pronto descubrieron otra variable macroscópica que arrojó luz sobre
el ámbito microscópico. El "calor específico" de una sustancia se define como la cantidad
de calor necesaria para elevar un grado la temperatura de un gramo de la sustancia. Se
sabía que los calores específicos de diferentes elementos varían en un amplio rango.
Cuando los científicos compararon pesos iguales de cobre y plomo, por ejemplo,
encontraron que para causar el mismo aumento de temperatura, el cobre requiere más
de tres veces más calor que el plomo.
En 1819, dos físicos franceses, Pierre Dulong y Alexis Petit, midieron los calores
específicos de muchos metales puros y descubrieron una relación notable. En lugar de
comparar pesos iguales de los diferentes elementos, decidieron comparar muestras con
igual número de átomos. Entonces multiplicaron los calores específicos medidos por los
pesos atómicos relativos que habían sido determinados por los químicos. Este simple
cálculo proporciona el calor específico para un número particular de átomos, en lugar
del calor específico para una unidad de masa.
Cuando Dulong y Petit realizaron sus cuidadosas mediciones de calor específico y lo
multiplicaron por los pesos atómicos, llegaron casi al mismo número para todos los
elementos metálicos que probaron. En otras palabras, encontraron que un número igual
de átomos absorbe cantidades iguales de calor. Así, las amplias variaciones en los
calores específicos de los metales pueden explicarse simplemente por diferencias en el
número de átomos. Esta es una evidencia impresionante de la composición atómica de
la materia.
Se demostró que la ley de Dulong-Petit es aproximadamente cierta para la gran
mayoría de elementos sólidos. Sin embargo, se descubrió una excepción importante: el
carbono tiene un calor específico que es mucho más bajo que el valor predicho por la
ley. Pero dado que se sabía que el carbono tenía otras propiedades inusuales, era
razonable que los científicos aceptaran la relación causal entre la capacidad calorífica y
el número de átomos, y consideraran al carbono como un caso especial en el que
factores causales adicionales desconocidos desempeñaban un papel importante.
Una de las propiedades inusuales del carbono había sido demostrada unos años
antes por Humphry Davy, un químico inglés. La forma común de carbono puro es la
sustancia negra y calcárea que llamamos grafito. Sin embargo, el carbono también existe
en otra forma sólida. En 1814, Davy usó una enorme lupa para quemar un diamante en
presencia de oxígeno, y el producto fue dióxido de carbono. Había demostrado que el
grafito y el diamante —materiales con propiedades radicalmente diferentes— están
compuestos por el mismo elemento. Este es un fenómeno raro, pero no único; Los
químicos también sabían que el estaño existe tanto en polvo gris como en metal blanco
maleable. Las diferentes formas del mismo elemento se denominan "alótropos".
En la siguiente década, los químicos descubrieron un fenómeno similar entre los
compuestos. En 1823, el químico alemán Justus von Liebig llevó a cabo un análisis
cuantitativo del fulminato de plata; aproximadamente al mismo tiempo, su colega
Friedrich Wohler analizó el cianato de plata. Estos compuestos tienen propiedades
químicas muy diferentes; por ejemplo, el fulminato reacciona explosivamente, mientras
que el cianato no. Sin embargo, cuando los dos químicos compararon notas,
encontraron que ambos compuestos están hechos de plata, oxígeno, carbono y
nitrógeno en proporciones idénticas. Poco después, Wohler demostró que el cianato de
amonio y la urea —que, de nuevo, tienen propiedades muy diferentes— se componen
de proporciones idénticas de hidrógeno, nitrógeno, carbono y oxígeno. Varios otros
casos similares se descubrieron en la década de 1820.
Se reconoció que la existencia de alótropos e isómeros era problemática para
cualquier teoría del continuo de la materia. Tal teoría parecería implicar que los mismos
elementos mezclados en las mismas proporciones siempre deberían dar como resultado
el mismo material. Sin embargo, según la teoría atómica, las propiedades químicas de
una molécula están determinadas por los elementos y su disposición; es decir, no son
sólo las proporciones de elementos lo que es relevante, sino también qué átomos están
unidos a qué otros átomos y en qué configuración espacial. Así, cuando Berzelius
discutió los isómeros, expresó claramente la implicación: "Parecería como si los átomos
simples de los que se componen las sustancias pudieran unirse entre sí de diferentes
maneras".4Como veremos, los isómeros estaban destinados a jugar un papel importante
en la determinación de muchas estructuras moleculares y en la prueba de la teoría
atómica.
Aproximadamente una década después del descubrimiento de los isómeros, otro
campo proporcionó evidencia de la composición atómica de la materia. Desde 1800,
cuando Alessandro Volta anunció su invención de la batería eléctrica, los científicos
habían investigado la relación entre las reacciones químicas y la electricidad. Una
batería es simplemente una reacción química que ocurre entre electrodos, una que
genera una corriente eléctrica en cualquier conductor que conecta los electrodos. Tal
reacción química ocurre espontáneamente y causa la corriente. Los científicos
descubrieron rápidamente que podían revertir este proceso: en condiciones específicas,
se puede usar una corriente eléctrica para cargar electrodos y estimular una reacción
química en la solución entre ellos. Este proceso inverso se llama electrólisis.
Recuerde que Dulong y Petit habían descubierto que la capacidad calorífica no es
proporcional a la masa sino al número de moléculas contenidas en la muestra. A
principios de la década de 1830, Michael Faraday descubrió que existe una relación
similar entre la electricidad y el número de moléculas. Considere, por ejemplo, una
solución electrolítica de ácido clorhídrico. Faraday descubrió que una cantidad
específica de electricidad que pasa a través de la solución generará un gramo de gas
hidrógeno en el electrodo negativo y treinta y seis gramos de gas cloro en el electrodo
positivo. Se sabía que el ácido clorhídrico contiene hidrógeno y cloro en una proporción
de masa de uno a treinta y seis.
Faraday llegó a este punto de vista después de realizar experimentos con muchas
soluciones electrolíticas diferentes. En cada caso, usó los pesos atómicos relativos para
mostrar que la cantidad de electricidad es siempre proporcional al número de
moléculas que reaccionan en cada electrodo. "[H] aquí hay una inmensidad de hechos",
escribió, "que nos justifican al creer que los átomos de la materia están de alguna
manera dotados o asociados con poderes eléctricos ..." 5 Y, agregó, los resultados de sus
experimentos de electrólisis parecen implicar que "los átomos de los cuerpos ... tienen
cantidades iguales de electricidad naturalmente asociadas con ellos". 6
En realidad, algunos de los elementos en los experimentos de Faraday estaban
ionizados individualmente, llevando una unidad de carga eléctrica, mientras que otros
estaban doblemente ionizados, llevando dos unidades de carga eléctrica. Faraday pasó
por alto este hecho porque en los casos de elementos doblemente ionizados utilizó
pesos atómicos que eran la mitad del valor correcto, y este error hizo que subestimara
la carga eléctrica por átomo en un factor de dos. Junto con los pesos atómicos correctos,
sus experimentos lo habrían llevado al descubrimiento crucial de que las cargas
eléctricas de los iones varían en unidades discretas.
En esta etapa, todavía existía una gran controversia y confusión acerca de los pesos
relativos de los átomos. En un argumento inválido basado principalmente en la
"simplicidad", Dalton había concluido que una molécula de agua contiene un átomo de
hidrógeno y un átomo de oxígeno. Si al hidrógeno se le asigna un peso de una unidad,
esta fórmula molecular incorrecta implica que el peso del oxígeno es ocho en lugar de
dieciséis. Dado que los pesos de muchos otros elementos se midieron en relación con el
oxígeno, este factor erróneo de dos se propagó a través de la tabla de pesos atómicos
como una enfermedad infecciosa.
La cura para esta enfermedad es la hipótesis de Avogadro. Como ya hemos visto, la
idea de Avogadro condujo a la fórmula molecular correcta para el agua y, por lo tanto, al
peso atómico correcto para el oxígeno. Desafortunadamente, había dos premisas falsas
que impidieron a muchos científicos comprender esta verdad crucial.
La primera premisa falsa fue una generalización apresurada sobre la naturaleza de
los enlaces químicos. Debido a que los compuestos pueden descomponerse en iones
cargados positiva y negativamente por electrólisis, muchos científicos concluyeron que
los enlaces químicos pueden explicarse simplemente como una atracción eléctrica. Por
ejemplo, se supuso que una molécula de ácido clorhídrico se mantenía unida por la
fuerza de atracción entre el hidrógeno electropositivo y el cloro electronegativo. Todo
enlace químico, de acuerdo con esta idea, debe ocurrir entre átomos con diferentes
"afinidades eléctricas", de modo que pueda surgir una fuerza de atracción entre los
átomos positivos y negativos.
La hipótesis de Avogadro, sin embargo, implica que las moléculas de muchos
elementos gaseosos son diatómicas. Por ejemplo, Avogadro afirmó que dos átomos de
hidrógeno, ambos electropositivos, se unen y dos átomos de cloro, ambos
electronegativos, se unen. Pero dado que las cargas iguales se repelen, la existencia de
tales moléculas diatómicas parecía imposible según la teoría eléctrica de los enlaces
químicos. Como resultado, muchos químicos, incluidos líderes en el campo como
Berzelius y Davy, rechazaron la hipótesis de Avogadro.
La segunda premisa falsa se refería a la naturaleza física de los gases. Muchos
científicos, incluido Dalton, pensaron que la presión y la elasticidad de los gases
implicaban la existencia de una fuerza repulsiva entre los átomos idénticos del gas.
Dalton demostró que en el caso de mezclas gaseosas cada gas elemental se comportaba
de forma independiente, es decir, la presión total era simplemente la suma de las
presiones individuales. Por tanto, concluyó que no había fuerza repulsiva entre átomos
de gas distintos. Sin embargo, debido a que pensó que había tal fuerza entre átomos
idénticos, no pudo aceptar la hipótesis de Avogadro y su implicación de moléculas
diatómicas. ¿Cómo pudieron unirse y unirse dos átomos que se repelían fuertemente
entre sí?
Sin la hipótesis de Avogadro, no había explicación para la ley de combinar
volúmenes de gas y no había forma de llegar a pesos atómicos inequívocos. Los pesos
atómicos incorrectos llevaron a una miríada de problemas, desde fórmulas moleculares
incorrectas hasta choques con la ley de Dulong-Petit de capacidades caloríficas. Así, el
poder explicativo y la función integradora de la teoría atómica parecían estar
severamente socavados. Se necesitaron décadas para resolver este problema, a pesar de
que las piezas de la solución estuvieron disponibles todo el tiempo. La razón es que los
químicos por sí solos no pudieron validar las piezas, unirlas y llegar a una teoría
fundamental de la materia. Resultó que necesitaban la ayuda de quienes estudiaban la
ciencia fundamental de la materia, es decir, necesitaban la ayuda de los físicos.

La teoría cinética de los gases


Fue el estudio del calor y los gases lo que llevó a los físicos a la teoría atómica y,
finalmente, unió las ciencias de la física y la química en un todo unificado.
En el siglo XVIII, se creía ampliamente que el calor era un fluido (llamado "calórico")
que fluía de los cuerpos calientes a los fríos. Sin embargo, a finales de siglo, dos
experimentos proporcionaron pruebas contundentes de que el calor no era una
sustancia, sino un movimiento interno de la materia que comprende los cuerpos.
En 1798, el conde Rumford (también conocido como Benjamin Thompson)
supervisaba la fabricación de cañones en el arsenal militar de Munich. Le sorprendió la
enorme cantidad de calor generado en el proceso de perforación de los cañones y
decidió investigar el fenómeno. Colocó el cañón de una pistola de latón en una caja de
madera que contenía agua fría y lo taladró con un taladro de acero desafilado. Después
de aproximadamente dos horas y media, el agua comenzó a hervir. El suministro
aparentemente inagotable de calor llevó a Rumford a rechazar la teoría calórica. Como
él mismo dijo, "Cualquier cosa que cualquier cuerpo aislado, o sistema de cuerpos,
pueda continuar proporcionando sin limitación, no puede ser una sustancia
material".7En el experimento, lo que se estaba proporcionando al sistema de cuerpos
era movimiento; por tanto, Rumford concluyó que el calor debe ser una forma de
movimiento interno.
Al año siguiente, Humphry Davy llegó a la misma conclusión mediante un
experimento en el que los cuerpos calentados se aislaron con más cuidado. En un
recipiente de vidrio al vacío que se mantuvo a una temperatura por debajo del punto de
congelación del agua, ideó un medio para frotar vigorosamente dos bloques de hielo. El
hielo se derritió, a pesar de que no había una posible fuente de "calor fluido". Davy
expresó su conclusión enfáticamente: "Entonces se ha demostrado experimentalmente
que las calorías, o la cuestión del calor, no existen". Coincidiendo con Rumford, añadió:
"El calor ... puede definirse como un movimiento peculiar, probablemente una vibración,
de los corpúsculos de los cuerpos ..."8
Aunque estos experimentos señalaron el camino hacia una nueva comprensión del
calor, hubo dos razones por las que no influyeron significativamente en la física a
principios del siglo XIX. En primer lugar, muchos físicos se mostraron reacios a
abandonar el concepto "calórico" porque parecía explicar las similitudes entre la
conducción de calor y el flujo de fluidos. En segundo lugar, la idea meramente
cualitativa de que el calor era una forma no especificada de movimiento interno tenía
poco poder explicativo. Hasta que se identificó la relación cuantitativa entre calor y
movimiento, la idea permaneció dormida; no podía integrarse con la mecánica y sus
implicaciones no podían investigarse ni explotarse. Cuando finalmente se le dio forma
matemática a la idea, rápidamente condujo a descubrimientos cruciales.
La relación cuantitativa se estableció en una brillante serie de experimentos
realizados por James Joule a mediados de la década de 1840. Joule diseñó un aparato en
el que se usaban pesos que caían para hacer girar las ruedas de paletas en un recipiente
con agua. En esta disposición, el movimiento externo de las pesas se convierte en calor,
elevando la temperatura del agua. Mostró que el aumento de temperatura es
proporcional al producto de los pesos por la distancia a través de la cual caen.
Las ruedas de paletas eran impulsadas por dos pesos de plomo de treinta libras que
caían repetidamente a una distancia de aproximadamente cinco pies. La temperatura
del agua se midió con termómetros que tenían una precisión de una centésima de grado
Fahrenheit, y Joule fue extraordinariamente cuidadoso para tener en cuenta las posibles
fuentes de error en el experimento (por ejemplo, el calor absorbido por el recipiente y
la pérdida de movimiento cuando los pesos impactaron el piso). Concluyó que un peso
de 772 libras que cae a una distancia de un pie es capaz de elevar la temperatura de una
libra de agua en un grado Fahrenheit, un resultado que está impresionantemente cerca
del valor correcto de 778 libras. Además, realizó experimentos similares utilizando
aceite de esperma y mercurio en lugar de agua.
El análisis cuantitativo de Joule podría integrarse con la mecánica newtoniana para
proporcionar información sobre la función específica del movimiento relacionada con
un aumento de temperatura. En caída libre, el producto del peso del cuerpo por la
distancia caída es igual a la mitad de la masa del cuerpo multiplicada por el cuadrado de
su velocidad. Los físicos se refieren a esta función del movimiento como la "energía
cinética" del cuerpo. Joule demostró que cuando la temperatura de un material aumenta
por la conversión del movimiento en calor, es la cantidad de energía cinética externa
gastada la que es proporcional al aumento de temperatura. Por tanto, si la temperatura
puede interpretarse como una medida de la energía cinética interna de las moléculas,
entonces este proceso consiste simplemente en convertir la energía cinética externa en
interna.
JJ Waterston, otro físico inglés, estaba familiarizado con el trabajo de Joule y dio el
siguiente paso crucial. Waterston centró su atención en la absorción de calor por los
gases, más que por los líquidos o sólidos. Se sabía que los volúmenes de gas son
enormes en comparación con los correspondientes volúmenes de líquido; por ejemplo,
a presión atmosférica estándar y temperatura de ebullición, el vapor ocupa un volumen
aproximadamente 1.500 veces el de la misma masa de agua líquida. Según la teoría
atómica, esto significa que la distancia entre las moléculas de gas es muy grande en
comparación con su tamaño. Por lo tanto, en oposición a Dalton, Waterston argumentó
que cualquier fuerza entre las moléculas debe ser insignificante en el estado gaseoso. Si
es así, cada molécula se moverá con velocidad constante hasta que choque con otra
molécula de gas o con las paredes del recipiente.
Waterston también podría hacer una hipótesis razonable sobre la naturaleza de
tales colisiones. Se sabía que cuando el calor se transfiere de cuerpos calientes a
cuerpos fríos, se conserva la cantidad total de calor. También se sabía que la energía
cinética se conserva en el caso de colisiones elásticas. Entonces, si el calor es una
medida de la energía cinética interna de las moléculas, entonces las colisiones
moleculares deben ser de naturaleza elástica. Así, Waterston llegó a su modelo simple
de gases: las moléculas se mueven libremente excepto en el impacto, cuando cambian su
movimiento de tal manera que se conservan tanto el momento como la energía
cinética.9
Sobre la base de este modelo, Waterston pudo derivar una ley que relaciona la
presión, el volumen y la energía de un gas. Mostró que el producto de la presión y el
volumen es proporcional al número de moléculas y la energía cinética promedio de las
moléculas. Este resultado se integró perfectamente con lo que ya se sabía sobre el calor
y los gases. Si la temperatura se equipara con la energía cinética promedio de las
moléculas, entonces la ley de Waterston dice que el producto de la presión y el volumen
es proporcional a la temperatura, que es precisamente la ley de los gases que Jacques
Charles había probado experimentalmente casi sesenta años antes. Además, la ley de
Waterston implica que a temperatura constante la presión de un gas es proporcional a
su densidad de masa, una relación que también se había probado experimentalmente
décadas antes. Finalmente, la ley implica que volúmenes iguales de gases deben
contener el mismo número de moléculas, siempre que la presión y la temperatura sean
iguales, es decir, la hipótesis de Avogadro se sigue necesariamente de este modelo
molecular de gases y de las leyes de Newton. El poder explicativo del análisis de
Waterston fue asombroso. Podemos entender por qué escribió: "Parece casi imposible
ahora escapar de la inferencia de que el calor es esencialmente [energía cinética]
molecular".10
Sin embargo, la ley atómica de los gases tenía una implicación que inicialmente
pareció problemática a muchos físicos. La ley relaciona la velocidad promedio de las
moléculas de gas con la presión y la densidad de masa del gas, las cuales pueden
medirse. Por tanto, se pudo calcular la velocidad de las moléculas y el resultado fue
sorprendentemente alto. Por ejemplo, a temperatura y presión estándar, la ley implica
que las moléculas de aire se mueven a una velocidad promedio de casi quinientos
metros por segundo. Sin embargo, se sabía que cuando se genera un gas con un olor
fuerte en una esquina de un laboratorio, pueden pasar un par de minutos antes de que
se detecte en el lado más alejado de la habitación. Si las moléculas de gas viajan tan
rápido, ¿cuál es la razón del retraso?
La respuesta fue dada por primera vez en un artículo de 1858 por Rudolf Clausius,
un físico alemán. Clausius sugirió que las moléculas viajan solo una distancia muy corta
antes de impactar con otras moléculas. Al atravesar una habitación, el progreso de una
molécula se ve muy frenado por miles de millones de colisiones y cambios de dirección
posteriores. Así introdujo la idea del "camino libre medio" de una molécula, es decir, la
distancia media que recorre una molécula antes de sufrir una colisión. Estimó que esta
distancia, aunque quizás mil veces mayor que el diámetro de la molécula, era todavía
muy pequeña en comparación con las dimensiones macroscópicas.
La idea de "camino libre medio" fue aprovechada por el mayor físico teórico del siglo
XIX, James Clerk Maxwell, y jugó un papel clave en su desarrollo de la teoría atómica de
los gases. Maxwell pudo derivar ecuaciones que relacionan el camino libre medio con
las tasas de difusión gaseosa y conducción de calor. Mostró que la tasa de difusión es
proporcional al producto de la velocidad promedio de las moléculas y su trayectoria
libre media, y la tasa de conducción de calor es proporcional al producto de la velocidad,
la trayectoria libre media y la capacidad calorífica. Estas ecuaciones pronto fueron
verificadas mediante experimentos, y Maxwell declaró con satisfacción: "Los resultados
numéricos ... concuerdan de manera muy notable con la fórmula derivada de la teoría
cinética".11
Aunque esta explicación de las velocidades de difusión y conducción de calor fue
muy impresionante, la predicción más notable de la teoría de Maxwell se refería a la
viscosidad de los gases. La viscosidad es una medida de la resistencia interna al flujo;
para citar un ejemplo familiar que compara líquidos, la miel tiene una viscosidad mucho
más alta que el agua. Maxwell demostró que la viscosidad de un gas es proporcional al
producto de la densidad de la masa, la trayectoria libre media y la velocidad media de
las moléculas. Considerada de forma aislada, esta relación puede no parecer
sorprendente. Sin embargo, el camino libre medio es inversamente proporcional al
número de moléculas por unidad de volumen en el gas, es decir, a la densidad, y por lo
tanto, combinando estas relaciones, la viscosidad gaseosa es independiente de la
densidad.
A primera vista, este resultado parece violar el sentido común. En una carta a un
colega, Maxwell comentó: "Esto es ciertamente muy inesperado, que la fricción sea tan
grande en un gas raro como en uno denso".12Inicialmente, no estaba dispuesto a creer
que los experimentos confirmarían la ley. Su predicción proporcionó una prueba crucial
de la teoría atómica, pero cuando buscó en la literatura en 1860, encontró que no se
había hecho ningún experimento adecuado.
Maxwell decidió realizar el experimento él mismo. Ideó un péndulo de torsión en el
que la fricción del aire resistía la rotación hacia adelante y hacia atrás de los discos de
vidrio. En este caso, la tasa de amortiguación de los discos oscilantes es proporcional a
la viscosidad del aire. El aparato se encerró en un recipiente de vidrio y se utilizó una
bomba para variar la presión del aire en el recipiente (que se midió con un barómetro
de mercurio). Fue un triunfo dramático para la teoría atómica cuando Maxwell observó
que la tasa de amortiguación de las oscilaciones permanecía constante a medida que la
presión del aire variaba de media pulgada a treinta pulgadas de mercurio. 13 En 1866
publicó estos resultados.
Aunque la ley parece paradójica, Maxwell comprendió por qué la teoría atómica
implica que la viscosidad gaseosa debe ser independiente de la densidad. El aire muy
cerca del disco de vidrio tiende a moverse con el disco, provocando poca resistencia a la
fricción; el aire más lejano, en cambio, comparte este movimiento en menor grado.
Cuando se elimina la mayor parte del aire, el número de colisiones entre las moléculas
de aire y el disco disminuye, pero dado que las moléculas que chocan vienen de más
lejos, el impulso transferido por colisión aumenta proporcionalmente. Por tanto, la
fuerza de resistencia permanece constante. Una generación más tarde, un físico
comentó: "[E] n toda la gama de la ciencia no hay descubrimiento más hermoso o
revelador que el de que la viscosidad gaseosa es la misma en todas las densidades". 14
La teoría de los gases tenía otra implicación interesante. Se demostró que el
diámetro de las moléculas se puede expresar en términos de dos cantidades: el camino
libre medio en estado gaseoso y el "coeficiente de condensación", que es la relación
entre el volumen de líquido y gas en el punto de ebullición. La trayectoria libre media
podría determinarse a partir de los resultados de experimentos que miden la
viscosidad, la difusión o la conducción de calor de los gases. También se midieron los
coeficientes de condensación de varios gases. En 1865, el físico alemán Joseph
Loschmidt reunió estos datos y llegó a la conclusión de que las moléculas tienen
aproximadamente un nanómetro de diámetro. Poco después, Maxwell mejoró el cálculo
y llegó a una estimación algo más pequeña y precisa de los diámetros moleculares.
En 1870, Lord Kelvin (también conocido como William Thomson) amplió el análisis
mostrando que los tamaños de las moléculas podían estimarse mediante varios
métodos. Al resultado anterior, agregó estimaciones basadas en la dispersión de la luz,
la electricidad de contacto en los metales y la acción capilar en películas delgadas como
las pompas de jabón.15 Los resultados de los cuatro métodos independientes estuvieron
de acuerdo, y Kelvin señaló que era muy impresionante que una gama tan amplia de
datos apuntasen todos a la misma conclusión.
Los físicos habían hecho su parte. Y mientras desarrollaban la teoría atómica de los
gases, los químicos no se habían quedado inactivos. Las décadas intermedias del siglo
XIX fueron un período de extraordinario progreso en la química, y el progreso dependió
del pensamiento en términos de átomos.

La unificación de la química
Anteriormente, dejamos a los químicos enfrentando un problema. Habían descubierto
pruebas sólidas a favor de la teoría atómica, pero las ideas falsas sobre la naturaleza de
los gases y los enlaces químicos habían llevado a muchos a negar la posibilidad de
moléculas de gas diatómico, lo que los llevó a rechazar la hipótesis de Avogadro, lo que
los dejó incapaces de llegar a los pesos atómicos correctos, lo que llevó a un nido de
problemas, incluidas las contradicciones con la ley de Dulong-Petit de capacidades
caloríficas. El hecho de que las moléculas de gas elemental a menudo constan de más de
un átomo tuvo que aceptarse antes de que la química pudiera liberarse de las
contradicciones.
Una pista importante para resolver este problema provino del mismo tipo de
experimentos que se habían utilizado para justificar la teoría iónica de la unión
excesivamente simplificada. Cuando se emplearon baterías potentes en experimentos
de electrólisis, algunos químicos notaron un "olor a electricidad" en el electrodo
positivo. Era el mismo olor que se había notado anteriormente en experimentos que
involucraban descargas eléctricas en el aire. Los químicos se dieron cuenta de que en
tales experimentos se estaba produciendo un gas nuevo, al que llamaron "ozono".
El primer avance en cuanto a la identidad de este gas lo realizó en 1845 Jean de
Marignac, profesor de química en Ginebra. Marignac demostró que el ozono podría
producirse mediante una descarga eléctrica a través del gas oxígeno ordinario, y
concluyó que el ozono debe ser un alótropo del oxígeno. La existencia de dos gases de
oxígeno muy diferentes parecía imposible de explicar a menos que los átomos de
oxígeno pudieran combinarse con otros átomos de oxígeno. Aquí había un resultado
experimental que contradecía directamente el argumento en contra de las moléculas de
gas diatómico. El propio Berzelius, uno de los principales defensores de la teoría iónica
de la unión, reconoció la importancia de este descubrimiento. Ya no era razonable negar
que las moléculas de gas pudieran ser combinaciones de átomos idénticos.
Por tanto, el descubrimiento del ozono, en combinación con la derivación de
Waterston de la ley de los gases, debería haber llevado a la aceptación de la hipótesis de
Avogadro en la década de 1840. Sin embargo, por razones que se explicarán en el
próximo capítulo, hubo un fuerte sesgo en contra de la teoría atómica y, en
consecuencia, el artículo de Waterston nunca se publicó. Como resultado, la confusión
generalizada sobre los pesos atómicos persistió durante más tiempo del necesario. Fue
un físico alemán, August Kroenig, quien finalmente repitió la derivación de Waterston y
la publicó en 1856.
A diferencia de Waterston, Kroenig no señaló explícitamente que la teoría atómica
de los gases proporcionó una validación fundamental de la hipótesis de Avogadro. Sin
embargo, al menos un químico comprendió la implicación. En 1858, Stanislao
Cannizzaro presentó la solución al problema de los pesos atómicos en un documento
histórico titulado "Bosquejo de un curso de filosofía química". El documento es un
modelo de pensamiento claro sobre un tema que había estado sumido en la oscuridad y
las contradicciones durante décadas.
Cannizzaro mostró cómo integrar todos los datos relevantes para llegar a un
conjunto de pesos atómicos determinados de forma única. La hipótesis de Avogadro
formó la pieza central de su argumento. Muchos de los elementos más comunes, por
ejemplo, hidrógeno, carbono, nitrógeno, oxígeno, azufre, cloro, se combinan de diversas
formas para formar gases. Se midieron las densidades de vapor de los gases. Además, en
los gases compuestos, se conocía el porcentaje en peso de cada elemento. El producto de
la densidad del vapor y el peso porcentual da la densidad de masa de cada elemento del
gas. Dado que el número de moléculas es siempre el mismo para volúmenes iguales
(según la hipótesis de Avogadro), estas densidades de masa son proporcionales al
número de átomos del elemento que están contenidos en la molécula de gas. Por tanto,
se puede determinar la composición atómica de las moléculas de gas, y luego se pueden
deducir los pesos atómicos relativos de los elementos. Cannizzaro demostró que si al
hidrógeno (el elemento más ligero) se le asigna un peso atómico de 1, entonces el peso
del carbono es 12, el nitrógeno es 14, el oxígeno es 16 y el azufre es 32.
Una vez que se conocieron los pesos atómicos de estos elementos, se podrían
determinar los pesos de la mayoría de los demás elementos en relación con ellos. En los
casos en que persistían las ambigüedades, Cannizzaro a menudo las resolvía utilizando
la ley de Dulong-Petit de capacidades caloríficas. Por lo general, los pesos atómicos
candidatos diferían en un factor de dos, con un valor conforme a la ley de Dulong-Petit y
el otro valor contradeciéndola.
En 1860, Cannizzaro aprovechó la oportunidad para presentar su artículo en una
importante conferencia celebrada en Karlsruhe, Alemania. Este famoso encuentro se
convirtió en un punto de inflexión para la química del siglo XIX; en unos pocos años, la
mayoría de los químicos aceptaron los pesos atómicos correctos. Un profesor de
química, Lothar Meyer, expresó su reacción al artículo de Cannizzaro con las siguientes
palabras: “Fue como si me cayeran escamas de los ojos, la duda se desvaneciera y fuera
reemplazada por un sentimiento de certeza pacífica”.dieciséis
Una vez eliminado su mayor obstáculo, los químicos lograron un rápido progreso
durante la siguiente década. Con los pesos atómicos correctos, podrían determinar las
fórmulas moleculares correctas. Surgió un patrón que llevó al nuevo concepto de
"valencia", que se refiere a la capacidad de un átomo de combinarse con otros átomos.
Por ejemplo, un átomo de carbono se puede combinar con hasta otros cuatro átomos, un
átomo de nitrógeno con tres, un átomo de oxígeno con dos y un átomo de hidrógeno con
uno. En sentido figurado, se puede pensar en la valencia como el número de "ganchos"
que tiene un átomo para unirse a otros átomos.
El concepto de "valencia" fue introducido por primera vez por el químico inglés
Edward Frankland, quien había llegado a la idea mientras estudiaba las diversas formas
en que el carbono se combina con los metales.17Frankland fue uno de los primeros
químicos en hacer uso de modelos de estructura molecular de bolas y alambres; en tales
modelos, la valencia de un átomo corresponde al número de cables conectados a la bola.
En 1861 escribió: “El comportamiento de los cuerpos organometálicos enseña una
doctrina que afecta a los compuestos químicos en general, y que puede llamarse la
doctrina de la saturación atómica; cada elemento es capaz de combinarse con un cierto
número de átomos; y este número nunca se puede superar ... "18Primero identificó esta
"ley de valencia" en la década de 1850, pero en muchos casos las valencias que
inicialmente asignó a los átomos estaban equivocadas. En 1866, una vez corregidos los
errores, Frankland expresó su agradecimiento a Cannizzaro: “No olvido cuánto debe
esta ley en su actual desarrollo a la labor de Cannizzaro. De hecho, hasta que este último
colocó los pesos atómicos de los elementos metálicos sobre su base consistente actual,
el desarrollo satisfactorio de la doctrina fue imposible ”. 19
En 1869, una revista inglesa publicó un artículo de revisión sobre la teoría atómica
que se refería a la valencia como "la nueva idea que está revolucionando la
química".20Esto no fue una exageración. A principios de ese año, el químico ruso Dmitry
Mendeleyev había propuesto una clasificación sistemática de los elementos químicos,
basada en las propiedades del peso atómico y la valencia, "que unificaba y racionalizaba
todo el esfuerzo de la investigación química".21
Varios químicos habían notado anteriormente que existen grupos naturales de
elementos químicos que poseen propiedades similares. Seis de estos grupos (conocidos
en ese momento) son: (1) litio, sodio y potasio; (2) calcio, estroncio y bario; (3) flúor,
cloro, bromo y yodo; (4) oxígeno, azufre, selenio y telurio; (5) nitrógeno, fósforo,
arsénico y antinomia; y (6) carbono, silicio y estaño. En cada grupo, los elementos
tienen la misma valencia y afinidades eléctricas similares.
Mendeleyev construyó una tabla de todos los elementos conocidos en orden de peso
atómico creciente y notó que los elementos similares se repiten a intervalos definidos.
Así anunció su "ley periódica": Las propiedades de los elementos son funciones
periódicas de sus pesos atómicos. En la versión moderna de su tabla, que se presenta en
todos los cursos de introducción a la química, los elementos aparecen en orden de peso
atómico ascendente en las filas horizontales, y las columnas verticales contienen
elementos de la misma valencia.
Mendeleyev señaló que "los lugares vacantes se producen por elementos que tal vez
se descubran con el tiempo". Al comprender cómo se relacionan otras propiedades de
un elemento con su peso atómico y valencia, se dio cuenta de que "es posible predecir
las propiedades de un elemento aún desconocido". Por ejemplo, había un espacio debajo
del aluminio que se llenó cuando se descubrió el galio en 1875, y otro espacio debajo del
silicio que se llenó cuando se descubrió el germanio en 1886. Mendeleyev predijo las
propiedades de ambos elementos, y sus predicciones fueron notablemente precisas. Con
la construcción de la tabla periódica, los elementos químicos ya no se separaron de
forma aislada; la teoría atómica había hecho posible conectarlos juntos en un todo
inteligible.22
Los pesos atómicos y valencias correctos también condujeron a avances en la nueva
frontera de la investigación química: la determinación de la estructura molecular. En
1861, el químico ruso Alexander Butlerov describió el ambicioso objetivo de este nuevo
programa de investigación: “Solo es posible una fórmula racional para cada compuesto,
y cuando se hayan derivado las leyes generales que gobiernan la dependencia de las
propiedades químicas de la estructura química, esta fórmula será representan todas
estas propiedades ".23Butlerov se dio cuenta de que no era suficiente conocer el número
de átomos y sus identidades; Para comprender las propiedades de un compuesto, se
debe determinar la disposición espacial de los átomos dentro de la molécula. Uno de los
primeros grandes triunfos de este programa fue el descubrimiento de la estructura
molecular del benceno.
La existencia del benceno se conocía desde hacía décadas. En 1825, la Portable Gas
Company de Londres le pidió a Michael Faraday que analizara un misterioso
subproducto líquido del proceso que generaba gas natural para la iluminación. Por
destilación, obtuvo la primera muestra de benceno puro, un compuesto que estaba
destinado a ser de gran utilidad tanto en la teoría química como en la práctica
industrial. El intento de análisis de Faraday, sin embargo, no fue del todo exitoso. Sin la
hipótesis de Avogadro y con la suposición de que el peso atómico del carbono es seis en
lugar de doce, llegó a la fórmula molecular incorrecta de C2H.
Después del trabajo de Cannizzaro, la fórmula molecular del benceno se identificó
correctamente como C6H6, pero su estructura seguía siendo un misterio. Era un
compuesto muy estable que podía convertirse en muchos derivados sin descomponerse.
Esto fue sorprendente, dado que la proporción de hidrógeno a carbono era tan baja. Por
el contrario, el compuesto acetileno (C2H2) tiene la misma relación baja hidrógeno-
carbono y es altamente reactivo.
El estudio de los derivados del benceno, es decir, compuestos en los que uno o más
de los átomos de hidrógeno son reemplazados por un átomo (o grupo de átomos)
diferente, reveló otra propiedad interesante. Se encontró, por ejemplo, que solo se
forma un compuesto de clorobenceno cuando un átomo de cloro se sustituye por
cualquiera de los átomos de hidrógeno. Por tanto, los átomos de hidrógeno deben
ocupar posiciones indistinguibles en la estructura, lo que implica que la molécula de
benceno es muy simétrica.
La estructura molecular del benceno que explica tanto su estabilidad como su
simetría fue propuesta por primera vez en 1861 por Loschmidt. Los seis átomos de
carbono forman un anillo hexagonal simétrico, con un átomo de hidrógeno unido a cada
carbono. La naturaleza tetravalente del carbono implica que el anillo debe mantenerse
unido alternando enlaces simples y dobles; de esta manera, cada átomo de carbono usa
tres de sus enlaces en átomos de carbono adyacentes y el cuarto en el átomo de
hidrógeno.
Desafortunadamente, el libro de Loschmidt recibió solo una pequeña impresión de
un editor desconocido y, en consecuencia, pocos químicos lo leyeron. La mayoría de los
químicos se enteraron de esta estructura propuesta del benceno por el famoso químico
alemán August Kekule, quien la publicó en 1865. Kekule fue mucho más lejos que
Loschmidt al realizar un extenso estudio de muchos isómeros de derivados del benceno.
Por ejemplo, demostró que el diclorobenceno, el triclorobenceno y el tetraclorobenceno
existen cada uno en tres formas isoméricas diferentes, exactamente como lo predice la
estructura del anillo hexagonal. En 1872, Kekule informó que "no había salido a la luz
ningún ejemplo de isomería entre los derivados del benceno que no pudiera explicarse
completamente por la diferencia en las posiciones relativas de los átomos sustituidos
por hidrógeno".24Fue un logro histórico: los químicos ahora tenían el conocimiento y las
técnicas experimentales necesarias para inferir la distribución espacial de los átomos en
las moléculas. Las moléculas en sí mismas no se podían ver, pero tampoco podían
esconderse.
El caso del benceno se simplificó por el hecho de que la molécula tiene una
estructura plana. En la mayoría de las moléculas, los átomos se distribuyen en tres
dimensiones. El estudio de las estructuras moleculares tridimensionales se denomina
estereoquímica y sus orígenes se remontan al primer gran descubrimiento de Louis
Pasteur.
En 1846, Pasteur comenzó un estudio del tartrato de sodio y amonio, una sustancia
cristalina que se sabía que era ópticamente activa (es decir, que gira el plano de la luz
polarizada). Cuando miró los pequeños cristales con una lupa, notó que eran sutilmente
asimétricos; había una pequeña faceta en un lado que no aparecía en el otro lado. Pensó
que esta asimetría podría ser la causa de la actividad óptica. Así que decidió examinar
los cristales de racemato de sodio y amonio, un isómero ópticamente inactivo del
tartrato. Si los cristales del racemato fueran simétricos, tendría una fuerte evidencia de
que la asimetría en el tartrato provoca la rotación de la luz.
En cambio, Pasteur descubrió que los cristales racémicos se presentaban en dos
variedades, ambas asimétricas y cada una la imagen especular de la otra. Usando pinzas,
separó cuidadosamente los dos tipos de cristales. Uno de los cristales era idéntico al
tartrato y hacía girar el plano de luz polarizada en la misma dirección. El cristal de
imagen especular hizo girar la luz en la misma cantidad pero en la dirección opuesta. El
racemato es ópticamente inactivo porque el efecto de un cristal se cancela por el efecto
de su imagen especular.
¿Por qué es esto relevante para la estructura molecular? Porque estos compuestos
isoméricos rotan el plano de la luz polarizada incluso cuando están disueltos en
solución. La asimetría que causa la rotación persiste después de que el cristal se rompe
en las moléculas que lo componen. Pasteur concluyó que la asimetría es una propiedad
de las propias moléculas. En 1860, escribió: “¿Están los átomos… agrupados en la
espiral de una hélice derecha, o están situados en los ápices de un tetraedro regular, o
están dispuestos de acuerdo con alguna otra disposición asimétrica? No sabemos. Pero
de esto no hay duda de que los átomos poseen una disposición asimétrica como la de un
objeto y su imagen especular ”.25
La respuesta a la pregunta de Pasteur fue proporcionada por Jacobus van 't Hoff en
1874. Van' t Hoff se dio cuenta de que las estructuras de la imagen especular y la
actividad óptica resultante podrían explicarse si los cuatro enlaces de un átomo de
carbono apuntan a los vértices de un tetraedro (una pirámide triangular). En esta
disposición, siempre que cuatro átomos diferentes (o grupos de átomos) se unan al
carbono en el centro del tetraedro, será posible crear dos isómeros que son imágenes
especulares. La estructura tetraédrica de los enlaces de carbono explicó los resultados
de Pasteur y los otros casos conocidos de actividad óptica en compuestos orgánicos (por
ejemplo, ácido láctico o gliceraldehído).
Además, la disposición simétrica tridimensional de enlaces de carbono de Van 't Hoff
proporcionó la solución a otro problema. La suposición de una estructura plana con los
cuatro enlaces de carbono dispuestos en un cuadrado había llevado a la predicción de
isómeros inexistentes. Por ejemplo, considere el compuesto dicloruro de metilo, que
tiene la fórmula CH2Cl2. La estructura plana predice dos isómeros; los átomos de cloro
pueden estar en un lado del cuadrado o diagonalmente opuestos entre sí. En la
estructura tetraédrica, sin embargo, todos los arreglos son idénticos, lo cual fue
consistente con el análisis de laboratorio que pudo aislar solo un dicloruro de metilo.
Dos décadas antes, el objetivo de comprender las propiedades de los compuestos en
términos de la disposición espacial de los átomos en las moléculas parecía inalcanzable.
Ahora se había logrado. La teoría atómica había integrado la ciencia de la química y
demostró su poder explicativo de manera dramática. Con respecto a la contribución de
Van 't Hoff, un historiador escribe: “En 1874, la mayoría de los químicos ya habían
aceptado la teoría de la estructura, y ahora aquí estaba la prueba definitiva. A todos los
efectos, se resolvió el gran debate sobre si los átomos y las moléculas existían
realmente, cuyas raíces se remontan a Dalton y, antes que a él, a los antiguos ”. 26
Esto es verdad; a mediados de la década de 1870, la evidencia de la teoría atómica
era abrumadora. Ya no eran posibles las dudas razonables.

El método de la prueba
Los científicos del siglo XIX descubrieron la naturaleza fundamental de la materia de la
misma manera que los científicos del siglo XVII descubrieron las leyes fundamentales
del movimiento. A lo largo de este capítulo, hemos visto el mismo método en
funcionamiento, es decir, conceptos objetivos que funcionan como luces verdes para la
inducción, el papel del experimento y las matemáticas en la identificación de leyes
causales y la integración a gran escala que culmina en la demostración. Analicemos
ahora los pasos que llevaron a este magnífico logro.
Lavoisier comprendió que el lenguaje es más que una condición previa necesaria
para expresar nuestros pensamientos sobre el mundo; nuestros conceptos conllevan un
compromiso de generalizar sobre sus referentes y, por tanto, dirigen y posibilitan
nuestra búsqueda de leyes. Como dijo, si los químicos aceptaban el lenguaje propuesto,
"deben seguir irresistiblemente el rumbo marcado por él".
El lenguaje de Lavoisier guió a los químicos por el camino que finalmente condujo a
la teoría atómica. Su sistema exigía que se respondieran ciertas preguntas para
conceptualizar adecuadamente un material: ¿es una sustancia o una mezcla? Si es una
sustancia, ¿se puede descomponer en diferentes elementos? En los casos en que
diferentes sustancias están hechas de los mismos elementos, ¿cómo se distinguen las
sustancias? Estas son las preguntas que ponen a los químicos en un camino para
descubrir las leyes de la composición constante y las proporciones múltiples y,
finalmente, para identificar los pesos relativos de los átomos y las fórmulas moleculares
de los compuestos.
Al igual que en el caso de la física, el camino hacia la química moderna primero
necesitaba ser despejado mediante la eliminación de conceptos inválidos. Por ejemplo,
Lavoisier lideró la batalla contra el concepto “flogisto”, que se refería al supuesto
elemento asociado al fuego. Se pensaba que una vela encendida liberaba flogisto al aire
circundante. Si la vela se coloca en un recipiente cerrado, la llama se extingue cuando el
aire se satura y no puede absorber más flogisto. El gas restante que no permitiría la
combustión, que era nitrógeno puro, se identificó como aire normal más flogisto.
Cuando se aisló la parte del aire que sí favorecía la combustión, es decir, el oxígeno, se la
identificó como aire normal menos flogisto. Se cometió un error similar cuando el agua
se descompuso por primera vez en hidrógeno y oxígeno. El hidrógeno se identificó
como agua más flogisto,
Sin embargo, mediante análisis cuantitativo, se descubrió que una sustancia en
combustión gana peso mientras que el aire circundante pierde peso. Aquellos que
siguieron el rumbo marcado por el concepto "flogisto" se vieron obligados entonces a
atribuir a este elemento una masa negativa. Si los químicos hubieran continuado por
este camino y hubieran admitido la posibilidad de elementos con masa negativa,
habrían abandonado el principio que les permitía distinguir elementos de compuestos,
y el progreso de la química se habría detenido abruptamente. Afortunadamente, la
mayoría de los químicos descartaron la idea de "masa negativa" como arbitraria.
Siguieron a Lavoisier cuando rechazó el flogisto e identificó la combustión como el
proceso de una sustancia que se combina con el oxígeno.
El lenguaje químico de Lavoisier proporcionó parte de la base, pero hemos visto que
la teoría atómica requería la formación de muchos otros conceptos. Casi todas las leyes
que contribuyeron a la prueba de la teoría hicieron uso de un nuevo concepto crucial.
Está la hipótesis de Avogadro y el concepto de "molécula", la ley de Dulong-Petit y los
conceptos de "calor específico" y "peso atómico", la ley de electrólisis de Faraday y el
concepto de "ion", la ley de los gases de Waterston y el concepto de "energía"
( integrando movimiento y calor), las leyes de Maxwell de los procesos de transporte
gaseoso y el concepto de "camino libre medio", y la ley periódica de Mendeleyev y el
concepto de "valencia". En cada caso, los hechos dieron lugar a la necesidad de un nuevo
concepto, y luego ese concepto permitió captar una relación causal que había sido
inaccesible sin él.
Dado un marco conceptual válido, las relaciones causales se descubrieron mediante
la experimentación. En algunos casos, se indujeron directamente a partir de los datos
experimentales (por ejemplo, la ley de los gases de Charles, la ley de la composición
constante, la ley de las proporciones múltiples y la ley de combinar los volúmenes de
gas). Estas leyes se alcanzaron y validaron independientemente de la teoría atómica. En
otros casos, como lo ilustra la teoría cinética de los gases, las leyes se dedujeron
matemáticamente de premisas sobre los átomos que se basaban en datos
experimentales; estas leyes fueron luego confirmadas por experimentos adicionales.
Todos los experimentos discutidos en este capítulo contribuyeron a la demostración
de la teoría atómica. Sin embargo, algunos de ellos se destacan como cruciales. El mejor
ejemplo es el experimento de Maxwell que muestra que la viscosidad gaseosa es
independiente de la densidad. La teoría atómica ofreció una explicación simple para
este sorprendente resultado, una explicación que se basa en el hecho de que los gases
consisten en partículas muy separadas que se mueven libremente entre colisiones. Por
el contrario, una teoría del continuo de la materia parecería implicar que un medio más
denso debería ofrecer una mayor resistencia al movimiento a través de él. Así, este
experimento aisló un caso en el que la teoría atómica hacía una predicción que la
diferenciaba de cualquier teoría del continuo.
Un experimento u observación "crucial" confirma la predicción de una teoría al
tiempo que contradice las teorías alternativas. Un buen ejemplo de la astronomía lo
proporcionan las observaciones telescópicas de Venus de Galileo, que mostraron una
gama completa de fases a medida que el planeta se movía alrededor del sol. Estas
observaciones fueron predichas por la teoría heliocéntrica y contradecían
rotundamente la teoría de Ptolomeo. Otro ejemplo se puede encontrar en óptica: la
recombinación de Newton del espectro de color para producir luz blanca fue predicha
por su teoría, y contradecía las teorías alternativas propuestas por Descartes y Hooke.
Muchos filósofos de la ciencia niegan que cualquier experimento en particular pueda
considerarse "crucial". Este rechazo de experimentos cruciales se remonta a Pierre
Duhem y Willard Quine, y se le conoce comúnmente como la tesis de Duhem-Quine.
Argumentaron que ningún experimento por sí solo puede desempeñar un papel
decisivo en la validación o refutación de una teoría amplia. En un sentido trivial, esto es
cierto: un experimento, considerado de forma aislada, no puede realizar tal función. Sin
embargo, los resultados de un solo experimento —cuando sus implicaciones no son
eludidas por hipótesis arbitrarias y cuando se juzga dentro del contexto total del
conocimiento— pueden jugar y desempeñan regularmente un papel tan decisivo. La
evaluación de los nuevos datos como cruciales depende del contexto.
El experimento proporciona acceso a las matemáticas mediante la medición
numérica. Al comienzo de una investigación, se pueden realizar experimentos no
cuantitativos para determinar si un efecto ocurre en circunstancias específicas. Tales
experimentos caracterizan la historia temprana de la química, la electricidad y el calor.
Sin embargo, a medida que avanza la investigación, los experimentos deben implicar la
realización de mediciones numéricas. Los descubrimientos descritos en este capítulo
dependieron por completo de mediciones realizadas con balanzas de masa de precisión,
termómetros, barómetros, amperímetros, aparatos para determinar las densidades de
vapor, etc. Las leyes causales integradas por la teoría atómica son ecuaciones que
expresan relaciones entre los datos numéricos.
Con respecto a la química, podemos plantear la misma pregunta que hicimos
anteriormente sobre la astronomía: ¿Qué progreso fue posible sin las matemáticas?
Encontramos una respuesta similar. Así como un pastor antiguo podía usar sus
observaciones del cielo como un reloj y una brújula, un químico primitivo podía usar su
conocimiento de las reacciones con el propósito práctico de purificar metales o
sintetizar tintes. Sin embargo, tanto en astronomía como en química, esta etapa
prematemática consistió en una lista muy larga de elementos de conocimiento
separados, sin forma de comprender las relaciones causales que los conectan. Ambos
campos se convirtieron en ciencias solo cuando las medidas numéricas se unificaron
mediante leyes expresadas en forma matemática.
El mismo punto se ve en el estudio del calor. Los experimentos cualitativos de
Rumford y Davy proporcionaron una fuerte evidencia de que el calor era una forma de
movimiento interno, pero la idea no condujo a ninguna parte durante los siguientes
cuarenta y cinco años. Por el contrario, cuando Joule midió la relación cuantitativa entre
el calor y el movimiento, abrió las compuertas a nuevos descubrimientos. La
temperatura se identificó con la energía cinética promedio de las moléculas y, en veinte
años, la teoría cinética de los gases había explicado una enorme variedad de datos.
En la ciencia física, las verdades cualitativas son meros puntos de partida; pueden
sugerir un curso de investigación, pero esa investigación sólo tiene éxito cuando llega a
una relación causal entre cantidades. Entonces se desata el poder de las matemáticas; Se
pueden identificar conexiones entre hechos que anteriormente parecían no tener
ninguna relación (p. ej., colisiones elásticas en mecánica y flujo de calor entre cuerpos, o
la capacidad calorífica de un elemento y la masa de sus átomos, o los volúmenes de los
gases que reaccionan y la composición de las moléculas. , o conducción de calor en gases
y tamaño de moléculas). Las matemáticas son el medio que tiene el científico para
integrar su conocimiento.
Consideremos ahora el resultado final del método inductivo: la demostración de una
teoría física. Una teoría es un conjunto integrado de principios en los que se basa todo
un tema; como tal, subsume y explica los hechos particulares y las leyes más estrictas.
Debido a la naturaleza abstracta de una teoría, puede ser difícil para un científico
decidir cuándo la evidencia ha culminado en una prueba. Sin embargo, esta pregunta es
de gran importancia práctica. Si el estándar de prueba de un científico es demasiado
bajo, puede aceptar fácilmente una teoría falsa y realizar una investigación que no lleve
a ninguna parte (las teorías basadas en el flogisto y el calórico son buenos ejemplos).
Pero el hecho de no aceptar una teoría probada en nombre de supuestos "estándares
más altos" es igualmente desastroso; dado que el progreso ulterior en el campo
depende de la teoría,
Hemos visto que la evidencia de los átomos se acumula durante un período de siete
décadas. Por supuesto, este progreso no se detuvo a mediados de la década de 1870;
cada década a partir de entonces, más descubrimientos se sumaron al poder explicativo
de la teoría. Pero estos descubrimientos posteriores no contribuyeron a la prueba, que
ya estaba completa. Repasemos ahora la evidencia e identifiquemos los criterios de
prueba.
En el primer tercio del siglo XIX, se descubrieron cuatro leyes que sustentaban la
naturaleza atómica de los elementos químicos: (1) los elementos se combinan en
unidades discretas de masa para formar compuestos; (2) las reacciones gaseosas
involucran unidades enteras de volumen; (3) un elemento sólido tiene una capacidad
calorífica que es proporcional al número de unidades de masa discretas; (4) la cantidad
de electricidad generada por una reacción química es proporcional al número de
unidades de masa discretas que reaccionan en los electrodos. Además, el
descubrimiento de alótropos e isómeros proporcionó evidencia adicional para la teoría
atómica, que tenía el potencial de explicarlos como diferentes arreglos espaciales de los
mismos átomos.
Estas leyes incluyen una gran cantidad de datos que abarcan los campos de las
reacciones químicas, el calor y la electricidad. Al atribuir a los átomos o moléculas las
masas, los volúmenes gaseosos, las cantidades de calor y las cargas eléctricas
adecuadas, la teoría atómica podría ofrecer explicaciones de las cuatro leyes. ¿Por qué
esto no es suficiente para probar la teoría?
El problema era que los científicos no tenían razones independientes para asignar a
los átomos y moléculas las propiedades necesarias para explicar estas leyes. Considere
la hipótesis de Avogadro, que se introdujo para explicar la ley de combinar volúmenes.
Inicialmente, la hipótesis no podía conectarse con otros conocimientos sobre los gases
y, como hemos visto, chocaba con puntos de vista ampliamente sostenidos (pero falsos)
sobre los enlaces químicos y la causa de la presión gaseosa. Un punto similar se aplica a
la explicación atómica ofrecida por Dulong y Petit para su ley de capacidades caloríficas.
No pudieron dar ninguna razón por la cual cada átomo debería absorber la misma
cantidad de calor, y no pudieron conectar su hipótesis con otros conocimientos sobre el
calor y la temperatura. Por lo tanto, en esta etapa,
Hemos visto cómo estas dudas fueron finalmente superadas por descubrimientos
sobre la naturaleza del calor y los gases. Los experimentos que estudiaron la conversión
del movimiento en calor proporcionaron una fuerte evidencia de que la temperatura es
una medida de la energía cinética interna. Esta idea se integró con la ley Dulong-Petit;
era razonable esperar que los átomos en equilibrio térmico tuvieran la misma energía
cinética promedio. Además, cuando la idea se combinó con un modelo molecular simple
de gases, podría usarse para derivar la ley básica que relaciona la presión, el volumen y
la temperatura de un gas. La hipótesis de Avogadro surgió de este análisis como
consecuencia, conectando así la hipótesis con la ley de los gases de Charles y con las
leyes del movimiento de Newton.
Esto fue casi suficiente para transformar la idea de Avogadro de una hipótesis en
una ley. Sin embargo, aún podían surgir dudas razonables sobre el modelo simple de
"bola de billar" de las moléculas de gas que se había asumido en la derivación de la ley
de Charles. La teoría no fue del todo convincente hasta que pudo explicar otras
propiedades conocidas de los gases. Por tanto, el trabajo de Maxwell fue crucial; cuando
desarrolló y amplió el modelo para explicar los procesos de transporte gaseoso (es
decir, difusión, conducción de calor y viscosidad), entonces el rango de datos integrados
por la teoría cinética de los gases no dejó motivos legítimos para un escepticismo
persistente.
Dada la fuerza de esta evidencia, los químicos se vieron obligados a aceptar la idea
de Avogadro junto con todas sus implicaciones. ¿Fue probada entonces la teoría
atómica? No del todo, por una razón. La química había estado sumida en el caos durante
décadas, y los químicos tardaron algún tiempo en utilizar su nuevo conocimiento sobre
los átomos para integrar y explicar los hechos de su ciencia. Una vez que identificaron
los pesos atómicos y valencias correctos, el desarrollo de la tabla periódica y el triunfo
de la teoría de la estructura molecular completaron la demostración.
En esta etapa, la evidencia de la teoría atómica satisfizo tres criterios que son
esenciales para la prueba de cualquier teoría amplia.
Primero, cada concepto y cada generalización contenida en la teoría debe derivarse
de observaciones mediante un método válido. Una teoría probada no puede tener
conceptos como "flogisto" o "espacio absoluto", ni relaciones causales que no se deriven
de los datos de observación. A menudo se afirma que una buena teoría predice
correctamente algunas observaciones y no contradice ninguna. Este criterio
comúnmente establecido es necesario, por supuesto, pero está muy lejos de ser
suficiente; puede satisfacerse con teorías falsas o incluso arbitrarias. Hemos visto que la
teoría atómica tiene una relación diferente con los datos: cada ley subsumida por la
teoría fue rigurosamente inducida a partir de los resultados de los experimentos.
En segundo lugar, una teoría probada debe formar un todo integrado. No puede ser
un conglomerado de partes independientes que se ajustan libremente para ajustarse a
los datos (como fue el caso de la astronomía ptolemaica). Más bien, las diversas partes
de la teoría están interconectadas y se refuerzan mutuamente, de modo que la negación
de cualquier parte conduce a contradicciones en todo el conjunto. Una teoría debe tener
esta característica para que la evidencia la requiera. De lo contrario, no se podría llegar
a una evaluación concluyente sobre la relación entre la evidencia y la teoría; en el mejor
de los casos, se podría evaluar sólo la relación entre la evidencia y partes de la teoría.
Por otro lado, cuando una teoría es un todo integrado, entonces la evidencia para
cualquier parte es evidencia para el todo.
A mediados de la década de 1870, la teoría atómica cumplió este criterio. Se
encontró que las propiedades de los átomos que habían sido hipotetizadas para explicar
un conjunto de hechos experimentales eran indispensables en la explicación de otros
hechos y leyes. Por ejemplo, la hipótesis de Avogadro comenzó como una explicación de
una ley que gobierna las reacciones químicas de los gases, y luego se convirtió en una
parte esencial de una teoría que derivaba las propiedades físicas de los gases de la
mecánica newtoniana. No se puede negar la hipótesis de Avogadro sin contradecir la
explicación de media docena de leyes y cortar la conexión entre los átomos y las leyes
del movimiento. De manera similar, la hipótesis atómica de Dulong y Petit no explica
simplemente las capacidades caloríficas de los sólidos; se convirtió en parte de una
teoría que relacionaba el calor con el movimiento atómico en todos los materiales.
Para concretar aún más este punto, consideremos las consecuencias de hacer un
pequeño cambio en la teoría. Por ejemplo, imagine que los científicos se negaron a
corregir la fórmula molecular propuesta por Faraday para el benceno, C2H. Las
mediciones de la densidad de vapor del gas benceno contradecirían la hipótesis de
Avogadro, que tendría que ser rechazada junto con la teoría cinética de los gases que la
implica. Además, dado que esta fórmula incorrecta implica la valencia incorrecta para el
carbono, los químicos también se verían obligados a rechazar la ley periódica de
Mendeleyev y la teoría de las estructuras moleculares en química orgánica. Las
consecuencias de este único cambio dejarían toda la teoría atómica en ruinas. Cuando
una teoría es un todo, las partes no pueden ajustarse libremente; están limitados por
sus relaciones con el resto de la teoría y los hechos en los que se basa.
El tercer criterio se refiere al rango de datos integrados por la teoría. El alcance de
una teoría probada debe estar determinado por los datos a partir de los cuales se
obtiene; es decir, la teoría no debe ser más amplia ni más estrecha de lo que se requiere
para integrar los datos. Este criterio no es independiente de los dos primeros;
simplemente hace explícita una implicación crucial. Si la teoría es demasiado amplia, la
evidencia no la necesita y, por lo tanto, viola el primer criterio (en tal caso, la teoría
puede ser una hipótesis legítima, pero no puede considerarse probada). Si la teoría es
demasiado estrecha, no logrará la integración descrita por el segundo criterio.
Por ejemplo, cuando Kepler integró las observaciones de los planetas de Brahe, llegó
a leyes que estaban restringidas al movimiento planetario. Para que Newton alcanzara
las leyes universales, tuvo que incluir datos sobre los movimientos de cuerpos
terrestres, lunas, océanos y cometas. De manera similar, a principios del siglo XIX,
cuando la teoría atómica solo se apoyaba en datos de la química, solo se podían llegar a
conclusiones sobre la naturaleza discreta de las reacciones químicas. En esta etapa era
una hipótesis que la teoría podría generalizarse a una teoría fundamental de la materia.
Para llegar a esta generalización, los científicos necesitaban una serie de datos que
los obligaran a considerar los átomos como unidades básicas de materia, no
simplemente como unidades de reacciones químicas. El avance se produjo cuando los
físicos explicaron la naturaleza del calor y los gases en términos de átomos de cierto
tamaño que se movían de acuerdo con las leyes de Newton. Las leyes del movimiento se
aplican a la materia como materia, no a los elementos químicos como elementos
químicos. Cuando estas propiedades físicas de los materiales pudieron explicarse
mediante átomos en movimiento, la teoría atómica se convirtió en una teoría
fundamental de la materia que reunió en un todo las leyes que gobiernan las reacciones
químicas, el movimiento, el calor, la corriente eléctrica y las diversas propiedades de los
gases.
Los tres criterios describen la relación entre una teoría probada y la evidencia que la
respalda. Cuando todos los aspectos de la teoría se inducen a partir de los datos (no se
inventan a partir de la imaginación), y la teoría forma un todo cognitivo (no una
colección independiente de leyes), y el alcance de la teoría se deriva objetivamente del
rango de datos, entonces la teoría es verdaderamente una integración (criterio 2) de los
datos (criterio 1), ni más ni menos (criterio 3).
Un concepto válido debe satisfacer criterios similares; se deriva de observaciones
(no un producto de la fantasía), es una integración de concretos similares (no una mera
colección), y su definición no debe ser demasiado amplia ni demasiado estrecha. Por
supuesto, existen muchas diferencias entre un concepto y una teoría científica. Sin
embargo, los criterios de validación son similares, porque se trata de principios amplios
que identifican cómo una facultad conceptual forma adecuadamente un todo cognitivo.
Estos criterios no se pueden cuantificar. Sería ridículo afirmar, por ejemplo, que se
requieren 514 pruebas para probar una teoría fundamental. Sin embargo, los criterios
identifican dentro de límites estrechos cuando la evidencia culmina en prueba. La teoría
atómica, obviamente, no fue probada antes del trabajo culminante de Maxwell sobre la
teoría cinética de los gases, publicado en 1866, mientras que la integración necesaria de
datos físicos y químicos se había logrado claramente cuando se confirmó la predicción
del galio de Mendeleyev en 1875. Habrá espacio para un debate racional sobre si la
teoría atómica se evalúa adecuadamente como se demostró en 1870. Pero poco está en
juego en tal debate.
La afirmación de que la teoría atómica fue probada en 1875 no significa que no dejó
preguntas sin respuesta. Por el contrario, la teoría dio lugar a todo un reino de
preguntas sin respuesta muy importantes. Por ejemplo, las mediciones de la capacidad
calorífica parecían implicar que las moléculas diatómicas se mueven rápidamente y
giran a temperaturas normales, pero no vibran como se esperaba: ¿por qué no? Hubo
muchas preguntas sobre la naturaleza de los enlaces químicos, por ejemplo: ¿Por qué
algunos átomos parecen tener una valencia variable y en qué se diferencian estos
átomos de los que tienen una valencia constante? Hubo preguntas sobre la interacción
de los átomos y la luz, por ejemplo: ¿Por qué cada tipo de átomo emite y absorbe luz en
longitudes de onda características específicas? Además, había evidencia que apoyaba la
opinión de que los átomos contienen partículas cargadas eléctricamente: si es así,
¿Cómo podría distribuirse la carga de una manera que sea consistente con la estabilidad
de los átomos? Sin embargo, tales cuestiones no arrojaron dudas sobre la teoría
atómica; más bien, lo presuponían. Las preguntas se referían a la nueva frontera que la
teoría hizo posible: la investigación de la estructura atómica. Las respuestas se
descubrieron en las primeras décadas del siglo XX.
El mundo submicroscópico de los átomos es accesible solo mediante una cadena de
razonamiento muy larga y compleja. Durante más de dos milenios, la idea de los átomos
no fue más que una esperanza, una esperanza de que algún día, de alguna manera, la
mente del hombre pudiera llegar mucho más allá de lo que le dan sus sentidos y captar
la naturaleza fundamental de la materia. Esto no podría hacerse mediante un salto
imprudente hacia un vacío cognitivo; los científicos tenían que descubrir el método de
proceder paso a paso desde las observaciones hasta el conocimiento de los átomos,
mientras permanecían en tierra firme. No es posible ni deseable ningún atajo de este
proceso; cada paso del viaje es su propia recompensa, aportando una valiosa pieza de
conocimiento que es condensado e integrado por la teoría final.
La naturaleza del método inductivo ahora está clara.
6.

Causas del error

E n contraste con la percepción, el pensamiento es un proceso falible. Este hecho da


lugar a nuestra necesidad del método de la lógica.
La lógica, cuando se aplica correctamente, nos permite llegar a conclusiones
verdaderas. Pero no tiene garantía de que aplicaremos el método correctamente. Las
leyes de la deducción fueron identificadas por Aristóteles hace más de dos milenios,
pero la gente todavía comete falacias deductivas. Sin embargo, si uno permanece atento
a la evidencia, un mayor uso de la lógica conduce a la corrección de estos errores. Lo
mismo ocurre con las falsas generalizaciones alcanzadas por inducción. En este capítulo
veremos que incluso los mejores pensadores pueden cometer errores al aplicar el
método inductivo. Pero tales errores se marchitan y mueren a la luz de la aplicación
continua del método adecuado.
Sin embargo, durante el siglo pasado, muchos filósofos rechazaron la validez de la
inducción y argumentaron que toda generalización es un error. Por ejemplo, Karl
Popper afirmó que todas las leyes de Kepler, Galileo y Newton han sido "falsificadas". 1Al
exigir que una verdadera generalización se aplique con precisión ilimitada a un dominio
ilimitado, Popper mantuvo una visión mística de la "verdad" que está para siempre
fuera del alcance del hombre y accesible sólo a un dios omnisciente. Al final, se quedó
con dos tipos de generalizaciones: las que se han probado falsas y las que se probarán
falsas. Luego fue acusado por filósofos posteriores de ser demasiado optimista;
insistieron en que nada se puede probar, ni siquiera la falsedad de una generalización.
Estos escépticos cometen, a gran escala, la falacia de abandonar el contexto. El
significado de nuestras generalizaciones está determinado por el contexto que las
origina; Afirmar que una generalización es verdadera es afirmar que se aplica dentro de
un contexto específico. Los datos incluidos en ese contexto están necesariamente
limitados tanto en rango como en precisión.
Galileo, por ejemplo, no cometió ningún error al identificar la naturaleza parabólica
de las trayectorias. Obviamente, no se refería a una trayectoria de seis mil millas de un
misil balístico intercontinental (al que no se aplica su ley). Se refería a los cuerpos
terrestres que podían observarse y estudiarse en su época, todos los cuales
permanecían cerca de la superficie de la tierra, viajaban quizás unos cientos de pies y se
movían de acuerdo con su ley. De manera similar, cuando Newton habló de los cuerpos
y su movimiento, no se refería al movimiento de un electrón en un átomo o de un protón
en un acelerador moderno. Se refería a cuerpos macroscópicos observables, que van
desde guijarros hasta estrellas. El contexto de conocimiento disponible determina los
referentes de los conceptos que se relacionan causalmente en una generalización.
El contexto también incluye la exactitud de los datos integrados por una ley. Para
comprender las variaciones reveladas por nuevos datos de mucha mayor precisión, a
menudo es necesario identificar factores causales adicionales. Las leyes de Kepler del
movimiento planetario ilustran este punto. Las leyes son verdaderas, es decir,
identifican correctamente las relaciones causales que explican e integran los datos
disponibles para Kepler. En la era de Newton, sin embargo, los errores de medición en
los datos astronómicos se habían reducido en más de un factor de diez, y hoy se han
reducido en otro factor de diez. Para explicar los datos más precisos, uno debe
comprender no solo que el sol ejerce una fuerza sobre los planetas, sino también que los
planetas ejercen fuerzas entre sí y sobre el sol. Las verdades descubiertas por Kepler
fueron esenciales para estos descubrimientos posteriores;
En los casos en que los datos sean insuficientes para respaldar una conclusión, es
importante observar de cerca la naturaleza exacta de la afirmación del científico. No
comete un error simplemente proponiendo una hipótesis que luego se demuestra que
es incorrecta, siempre que haya identificado correctamente el estado hipotético de la
idea. Si puede citar alguna evidencia de apoyo, y no ha pasado por alto ningún dato que
lo contradiga, y rechaza la idea cuando se descubre una contra evidencia, entonces su
pensamiento es perfectamente lógico. Un ejemplo lo proporciona el trabajo de Albert
Ladenburg, un químico alemán del siglo XIX, que propuso una estructura de prisma
triangular de la molécula de benceno.2La hipótesis de Ladenburg era consistente con los
datos disponibles en la década de 1860, pero fue rechazada unos años más tarde cuando
chocó con el descubrimiento de Van 't Hoff de la disposición simétrica de los enlaces de
carbono. En tales casos, el pensamiento del científico está guiado por la evidencia en
cada paso, y no merece más que elogios del epistemólogo.
Los errores se pueden dividir en dos categorías amplias según sus causas. Primero,
discutiré los errores causados por una mala aplicación del método inductivo. Luego
pasaré a considerar los errores mucho más desastrosos que resultan del abandono del
método inductivo.

Aplicación incorrecta del método inductivo


Una verdadera generalización establece una relación causal que ha sido inducida a
partir de datos de observación e integrada dentro de la totalidad del conocimiento de
uno (que, en términos de lo esencial, abarca el rango subsumido por la generalización).
Un científico comete un error cuando afirma una generalización sin lograr tal
integración. En tales casos, la evidencia de apoyo es insuficiente y, a menudo, el
científico ha pasado por alto la evidencia contraria.
No pretendo dar aquí una lista exhaustiva de las falacias inductivas esenciales. Más
bien, he elegido cinco casos interesantes en los que los científicos han investigado un
fenómeno complejo y han llegado a generalizaciones falsas desviándose del método
adecuado. En cada caso examino el contexto del conocimiento disponible para el
científico y trato de identificar los factores que ponen en duda su conclusión.

Crecimiento de la planta
A principios del siglo XVII, el químico holandés JB van Helmont investigó la causa del
crecimiento de las plantas. La mayoría de la gente de la época pensaba que las plantas
absorben material del suelo y lo convierten en madera y follaje, pero esto era
simplemente una suposición plausible. Van Helmont intentó llegar a una respuesta
definitiva a la pregunta realizando un experimento cuantitativo.
Llenó una gran maceta con doscientas libras de tierra seca. Luego plantó un árbol
joven de sauce, que pesaba cinco libras, y cubrió el suelo para evitar la acumulación de
polvo del aire. Durante cinco años agregó solo agua destilada o agua de lluvia a la
maceta. Cuando finalmente quitó el sauce, descubrió que pesaba 169 libras, pero la
tierra había perdido solo unas pocas onzas de peso. Van Helmont concluyó: "Por lo
tanto, 164 libras de madera, corteza y raíz han surgido solo del agua". 3 En general,
concluyó que el crecimiento de las plantas es un proceso en el que el agua se transforma
en las sustancias que componen las plantas.
El experimento utilizó el método de la diferencia: Van Helmont se centró en el hecho
de que había agregado un factor, el agua, y el resultado fue el crecimiento del sauce.
Ciertamente demostró que muy poco del peso adicional del árbol provenía del suelo. Sin
embargo, ahora sabemos que solo aproximadamente la mitad de la madera de sauce
fresca es agua. El error de Van Helmont fue rechazar la posibilidad de que las plantas
absorbieran material del aire. Mucho más tarde, en la década de 1770, los experimentos
realizados por Joseph Priestley y Jan Ingenhousz demostraron que las plantas a la luz
del sol absorben dióxido de carbono y liberan oxígeno. 4 Gran parte de su peso es
carbono, que obtienen del aire.
Irónicamente, fue Van Helmont quien originó el concepto "gas" e identificó el gas
que ahora llamamos dióxido de carbono como un producto de la quema de carbón
vegetal o madera. Entonces, ¿por qué descartó la posibilidad de que un gas en el aire
pudiera ser una causa esencial del crecimiento de las plantas?
Algunos de los experimentos de Van Helmont lo llevaron a concluir que los gases "no
se pueden retener en recipientes ni reducir a una forma visible". 5Cuando mezcló ácido
nítrico y sal amoniacal en un recipiente de vidrio cerrado, por ejemplo, descubrió que se
producían gases que reventaban el recipiente. Cuando comprimió aire en una "pistola
de aire" y luego lo soltó, descubrió que el aire se expandía explosivamente con una
fuerza suficiente para impulsar una pelota a través de una tabla. Para él, esta naturaleza
"salvaje" e "indomable" de los gases parecía prohibir la posibilidad de que pudieran ser
absorbidos para formar parte de una planta.
Por supuesto, todos sabían que los animales terrestres deben respirar aire para
vivir. Sin embargo, todavía no se entendía la naturaleza de la respiración. Van Helmont
pensó que el aire se “entremezclaba” con la sangre en nuestros pulmones y
desempeñaba un papel esencial en calentarlo, pero no comprendió que se absorbe parte
del aire (oxígeno) y se exhala otro gas (dióxido de carbono). Del mismo modo, cuando
estudió la combustión, no comprendió que implica el consumo de aire. Observó que una
vela encendida en un recipiente cerrado provoca una disminución en el volumen de
aire, pero pensó que la llama estaba consumiendo algo que existía en los espacios entre
partículas de aire. Entonces, sus ideas hipotéticas sobre la respiración y la combustión
se hicieron consistentes con su afirmación de que los gases no se pueden convertir en
sustancias líquidas o sólidas.
Otros fenómenos parecían contradecir la visión de Van Helmont de los gases como
"salvajes" e "indomables". El vapor obviamente se condensa en agua, y él sabía de ácidos
gaseosos que se disolvían en agua. En estos casos, sin embargo, intentó proteger su
punto de vista introduciendo una distinción entre "vapores condensables" y verdaderos
"gases". Pero la protección que ofrecía esta falsa distinción era ilusoria. En cuanto al
crecimiento de las plantas, simplemente modificó la pregunta, que pasó a ser: ¿Cómo
supo que una planta no absorbe los “vapores condensables” que existen en el aire? El
hecho es que Van Helmont no ofreció ningún argumento convincente para eliminar el
aire como factor causal en el crecimiento de las plantas. Su conclusión sobre la
naturaleza de los gases no fue una integración de todos los datos disponibles, sino más
bien un salto de unos pocos hechos a una amplia generalización.
Hubo problemas más amplios que guiaron el pensamiento de Van Helmont. Como
muchos filósofos de la naturaleza antes que él, le sorprendió el papel omnipresente del
agua en la naturaleza. El agua existe en forma de vapor, líquido y sólido; llena grandes
océanos, cae del cielo, forma ríos y da forma a nuestro mundo; reacciona y / o disuelve
muchas sustancias; y es esencial para toda la vida. Siguiendo una larga tradición que
comenzó con Thales, Van Helmont identificó al agua como el elemento fundamental que
se puede modificar de innumerables formas. Incluso conectó sus puntos de vista sobre
la naturaleza del agua y el gas con sus puntos de vista metafísicos sobre la relación entre
la materia y el espíritu.6 Estas creencias formaron parte del trasfondo que lo predispuso
a aceptar el agua como única fuente de crecimiento vegetal.
Note la complejidad del contexto que es relevante para interpretar un experimento
aparentemente simple. La elasticidad de los gases, la naturaleza de la respiración y la
combustión, las similitudes y diferencias entre los gases y su conceptualización
adecuada, el papel prominente del agua en los procesos naturales, la relación entre la
materia y la "esencia" de un cuerpo, todas estas consideraciones influyeron Van
Helmont al llegar a su conclusión. Tal es la naturaleza del razonamiento inductivo; los
resultados de un experimento particular se interpretan por medio de todo el marco
conceptual de uno. Por eso la inducción es difícil y válida cuando se realiza
correctamente. Van Helmont se extravió en el tema del crecimiento de las plantas por
los errores en su marco conceptual, que contenía numerosos elementos que no se
derivaban de los hechos observados, es decir,

Acidez
Un científico con un marco conceptual válido aún puede cometer un error. Un buen
ejemplo lo proporciona el análisis de Lavoisier sobre la causa de la acidez.
Los ácidos son compuestos que son corrosivos, tienen un sabor amargo, se tornan
rojo tornasol azul y reaccionan con las bases para formar sustancias neutras. Lavoisier
planteó la hipótesis de que estas propiedades se derivan de algún elemento que todos
los ácidos tienen en común. Por tanto, su enfoque fue utilizar el método del acuerdo;
estudió los ácidos conocidos y trató de identificar su elemento común.
Descubrió que algunas sustancias se transforman en ácidos cuando se queman en
presencia de vapor de agua. La combustión de fósforo, azufre y carbono dio lugar a
ácido fosfórico, ácido sulfúrico y ácido carbónico. Por lo tanto, parecía que el elemento
que se absorbe en la combustión, es decir, el oxígeno, también podría ser la causa de la
acidez.
La investigación de Lavoisier sobre el ácido nítrico pareció proporcionar más apoyo
a esta idea. En 1776 combinó ácido nítrico con mercurio para formar una sal blanca
(nitrato de mercurio), que se descompuso para formar óxido de mercurio rojo y gas
óxido nítrico. Al calentarlo más, el óxido rojo se descompuso en mercurio metálico y gas
oxígeno. Recogió los gases en jarras de campana sobre agua. Cuando combinó el óxido
nítrico y el oxígeno en presencia de agua, completó el círculo y regeneró el ácido nítrico
original. Pero Lavoisier malinterpretó este resultado; pasó por alto la presencia crucial
de agua y supuso que el ácido era un producto de los dos gases. Más tarde, en 1783,
descubrió que el agua es un compuesto de hidrógeno y oxígeno. Al pasar por alto el
papel del agua en su síntesis de ácidos,
Lavoisier continuó acumulando pruebas que parecían apoyar su idea de que el
oxígeno es esencial para la acidez. Investigó dos ácidos orgánicos (acético y oxálico) y
demostró que ambos contienen oxígeno. Además, demostró que el azufre forma dos
ácidos, y que el que tiene mayor contenido de oxígeno es el ácido más fuerte (hoy
expresamos este resultado diciendo que el H2SO4 es más ácido que el H2SO3).
La teoría de la acidez del oxígeno de Lavoisier se enfrentó a un obstáculo
importante. Había un ácido muy conocido y muy fuerte, denominado ácido "muriático",
que no se había demostrado que contuviera oxígeno. El ácido muriático se descompone
en gas hidrógeno y otro gas verde. Lavoisier se refirió al gas verde como ácido
“oximuriático”, haciendo así explícito su suposición de que era la parte del ácido
muriático en la que eventualmente se encontraría oxígeno. Pero pasaron los años y
nadie logró extraer oxígeno del gas "oximurático". Finalmente, en 1810, después de que
se hubieran probado en vano los métodos más efectivos de extracción de oxígeno,
Humphry Davy declaró que el gas verde es un elemento y recomendó que se le llamara
"cloro". De modo que el ácido clorhídrico proporcionó el contraejemplo que refutó la
teoría del oxígeno de Lavoisier.
En cuanto a la forma, el error de Lavoisier es como el viejo chiste sobre el hombre
que prometió dejar de emborracharse en las fiestas. El hombre recordó que en una
fiesta había estado bebiendo bourbon con soda; en otro, whisky con soda; en otro,
brandy y refresco. Evidentemente, la soda era el factor común y la causa de su
intoxicación. Así que decidió beber su whisky solo.
Este tipo de error es relativamente fácil de corregir. Cuando el hombre se
emborrache con bourbon puro en la próxima fiesta, se dará cuenta de que el refresco
era irrelevante. Luego buscará un factor común en el bourbon, el whisky y el brandy. De
manera similar, cuando se descubrió que todos los ácidos que contienen oxígeno de
Lavoisier también tienen hidrógeno, y que el ácido muriático contiene hidrógeno pero
no oxígeno, entonces el hidrógeno fue reconocido como el único elemento común a
todos los ácidos conocidos. Más tarde, la teoría de la acidez del hidrógeno se demostró
cuando se descubrió que las bases neutralizan los ácidos al absorber un ión de
hidrógeno de ellos (que normalmente se combina con un ión hidroxilo para formar
agua).
La teoría de la acidez de Lavoisier ilustra la naturaleza precaria de una
generalización que se deriva de una regularidad observada más que de una conexión
causal. Lavoisier no tenía evidencia de que las bases actúen sobre el oxígeno cuando
neutralizan un ácido. En ausencia de tal conocimiento, no tenía motivos suficientes para
afirmar que el oxígeno se encontraría necesariamente en todos los ácidos. Por tanto,
podemos caracterizar su error como la falacia de sustituir una causa por una
regularidad observada.

Corriente eléctrica
Hubo un gran interés por la electricidad durante la Ilustración. Se descubrió que
algunos materiales conducen electricidad y otros no; que la carga eléctrica existe en dos
variedades, llamadas positivas y negativas; esa carga se puede almacenar en "frascos de
Leyden", que luego se pueden descargar a través de un conductor; que el rayo es una
descarga atmosférica; y que las cargas opuestas se atraen y las cargas similares se
repelen con una fuerza que varía con el cuadrado inverso de la distancia. Pero incluso
después de décadas de estudio intensivo, la única forma conocida de generar
electricidad era frotando materiales diferentes, y el único movimiento conocido de
electricidad fue la descarga momentánea que se produjo durante un intervalo de tiempo
demasiado corto para medirlo. Cerca del final del siglo XVIII, sin embargo,
Galvani era profesor de anatomía en la Universidad de Bolonia y se interesó por los
efectos de la electricidad en los animales. Anteriormente se había descubierto que las
descargas eléctricas a través de animales podían causar contracciones musculares, y
Galvani investigó este fenómeno utilizando ranas disecadas y descargas de un
generador de electricidad estática. Sin embargo, su avance se produjo cuando no estaba
usando el generador en absoluto. En un experimento, descubrió que cuando se sujetaba
una rana con un gancho de bronce a través de su médula espinal y se colocaban sus
patas en una caja plateada, conectar el gancho y la caja provocaba contracciones
musculares que hacían que la rana muerta pareciera saltar y bailar. . Galvani se dio
cuenta de que la electricidad se movía a través de los músculos de las patas de la rana,
pero su origen era un misterio.
Este descubrimiento tuvo implicaciones cruciales tanto para la física como para la
biología. Desde la perspectiva del físico, Galvani había descubierto una nueva forma de
generar un flujo de electricidad. Desde la perspectiva del biólogo, aparentemente había
descubierto el mecanismo físico que controla el movimiento de nuestros cuerpos: la
contracción de nuestros músculos es causada de alguna manera por la electricidad que
puede fluir a través de nuestros nervios.
Dado que Galvani era biólogo, no es de extrañar que su enfoque principal fuera la
rana en lugar del anzuelo de bronce o la caja de plata. Desarrolló una teoría en la que la
fuente de la electricidad está en el animal, mientras que los metales desempeñan el
papel pasivo de meros conductores que permiten que fluya la electricidad. Su teoría
afirmaba que los músculos almacenan electricidad de la misma manera que los frascos
de Leyden, y que cuando se completa un circuito conductor, la descarga resultante
provoca la contracción.
Galvani notó que solo se observaron fuertes contracciones musculares cuando se
usaron dos metales diferentes (por ejemplo, bronce y plata). Cuando colocó la rana
sobre una superficie de hierro y usó un gancho de hierro, el efecto no ocurrió. Pero no
pudo apreciar la importancia de este hecho y su teoría no ofrece ninguna explicación. Si
los metales actúan simplemente como conductores, entonces debería haber observado
las contracciones musculares en el experimento que usó solo hierro. Inicialmente,
Galvani no pareció reconocer que la necesidad de dos metales diferentes planteaba un
grave problema para su teoría.
Fue Alessandro Volta, profesor de física de la Universidad de Pavía, quien aprovechó
el hecho que la teoría de Galvani pasó por alto. Volta se convenció de que la fuente de
electricidad eran las diferentes propiedades de los dos metales, y era la rana la que
desempeñaba el papel pasivo de simplemente proporcionar un fluido conductor entre
los metales. En una serie de experimentos, demostró que cuanto más separados estaban
los dos metales en la siguiente serie (zinc, estaño, plomo, hierro, cobre, platino, oro,
plata), mayor era la corriente eléctrica.
En un intento por demostrar que la rana no participó en la producción de
electricidad, Volta realizó un experimento en el que la rana (y cualquier otro fluido
conductor) se eliminó por completo. Adjuntó un disco de cobre y un disco de zinc a las
manijas aislantes y luego presionó los discos juntos. Cuando se separaron, utilizó un
delicado electroscopio para demostrar que ambos discos habían adquirido una carga
eléctrica (el zinc era positivo y el cobre negativo). Entonces, una transferencia de carga
eléctrica es causada por el mero contacto de dos metales diferentes. Esto, afirmó Volta,
era lo que había ocurrido en los experimentos de Galvani: el contacto de los dos metales
había provocado un flujo de electricidad que a su vez había provocado las contracciones
musculares de la rana.
Galvani no estaba convencido y respondió realizando un experimento en el que los
metales se eliminaron por completo. Cuando sostuvo una rana disecada por un pie y la
balanceó vigorosamente para que el nervio ciático tocara el músculo de la otra pierna,
observó contracciones del músculo. Este fue un caso en el que el contacto entre el
nervio y el músculo provocó un flujo de electricidad y contracciones musculares, sin
presencia de metales. Galvani consideró este experimento como una refutación decisiva
de la teoría de Volta.
Volta y Galvani habían cometido cada uno un error similar. En sus esfuerzos por
localizar la causa en los metales o en la rana, cambiaron las condiciones experimentales
de una manera que introdujeron factores causales que no estaban presentes en el
experimento original. En el caso de la rana bailando sobre la caja de plata, el contacto
entre metales diferentes no puede ser la causa porque no es necesario ese contacto; el
efecto ocurre cuando el experimentador agarra el gancho de bronce con una mano
mientras toca la caja plateada con la otra mano (en otras palabras, el experimentador
mismo puede ser el camino conductor entre los dos metales). Asimismo, Galvani se
engañó con su experimento en el que se eliminaron los metales; su vigoroso balanceo de
la rana había causado una lesión muscular, que había estimulado el nervio y provocado
contracciones. Pero el experimento original no había implicado tal daño; había sido un
simple paso de salto, no un baile de swing.
Aunque la “teoría del contacto” de Volta era insostenible, sus investigaciones
refutaron la idea de Galvani de que el fenómeno fue causado por una capacidad especial
de los animales para almacenar y descargar electricidad. Mientras mantenía las mismas
otras condiciones relevantes, Volta demostró que el animal podía ser reemplazado por
una solución salina o ácida entre los dos metales, y el efecto —un flujo de electricidad—
aún ocurría. Este descubrimiento lo llevó a inventar la batería eléctrica. En marzo de
1800, escribe un artículo en el que describe cómo generar una corriente eléctrica
continua con discos de zinc y plata separados por cartón empapado en agua salada.
Cuando Volta anunció su invención, aún se desconocía la causa de la corriente
eléctrica. Pero no siguió siendo un misterio por mucho tiempo. Un mes después de
recibir el artículo de Volta, Anthony Carlisle y William Nicholson construyeron una
batería y observaron evidencia de reacciones químicas que ocurrían en las superficies
metálicas. Utilizaron su batería para realizar el primer experimento de electrólisis,
descomponiendo el agua en hidrógeno y oxígeno gaseoso. Este experimento histórico
inspiró a Humphry Davy a investigar el fenómeno. Solo siete meses después, Davy
escribió:
[La batería] actúa sólo cuando la sustancia conductora entre las placas es capaz de
oxidar el zinc; y que, en la medida en que una mayor cantidad de oxígeno entra en
combinación con el zinc en un tiempo dado, también es proporcional la potencia de la
[batería]. Por lo tanto, parece razonable concluir, aunque con nuestra cantidad actual de
hechos no podemos explicar el modo exacto de funcionamiento, que la oxidación del
zinc en la batería y los cambios químicos relacionados con ella son de alguna manera la
causa de los problemas eléctricos. efectos que produce. 7
Se necesitaron décadas para identificar el "modo exacto de funcionamiento", es
decir, la disociación de moléculas en iones cargados eléctricamente y la reacción de esos
iones en los electrodos, pero la causa esencial se entendió en 1800: la corriente eléctrica
es generada por una sustancia química. reacción que involucra los metales y el fluido
que los conecta.
De modo que Galvani tenía razón al afirmar que la rana de sus experimentos
desempeñaba un papel indispensable en la generación de la corriente eléctrica: los
fluidos de la rana proporcionaban la solución salina esencial para la reacción. Pero Volta
tenía razón al afirmar que los metales tienen un papel crucial en la generación de
electricidad, no simplemente en transportarla. Ambos se equivocaron únicamente al
negar la afirmación del otro. La causa no se pudo encontrar en uno de los factores, sino
solo en la interacción química de los dos.
La principal lección ilustrada por estos errores es la importancia de los controles
experimentales adecuados. Galvani y Volta pensaron que habían realizado
experimentos cruciales que refutaban la afirmación del otro, pero los experimentos
fueron defectuosos. Cuando Galvani eliminó los metales y aún observó un efecto, y
cuando Volta eliminó todo menos los metales y aún vio un efecto, ambos cambiaron las
condiciones del experimento original de la “rana bailarina” de una manera que dejó
ambigua la interpretación de sus resultados.
En un nivel más amplio, podemos ver el peligro potencial de ser perjudicado por la
experiencia especializada de uno. Como biólogo, Galvani parecía predispuesto a
encontrar la causa en el animal; como físico, Volta parecía predispuesto a encontrar la
causa en las propiedades físicas de los metales. Fue Davy, un químico, quien identificó
correctamente la causa como una interacción compleja que involucra ambos factores.

Edad de la Tierra
Examinemos otra famosa controversia que involucra un choque entre diferentes
ciencias. Durante las últimas cuatro décadas del siglo XIX, el físico británico Lord Kelvin
entabló un animado debate con los geólogos. Para explicar un cuerpo de evidencia en
rápido crecimiento, los geólogos proponían una historia cada vez más larga de la Tierra.
Habían descubierto que los procesos naturales que dan forma a nuestro mundo ocurren
muy lentamente y, por lo tanto, su ciencia tenía un requisito básico: el tiempo. Pero se
encontraron en conflicto con uno de los físicos más destacados de la época. Kelvin no les
daría el tiempo que necesitaban; se convenció de que las leyes fundamentales de la
física implicaban un límite superior muy restrictivo en la edad de la Tierra.
Durante la mayor parte de la historia de la humanidad, las personas intentaron
comprender el mundo que les rodeaba como resultado de eventos cataclísmicos
repentinos, globales y en el pasado (generalmente de origen sobrenatural). Sin
embargo, a finales del siglo XVIII, James Hutton identificó el principio que dio origen a la
geología moderna: “El presente”, escribió, “es la clave del pasado…. No se utilizarán
poderes que no sean naturales del globo, no se admitirán acciones que no sean aquellas
de las que conocemos el principio, y no se alegarán sucesos extraordinarios para
explicar una apariencia común ".8Hutton y los geólogos que siguieron su ejemplo
explicaron las características de la Tierra por medio de las fuerzas naturales que
observamos hoy: viento, lluvia, reacciones químicas, corrientes oceánicas y fluviales,
expansión y contracción causada por cambios de temperatura, elevación de áreas
terrestres causada por hundimientos. sedimentos oceánicos, los lentos movimientos de
los glaciares y los efectos acumulativos de los volcanes y terremotos locales.
Por supuesto, se necesita mucho tiempo para que la erosión hídrica excave un valle y
las presiones mecánicas para levantar una cadena montañosa. Determinar cuánto
tiempo fue un tema central para la geología del siglo XIX. Al estimar las tasas de erosión
y depósito de sedimentos, los geólogos comenzaron a construir la línea de tiempo para
la formación de los diversos estratos que observaron en la corteza terrestre. Llevaron a
cabo estudios detallados de las grandes cuencas fluviales del mundo, midiendo y
analizando el contenido sedimentario que se arrastra hacia el mar. En la década de 1870
habían llegado a un acuerdo sobre la tasa media de erosión continental. También
recopilaron datos de todo el mundo sobre las tasas de procesos que resultan en la
renovación de masas de tierra.
Para su crédito, Kelvin fue el primero en reconocer un posible conflicto entre las
leyes de la física y la nueva geología. Los geólogos afirmaban que la temperatura y otras
condiciones físicas en la Tierra se habían mantenido aproximadamente constantes
durante los últimos cien millones de años. El sol y la Tierra, sin embargo, tienen una
cantidad limitada de energía, que están gastando a un ritmo prodigioso. Esta disipación
de energía debe eventualmente causar una disminución de la temperatura que dejará a
la Tierra estéril y sin vida. Para Kelvin, la pregunta era: ¿Las leyes de la física sancionan
o vetan la línea de tiempo propuesta por los geólogos?
Para responder a la pregunta, Kelvin comenzó por considerar las posibles fuentes de
energía solar y terrestre. Rápidamente se convenció a sí mismo de que la energía
liberada en las reacciones químicas exotérmicas era demasiado pequeña para
desempeñar un papel significativo. Además, dado que el sol y la Tierra son
eléctricamente neutrales, la energía no podría ser de origen electromagnético. Eso
parecía dejar solo una posibilidad: la fuente principal de energía en el sistema solar es
de naturaleza gravitacional.
El sistema solar, argumentó Kelvin, debe haber comenzado como una gran nebulosa
gaseosa. A medida que la materia se condensaba, la energía potencial gravitacional se
convertía en energía cinética, es decir, calor. Así, la Tierra era originalmente una bola
fundida extremadamente caliente, que se ha estado enfriando desde entonces.
"Podemos seguir con la imaginación", escribió, "todo el proceso de reducción de
nebulosa gaseosa a lava líquida y metales, y la solidificación del líquido desde las
regiones centrales hacia afuera".9
En la década de 1860, Kelvin realizó su primer análisis de la velocidad a la que la
Tierra está perdiendo calor. Reconoció que los parámetros requeridos para el cálculo no
se conocían con precisión, pero argumentó que se sabía lo suficiente para hacer una
estimación razonable. Para la temperatura del núcleo de la Tierra, usó el punto de
fusión de las rocas superficiales; para la conductividad térmica de la Tierra, utilizó el
valor medido para las rocas superficiales; para el gradiente de temperatura en la
superficie de la Tierra, usó una medida de aproximadamente un grado Fahrenheit por
cada quince metros. Con estos parámetros, llegó a una tasa de pérdida de calor que
implicaba que la corteza terrestre se había formado hace menos de cien millones de
años. Contrariamente a los geólogos, las condiciones observadas hoy podrían haber
existido solo durante una pequeña fracción de ese tiempo. Kelvin declaró su conclusión
de manera inequívoca:10
En las décadas que siguieron, Kelvin amplió y perfeccionó sus cálculos de formas
que intensificaron el conflicto. Sus estimaciones de la edad de la Tierra disminuyeron
constantemente y, lo que es más importante, llegó a un límite superior muy restrictivo
en la edad del sol. Incluso cuando asumió que la energía del sol se reponía en parte por
la caída de meteoros, la energía perdida en la radiación era de tal magnitud que se vio
obligado a concluir: “Creo que sería sumamente imprudente asumir como probable algo
más de veinte millones. años de la luz del sol en la historia pasada de la tierra, o
contando con más de cinco o seis millones de años de luz solar por venir ". 11
Kelvin era un físico matemático brillante y sus cálculos eran esencialmente
correctos. Dejando a un lado las objeciones, debemos admitir que su conclusión se
deriva de sus premisas. Sin embargo, todo el análisis se basó en la generalización de que
la energía de las estrellas y sus planetas satélites se deriva de la energía potencial
gravitacional de la nebulosa gaseosa primigenia (complementada por la caída de
meteoros). Si esto fuera cierto, los sistemas solares se volverían fríos y oscuros en un
tiempo relativamente corto (decenas de millones de años). Entonces, al evaluar el punto
de vista de Kelvin, la pregunta clave es: ¿Qué tan fuerte fue el argumento a favor de esta
premisa básica?
La forma del argumento fue un proceso de eliminación. En ese momento, solo se
conocían tres posibles fuentes de energía interna del sol y la Tierra: química,
electromagnética y gravitacional. Kelvin citó buenas razones para descartar los dos
primeros, que dejaron a la energía gravitacional como el único candidato viable. Este
tipo de argumento puede ser válido, pero conlleva una gran carga de prueba. Hay que
poder argumentar que se han identificado todas las posibilidades; no puede haber
ninguna razón para sospechar la existencia de otras fuentes de energía.
Sin embargo, la evidencia citada por los geólogos arroja dudas sobre el argumento
de Kelvin. Los geólogos no habían elaborado una teoría arbitraria; sus conclusiones
integraron una impresionante variedad de observaciones, incluidos estudios cuidadosos
de los estratos de la corteza terrestre y tasas medidas de erosión y depósitos. Aquí el
error de Kelvin fue adoptar una actitud que se puede calificar de "elitista"; parecía
pensar que la evidencia de la física triunfa sobre la evidencia de la geología. Pero los
hechos son hechos y todos exigen el mismo respeto. La física es la ciencia fundamental,
lo que significa que integra la más amplia gama de hechos. Pero esto no implica que los
hechos de la geología estén subordinados a los hechos de la física. En este caso, los
hechos de la geología proporcionaron alguna evidencia (indirecta) de la existencia de
una fuente de energía no descubierta omitida del análisis de Kelvin.
Había otra razón para dudar de que la gravitación proporcionara la única fuente de
energía posible. Como vimos en el último capítulo, la teoría atómica abrió una nueva
frontera en la ciencia física. Una gran cantidad de datos, que tratan temas como enlaces
químicos, afinidades eléctricas, ionización y emisión de luz, proporcionó evidencia de
que los átomos tienen una estructura compleja. Sin embargo, se sabía poco sobre esta
estructura. ¿Cuál es la naturaleza de las partes que componen los átomos, cómo se
distribuye esta materia subatómica dentro del átomo y qué fuerzas la mantienen unida?
A finales del siglo XIX, varios descubrimientos habían planteado estas cuestiones
fundamentales pero aún no habían arrojado luz sobre las respuestas. En este contexto,
Kelvin no pudo descartar razonablemente la posibilidad de que la energía interna de los
átomos proporcione una fuente importante de calor.
El geólogo estadounidense del siglo XIX Thomas Chamberlin señaló precisamente
este punto. El escribio:
¿Es nuestro conocimiento actual relativo al comportamiento de la materia en
condiciones tan extraordinarias como las que se obtienen en el interior del sol lo
suficientemente exhaustivo como para justificar la afirmación de que allí no residen
fuentes de calor desconocidas? Cuál puede ser la constitución interna de los átomos es
todavía una cuestión abierta. No es improbable que sean organizaciones complejas y
sedes de enormes energías. Ciertamente, ningún químico cuidadoso afirmaría que los
átomos son realmente elementales o que pueden no estar encerrados en ellos energías
de primer orden de magnitud…. Probablemente tampoco estarían dispuestos a afirmar
o negar que las extraordinarias condiciones que residen en el centro del sol no liberen
una parte de esta energía.12
A principios del siglo XX, los físicos demostraron que la posibilidad sugerida por
Chamberlin era una realidad. Marie y Pierre Curie descubrieron que se libera una
cantidad extraordinaria de energía en la desintegración de los átomos radiactivos. Esta
importante fuente de calor terrestre se había omitido del análisis de Kelvin. Además,
Ernest Rutherford, el descubridor del núcleo atómico, escribió en 1913: “A la enorme
temperatura del sol, parece posible que pueda tener lugar un proceso de transmutación
en elementos ordinarios análogo al observado en el conocido radio- elementos." Por lo
tanto, concluyó, "El tiempo que el sol puede continuar emitiendo calor a la tasa actual
puede ser mucho más largo que el valor calculado a partir de datos dinámicos
ordinarios".13 La fuente específica del suministro aparentemente inagotable de calor
solar se identificó en la década de 1930 cuando los físicos descubrieron la fusión
nuclear.
Además de proporcionar la energía que falta en el análisis de Kelvin, el campo
emergente de la física nuclear también proporcionó un medio preciso para calcular la
edad de la Tierra. Los elementos radiactivos se desintegran a velocidades invariables en
productos conocidos. Por lo tanto, la edad de una roca se puede determinar a partir de
la abundancia relativa de su elemento radiactivo y sus productos de desintegración. En
1904, Rutherford analizó una pieza de mineral de uranio y calculó su edad en
setecientos millones de años.14 Al año siguiente, el físico británico Robert Strutt midió el
contenido de helio de una sal de bromuro de radio y estimó su edad en dos mil millones
de años.15 De repente, la situación se invirtió: los físicos insistían en que la Tierra es
mucho más antigua de lo que los geólogos se habían atrevido a sugerir.
Kelvin supuso que las leyes básicas de la física ya se conocían a finales del siglo XIX.
Se mostró reacio a admitir la posibilidad de que las investigaciones sobre las fronteras
de la física, incluidas las investigaciones sobre la estructura atómica, pudieran conducir
al descubrimiento de nuevos tipos de fuerzas y energía. En 1894, esta actitud fue
expresada por el físico estadounidense Albert Michelson:
[I] parece probable que la mayoría de los grandes principios subyacentes se hayan
establecido firmemente y que se busquen avances adicionales principalmente en la
aplicación rigurosa de estos principios a todos los fenómenos que se encuentran bajo
nuestro conocimiento…. Un físico eminente [Lord Kelvin] ha señalado que las verdades
futuras de la ciencia física deben buscarse en el sexto lugar de los decimales. dieciséis
Por tanto, el error básico de Kelvin puede describirse como la falacia de la "fijación
cognitiva". Es instructivo contrastar su actitud con la de Isaac Newton, el principal
campeón del método inductivo. Newton siempre consideró sus leyes del movimiento y
la gravitación como una base sobre la que construir, nunca como el edificio completo de
la física. Era muy consciente de la amplia gama de fenómenos que seguían sin
explicación. Comenzó su carrera con muchas preguntas y, a lo largo de su vida, a pesar
de que descubrió tantas respuestas, su lista de preguntas solo creció. Cuando Newton
examinó las fronteras de la ciencia física, vio muchas áreas de investigación, por
ejemplo, electricidad, magnetismo, luz, calor, química, de las que esperaba que
surgieran nuevos principios. Kelvin, por otro lado, tenía un estado de ánimo más
"deductivo"; en su opinión, la tarea principal del físico es encontrar nuevas aplicaciones
de los principios conocidos. Esta actitud lo llevó a concluir que la energía de un sistema
solar debe ser de origen gravitacional y, por lo tanto, lo llevó a perder la batalla con la
geología moderna.

Fusión fría
Es posible cometer el tipo de error opuesto, que se puede llamar la falacia de la
"promiscuidad cognitiva". Un científico comete este error cuando elige abrazar una
nueva idea a pesar de la evidencia débil y un contexto que hace que la idea sea
inverosímil. Un claro ejemplo de esta falacia lo proporcionaron los recientes
proponentes de la fusión nuclear "fría".
En 1989, Stanley Pons y Martin Fleischmann anunciaron que habían logrado una
reacción sostenida de fusión de deuterio en un experimento de electrólisis a
temperatura ambiente. El experimento consistió en hacer pasar una corriente eléctrica
entre un electrodo de paladio y un electrodo de platino sumergido en un baño de agua
pesada que contenía algo de litio. Los dos químicos informaron que el calor generado en
tales experimentos era mucho mayor de lo que podría explicarse por cualquier reacción
química. En un caso, afirmaron, el electrodo de paladio se derritió y quemó un agujero
en el piso del laboratorio. Llegaron a la conclusión de que el deuterio del agua pesada se
absorbía dentro de la red de átomos de paladio, donde los núcleos de deuterio se
comprimían con suficiente presión para provocar la fusión.
Para decirlo suavemente, esta fue una idea radical. Los físicos habían estado
estudiando la fusión de deuterio desde la década de 1930 y el proceso se entendía bien.
La reacción ocurre solo cuando los núcleos están muy juntos, y esto requiere una
enorme energía para superar la repulsión eléctrica entre los protones. Tales reacciones
ocurren dentro del sol porque la temperatura central es de más de diez millones de
grados y, por lo tanto, la energía requerida está disponible. Pero, ¿cómo es posible que
los núcleos de deuterio se acerquen tanto entre sí en un experimento de electrólisis a
temperatura ambiente?
Pons y Fleischmann no ofrecieron respuesta a esta pregunta básica. Como
experimentadores, su objetivo era demostrar que se produjo el efecto. Se contentaron
con dejar que los teóricos se enfrentaran a la problemática cuestión de cómo podría
ocurrir. Fue una tarea difícil para los teóricos, ya que la fusión fría parecía contradecir
todo lo conocido sobre física nuclear.
Como evidencia experimental, Pons y Fleischmann se basaron principalmente en sus
observaciones del exceso de calor. La teoría científica, sin embargo, no puede ponerse
patas arriba cada vez que hay una explosión inexplicable en un laboratorio de química.
La evidencia requerida para respaldar una afirmación de fusión de deuterio es clara:
uno debe detectar los productos de la reacción. Estos productos incluyen helio,
neutrones y rayos gamma con una energía específica. El helio debería haber estado
incrustado en el electrodo de paladio, y una cantidad letal de neutrones y gammas
debería haber estado volando por el laboratorio. Todos los esfuerzos para detectar
estos productos fallaron y ningún investigador sufrió efectos nocivos por la radiación.
El episodio de la fusión fría se convirtió rápidamente en un circo mediático en el que
la política y los sueños de premios Nobel prevalecieron sobre los hechos científicos.
Pons y Fleischmann habían gritado "¡Fuego!" y causó mucha emoción innecesaria.
Inicialmente, muchos científicos se tomaron en serio las afirmaciones. Los laboratorios
de todo el país realizaron sus propios experimentos de fusión fría en un intento de
reproducir los resultados. Estos científicos pensaron que era mejor adoptar una actitud
de “mente abierta”. Como dijo un investigador, “[Pons y Fleischmann] dijeron que esto
podría ser un proceso nuclear desconocido hasta ahora. ¿Quién sabe? Si es un proceso
desconocido, tal vez no produzca neutrones. Siempre puedes racionalizar cualquier
cosa…. De una forma u otra tiene que haber una prueba definitiva, y queríamos ser
nosotros quienes la probara definitivamente ”.17
Pero no es cierto que uno pueda "racionalizar cualquier cosa", no si "racionalizar"
significa dar un argumento racional. El término "mentalidad abierta" es un "paquete de
oferta" no válido; se utiliza para equiparar al pensador con el escéptico y, por lo tanto,
para sancionar a este último. Pero el pensador que integra activamente la evidencia
para llegar a nuevas ideas no tiene nada en común con el escéptico, que se siente libre
de afirmar posibilidades sin la evidencia requerida. Como hemos visto anteriormente,
una mente que está abierta a cualquier "posibilidad", independientemente de su
relación con el contexto total del conocimiento, es una mente separada de la realidad y,
por lo tanto, cerrada al conocimiento.
Pons y Fleischmann sugirieron la existencia de una nueva fuente de energía que aún
no había sido identificada por los físicos, tal como lo hicieron los geólogos a fines del
siglo XIX. Pero Pons y Fleischmann no estaban justificados al hacerlo, mientras que los
geólogos estaban justificados. La diferencia en los dos casos radica en el contexto del
conocimiento. A finales del siglo XIX, los físicos apenas comenzaban a explorar la
estructura del átomo y la energía oculta que contiene; no podían descartar la
posibilidad de que esa energía pudiera desempeñar un papel importante en el
calentamiento del sol y la Tierra. Por el contrario, Pons y Fleischmann invadieron un
área de la física que ya había sido investigada a fondo.
La idea de la fusión fría persistió durante más tiempo del necesario. Inicialmente se
le dio más crédito de lo que merecía, pero los científicos pronto aplicaron los estándares
adecuados de evidencia experimental. Después de unos meses, la idea fue desacreditada
y descartada.

La inducción como autocorrectiva


En cada uno de los casos anteriores, vimos una desviación del método adecuado. Van
Helmont cometió un tipo de error que era común en la era anterior a Newton: al carecer
de estándares de prueba adecuados, saltó de unos pocos hechos a conclusiones sobre la
naturaleza básica del agua y los gases. Lavoisier generalizó sobre los ácidos sobre la
base de una regularidad observada, sin evidencia suficiente de una conexión causal. En
sus investigaciones de la corriente eléctrica, Galvani y Volta eliminaron una parte
esencial de la causa al razonar a partir de experimentos ambiguos que carecían de los
controles adecuados. Kelvin asumió que los principios básicos de la física ya se conocían
y, por lo tanto, ignoró la evidencia que apoyaba la posibilidad de una fuente no
gravitacional de calor solar y terrestre. Finalmente, los defensores de la fusión fría
descuidaron un amplio contexto de conocimiento que hizo que su idea fuera muy
inverosímil. Una falsa generalización es siempre el resultado de no identificar y / o
aplicar correctamente los principios de la lógica inductiva.
Por supuesto, el contexto de conocimiento de un científico puede estar limitado de
tal manera que sea fácil pasar por alto un factor relevante. EnCapitulo 2, Cité el ejemplo
del fracaso de Galileo para distinguir entre bolas deslizantes y rodantes en sus
experimentos de plano inclinado. La importancia de esta distinción fue mucho más
obvia después del desarrollo de la mecánica newtoniana. Hoy en día, cualquier
estudiante de física puede comprender que la velocidad de la bola rodante se reduce
porque parte de la energía potencial gravitacional se convierte en movimiento de
rotación. Galileo no se benefició de los conceptos "energía" y "gravedad". Incluso en su
contexto menos avanzado, sin embargo, podría haber reconocido la diferencia en los
dos casos. El rodar es causado por la fricción, y Galileo ciertamente sabía que la fricción
impide el movimiento. Además, tenía los medios para medir la velocidad final de la bola
y, por lo tanto, descubrir que era menor que la predicha por su ley (que se aplica solo al
caso de deslizamiento sin fricción).
Cuando el contexto de conocimiento relevante se encuentra en un estado primitivo,
un error puede permanecer sin ser detectado durante mucho tiempo. Por ejemplo, Van
Helmont investigó el crecimiento de las plantas antes de que la química se convirtiera
en una ciencia. Por lo tanto, no es sorprendente que el factor causal que pasó por alto
(dióxido de carbono en el aire) no se identificó hasta 150 años después. Por otro lado,
cuando el contexto relevante de conocimiento se encuentra en un estado avanzado, los
errores suelen ser de corta duración (como vimos en el caso de la fusión fría).
El método inductivo es autocorrector.. Esta característica del método se deriva de la
exigencia de que toda idea debe ser inducida a partir de evidencia observacional e
integrada sin contradicción en la totalidad del conocimiento disponible. Una idea falsa
no puede estar a la altura de este estándar. Nuevas investigaciones sacarán a la luz
hechos que la socavan en lugar de respaldarla; la idea conducirá a predicciones de
eventos que no se observan, o contradecirá eventos que son o han sido observados, o
contradecirá otras ideas para las cuales existe una fuerte evidencia. Un método
adecuado mantiene a uno en contacto cognitivo con la realidad y, por lo tanto,
eventualmente se revela cualquier choque entre una idea falsa y la realidad.
Por lo tanto, las aplicaciones incorrectas del método inductivo no representan una
amenaza significativa para el progreso de la ciencia. Proporcionan solo contratiempos
de rutina que se superan en el curso normal de la investigación adicional.

Abandonando el método inductivo


La única forma en que se puede descarrilar el progreso es mediante el rechazo del
método inductivo.
Los científicos no pueden perseguir el conocimiento sin ver qué es y cómo se
adquiere. Necesitan una teoría del conocimiento, que obtienen de los filósofos (la
categoría “filósofo” incluye a esos raros genios, como Galileo y Newton, que fueron
innovadores tanto en epistemología como en física). Esta teoría del conocimiento afecta
entonces a todos los aspectos del enfoque de un científico a su investigación, desde las
preguntas que hace hasta las respuestas que encuentra aceptables.
Una epistemología adecuada le enseña a un científico (oa cualquier otra persona)
cómo ejercitar todo el poder de su mente, es decir, cómo alcanzar las abstracciones más
amplias sin perder nunca de vista lo concreto. Le dice cómo integrar los datos
sensoriales en una jerarquía paso a paso que culmina en la comprensión de las verdades
fundamentales que pertenecen a todo el cosmos.
Sin embargo, desde el principio, la filosofía moderna ha incumplido esta tarea. En
lugar de explicar cómo llegar a abstracciones que integran los concretos percibidos, los
filósofos solo han ofrecido una opción entre abstracciones vacías o concretos
desintegrados. Se dividieron en dos campos: aquellos que se volvieron hacia adentro
para inventar esquemas conceptuales elaborados que estaban separados de los
concretos (los racionalistas), y aquellos que miraron hacia afuera a los concretos
percibidos mientras rehuían conceptos de nivel superior (los empiristas). Los
racionalistas se hicieron pasar por campeones de la mente, pero abandonaron la
realidad física; los empiristas se hicieron pasar por campeones de los hechos físicos,
pero abandonaron la mente.18
Un físico que acepta la epistemología racionalista buscará una teoría fundamental
abstracta que supuestamente esté validada por características como “simplicidad”,
“claridad”, “belleza” o “coherencia interna” (no por su relación con la evidencia
observacional). Un físico que acepta la epistemología empirista buscará leyes más
estrechas que simplemente describan regularidades en los datos de observación,
mientras rechaza la necesidad de una teoría integradora. Así tenemos la falsa
alternativa del teórico que desdeña los datos versus el recolector de datos que desdeña
la teoría. Ninguno de los enfoques puede conducir a una teoría probada, que es el
objetivo adecuado de la ciencia.

Racionalismo
La física de René Descartes proporciona una excelente ilustración del método
racionalista. Descartes es conocido principalmente como el padre de la filosofía
moderna, pero su obra más extensa, Principios de la filosofía, es un tratado que trata
principalmente de la ciencia física. Cuando Descartes publicó su física (1644), la
revolución científica ya había cosechado muchas victorias: las obras de Gilbert, Kepler,
Bacon, Harvey y Galileo se leían en gran parte de Europa. Sin embargo, en lugar de
unirse a esta revolución, Descartes rechazó el mismo método que había hecho posible
los descubrimientos de sus predecesores.
Según Descartes, el conocimiento no comienza con la percepción sensorial; más
bien, comienza con ideas "claras y distintas" que están "implantadas naturalmente" en
nuestras mentes. La veracidad de estas ideas está asegurada por su claridad intrínseca y
por la perfección moral de Dios, que no nos engañaría implantándonos ideas falsas. En
efecto, Descartes asumió que poseemos un ojo interior para percibir verdades
abstractas, y todo el resto del conocimiento se basa en última instancia en esta
conciencia introspectiva. El escribio:
Llamo "clara" a la percepción que está presente y manifiesta a una mente atenta: así
como decimos que vemos claramente aquellas cosas que están presentes en nuestro ojo
atento y actuamos sobre ellas con suficiente fuerza y manifestación. Por otro lado, llamo
"distinta" a la percepción que, aunque clara, está tan separada y delimitada de todas las
demás que no contiene absolutamente nada excepto lo que es claro. 19
Ésta era la versión de Descartes de la intuición mística en la que todos los
racionalistas deben confiar. Después de rechazar el único criterio objetivo para evaluar
la verdad o la falsedad, la evidencia observacional, el racionalista se queda con el
criterio subjetivo del místico: el sentimiento. A pesar de poseer la postura de un firme
defensor de la razón, acepta las ideas que siente que son verdaderas, es decir, aquellas
ideas en las que quiere creer. Declara que estas ideas tienen cualidades intrínsecas
especiales que hacen que su verdad se manifieste. En ciencia, Descartes se encontró
impresionado por una serie de ideas "claras y distintas" que lo llevaron a construir la
primera "teoría del todo".
Descartes comenzó su física con la intuición de que la extensión es la única
propiedad fundamental e irreductible de la materia. Siguiendo una tradición que se
remonta a Platón, intentó reducir el mundo físico a combinaciones de unas pocas
formas geométricas básicas. Los racionalistas suelen tener una gran admiración por la
geometría, que consideran una ciencia ideal porque supuestamente consiste en
verdades deducidas de axiomas evidentes. Además, suelen sentirse alienados del
mundo físico, que a menudo se niega a ajustarse a sus ideas. De modo que el sueño de
reemplazar los cuerpos físicos obstinados con formas geométricas ideales es muy
atractivo para el racionalista.
Toda la materia, afirmó Descartes, está compuesta por tres tipos de partículas
elementales, que se distinguen solo por sus tamaños, formas y movimientos. El escribio:
[Algunas] personas pueden verse inducidas a preguntar cómo sé cómo son estas
partículas…. Tomé los principios más simples y más conocidos, cuyo conocimiento está
naturalmente implantado en nuestras mentes; y trabajando a partir de ellos consideré,
en términos generales, en primer lugar, cuáles son las principales diferencias que
pueden existir entre los tamaños, formas y posiciones de los cuerpos que son
imperceptibles para los sentidos simplemente por su pequeño tamaño, y, en segundo
lugar, qué efectos observables resultaría de sus diversas interacciones. 20
En otras palabras, no hizo observaciones, no hizo experimentos y no se dedicó a
razonar desde los efectos hasta las causas subyacentes. En cambio, miró hacia adentro y
ofreció un mundo imaginativo "claro y distinto" que era más imaginativo que cualquier
cuento de hadas.
Descartes no tuvo problemas para llegar a las leyes del movimiento que gobiernan
sus formas elementales. Partiendo de la inmutabilidad de Dios, dedujo que siempre se
conserva la “cantidad de movimiento” total. Esto puede parecer una anticipación del
principio de conservación del momento de Newton, pero no lo es. Descartes definió la
"cantidad de movimiento" como el producto del volumen y la velocidad, que es bastante
diferente del producto de Newton de la masa y la velocidad. Cuando Descartes usó su
principio para analizar y predecir los resultados de las colisiones elásticas, llegó al
resultado correcto solo en el caso especial de dos cuerpos con volúmenes iguales,
densidades de masa iguales y velocidades directas iguales pero opuestas. En todos los
demás casos, su teoría da una respuesta incorrecta. "La experiencia", admitió, "a
menudo parece contradecir las reglas que acabo de explicar". 21Sin embargo, asumió que
las aparentes contradicciones podrían atribuirse a los efectos del medio o la naturaleza
inelástica de las colisiones. Su método lo liberó de preocuparse por las observaciones.
Terminó la discusión de sus leyes del movimiento con el comentario: “Estos asuntos no
necesitan prueba ya que son evidentes por sí mismos. Las demostraciones son tan
seguras que aunque nuestra experiencia parezca mostrarnos lo contrario, deberíamos
estar obligados a tener más fe en nuestra razón que en nuestros sentidos ”. 22
Mediante este método racionalista, el "conocimiento" llegó tan fácilmente que
Descartes no pudo detenerse. Explicó la naturaleza de los planetas, las lunas y los
cometas y la causa de sus movimientos. Describió la formación del sistema solar, la
naturaleza de las manchas solares y la causa de nuevas estrellas (es decir, supernovas).
La parte del libro que trata de la astronomía termina con esta afirmación: "Creo que
aquí he dado una explicación satisfactoria de absolutamente todos los fenómenos que
observamos en los cielos sobre nosotros".23 Solo una generación después de que Kepler
inaugurara la ciencia de la astronomía física, Descartes afirmó haberla completado.
La última parte del libro de Descartes trata de los fenómenos terrestres. Ofreció
explicaciones sobre las mareas oceánicas, los terremotos, los volcanes, los rayos, la
formación de montañas, el magnetismo, la electricidad estática, las interacciones
químicas y la naturaleza del fuego. Al final de esta sección, volvió a dejar de lado la
modestia y escribió: "No hay nada visible o perceptible en este mundo que no haya
explicado".24Como ha señalado un historiador de la ciencia: “Descartes no dejó nada
intacto…. Los Principios fue un triunfo de la imaginación fantástica que,
desafortunadamente, nunca ha dado con una explicación correcta ". 25Por supuesto, hay
una razón por la que nunca "dio con" la verdad: como hemos visto, la ciencia no es un
juego de adivinanzas. Las generalizaciones de Descartes no se correspondían con la
realidad porque no las derivó inductivamente de observaciones de la realidad.
A diferencia de la inducción, el método del racionalismo no es autocorrector. Si una
teoría está validada por cualidades intrínsecas como la claridad o la belleza matemática,
entonces no puede ser derrocada por la evidencia observacional. La teoría es
simplemente una integración de abstracciones flotantes, separada de los datos
perceptuales y, por lo tanto, invulnerable a tales datos. Cuando lo desee, el racionalista
siempre tiene la libertad de adornar aún más su teoría con características “hermosas”,
es decir, arbitrarias, para deducir cualquier hecho particular.
La física cartesiana fue derrocada solo cuando Newton rechazó el racionalismo y
demostró el poder del método inductivo, que luego ganó una amplia aceptación durante
la Ilustración. Desafortunadamente, el compromiso con este método no duró.

Empirismo
Dos filósofos muy influyentes del siglo XVIII —David Hume e Immanuel Kant—
desarrollaron teorías del conocimiento que socavan todos los aspectos esenciales del
método inductivo.26
Como resultado, el siglo XIX se convirtió en un campo de batalla, con los científicos
atrapados en el fuego cruzado entre el enfoque ejemplificado por Newton y Lavoisier, y
un enfoque radicalmente nuevo de la ciencia que surgió de la filosofía empirista
poskantiana. Esta nueva visión, denominada “positivismo” por el filósofo francés
Auguste Comte, redefinió el objetivo básico de la ciencia. Los científicos ya no debían
preocuparse por descubrir la verdadera naturaleza de las entidades que existen
independientemente en un mundo físico real; cualquier intento de captar la naturaleza
de las entidades externas fue descartado como "metafísica especulativa". No tenemos
conciencia directa de tales entidades, afirmaron los positivistas, sino solo de las
"apariencias" subjetivas. Por tanto, el objetivo adecuado de la ciencia debe limitarse a
describir meramente las regularidades en el comportamiento de estas apariencias.
Los seguidores de Newton habían dado por sentado que la tarea de un científico es
identificar la causa subyacente de los eventos que observamos, es decir, identificar la
naturaleza de una cosa que necesita sus acciones. Los positivistas, sin embargo,
afirmaron que tal causa es incognoscible. Debe haber límites estrictos, insistieron, en las
preguntas que los científicos pueden hacer. No tiene sentido investigar aspectos de las
apariencias que no aparecen, por la simple razón de que no existen tales aspectos. Una
cosa real puede tener muchas propiedades que no se pueden ver, pero una apariencia
subjetiva no tiene tales propiedades ocultas; por definición, es lo que aparece a nuestros
sentidos. Si la razón se restringe a un "mundo interior de apariencias", entonces Kant
había declarado la conclusión inevitable:
Las ciencias naturales nunca nos revelarán la constitución interna de las cosas, que,
aunque no sean la apariencia, pueden servir como base última para explicar las
apariencias. Tampoco la ciencia necesita esto para sus explicaciones físicas…. Porque
estas explicaciones deben basarse únicamente en aquello que, como objeto de los
sentidos, puede pertenecer a la experiencia….27
Esta prohibición de investigar la "constitución interna de las cosas" ganó una amplia
influencia durante el mismo período en el que los científicos estaban descubriendo
abundantes pruebas a favor de la composición atómica de la materia. El resultado fue
uno de los episodios más extraños de la historia de la ciencia, durante el cual muchos
químicos y físicos rechazaron e incluso hicieron una cruzada contra una teoría
extraordinariamente exitosa.
Inicialmente, el surgimiento del positivismo tuvo el efecto de desacelerar el
progreso hacia la prueba de la teoría atómica. La teoría de Dalton fue, en efecto,
censurada por los autores de los libros de texto de química; presentaron su ley de
proporciones múltiples como una mera regularidad empírica, ignorando la explicación
atómica de la misma.28De manera similar, hubo una gran resistencia entre los químicos
a la aceptación de la hipótesis de Avogadro, que fue considerada por los positivistas
como “metafísica” más que como ciencia propiamente dicha. Y cuando Waterston aplicó
la dinámica newtoniana a las moléculas para explicar la ley de los gases de Charles, los
editores de Philosophical Transactions of the Royal Society se negaron a publicar su
artículo, rechazándolo como “nada más que una tontería, inadecuado incluso para su
lectura ante la Sociedad. "29
A medida que se acumulaban las pruebas de los átomos, se intensificaba la oposición
positivista a la teoría. En 1867, poco después de que Maxwell publicara su obra triunfal
sobre la teoría atómica de los gases, se celebró una reunión de la Chemical Society en
Londres. El evento principal de esta reunión fue un artículo titulado “Química ideal” de
Benjamin Brodie, quien ofreció un nuevo enfoque que rechazaba por completo los
átomos. Un historiador resume la visión filosófica de Brodie de la siguiente manera: “El
verdadero objeto de la ciencia no es explicar, sino describir. No podemos preguntarnos
qué es el agua, solo qué hace o en qué se convierte. No tenemos forma de captar la
realidad subyacente de las cosas, por lo que deberíamos contentarnos con la
descripción precisa de lo que hacen las cosas ... "30
¿Cómo evita un químico hacer declaraciones sobre la "realidad subyacente" y se
limita a describir meramente los cambios observables? Esta fue la pregunta que Brodie
abordó en su presentación. La clave de la respuesta, afirmó, era un nuevo sistema de
clasificación. Brodie propuso un sistema que trataba los cambios químicos, en lugar de
las sustancias químicas, como primarios (intentando así evadir la pregunta de qué está
cambiando). Los cambios se describen mediante ecuaciones químicas que nombran las
cantidades de reactivos y las cantidades de productos. Por ejemplo, dos litros de vapor
pueden convertirse en un litro de hidrógeno y un litro de peróxido de hidrógeno. O, por
ejemplo, dos litros de gas cloruro de hidrógeno pueden convertirse en un litro de
hidrógeno y un litro de cloro.
En la teoría de Brodie, las sustancias no se clasifican en términos de su naturaleza
esencial, sino por el número y tipo de operaciones necesarias para producirlas.
Implementó esta idea agrupando sustancias químicas que aparecen en lugares similares
en ecuaciones similares. En los dos ejemplos anteriores, tanto el peróxido de hidrógeno
como el cloro aparecen como productos junto con el hidrógeno en ecuaciones que
tienen los mismos coeficientes. Por lo tanto, según Brodie, estas dos sustancias deben
agruparse y designarse mediante combinaciones similares de símbolos. Por lo tanto, el
cloro está representado por símbolos que lo hacen parecer un compuesto en lugar de un
elemento.
La teoría provocó algunas críticas en la reunión. Con un toque de sarcasmo, Maxwell
dijo que le sorprendió saber que el hidrógeno y el mercurio eran operaciones más que
sustancias. Además, algunos químicos se quejaron de que el sistema de Brodie se basaba
en puntos de partida que se eligieron arbitrariamente, y diferentes opciones habrían
resultado en un esquema de clasificación diferente. Sin embargo, la reacción a la teoría
fue sorprendentemente positiva. Un autor señala que "a pesar de algunas críticas, el
tono de todos los oradores fue respetuoso y, en ocasiones, halagador". 31Después de la
reunión, la revista Chemical News dedicó casi todo un número a la teoría de Brodie,
llamándola "La química del futuro". La teoría también fue elogiada en la North British
Review, que afirmó que la idea de los átomos seguía siendo tan dudosa como lo había
sido dos milenios antes.32
Dado que Brodie se rebelaba contra la idea misma de la explicación causal, sus
puntos de vista se describen con mayor precisión como una "antiteoría" en lugar de una
teoría. Recibió una audiencia respetuosa solo porque había sentimientos generalizados
de desconfianza y hostilidad hacia los átomos. La fuente de estos sentimientos fue el
positivismo.
La hostilidad se hizo evidente en la reunión cuando Brodie ridiculizó el uso de
modelos atómicos de estructura molecular. Leyó a la audiencia el siguiente anuncio de
una revista científica: “Los hechos fundamentales de la combinación química pueden ser
simbolizados ventajosamente por bolas y alambres, y aquellos estudiantes prácticos que
requieran una demostración tangible de tales hechos aprenderán con placer que un
conjunto de modelos para la construcción de la fórmula glíptica ahora se puede obtener
por una suma comparativamente pequeña ".33Este es un anuncio perfectamente
razonable para kits de modelos moleculares, que ayudan a los químicos y estudiantes a
comprender la disposición espacial de los átomos en una molécula. Sin embargo, cuando
Brodie leyó el anuncio, tuvo que esperar a que se calmara la risa burlona antes de
continuar. Dio por sentado que tales modelos eran ridículos y gran parte de su
audiencia estuvo de acuerdo. Brodie luego comentó que el anuncio era una clara
evidencia de que la química había ido "por un camino equivocado", un camino que
estaba "completamente fuera de las reglas de la filosofía". 34
El químico que había presentado estos modelos moleculares de bola y alambre,
Edward Frankland, estaba en la reunión. Recordemos que Frankland fue pionero en la
idea de valencia atómica, que corresponde al número de cables que tiene un átomo para
unirse a otros átomos. En su libro de texto Lecture Notes for Chemistry Students, hizo
un amplio uso de estos modelos para explicar la naturaleza de los compuestos en
términos de su estructura molecular. Este fue un avance crucial, y los modelos ya habían
demostrado ser de enorme utilidad, particularmente en química orgánica.
Sin embargo, fue Brodie quien recibió un apoyo generalizado mientras atacaba y
ridiculizaba, y fue Frankland quien dio marcha atrás mientras se sentía avergonzado y
aislado. En su respuesta, Frankland trató débilmente de defender sus modelos diciendo:
"Ciertamente no me imagino que pueda surgir ningún mal de tales representaciones
simbólicas ..."35Luego enfatizó que nunca pretendió que los modelos fueran
representaciones precisas de algo real. Concedió todo el asunto con la siguiente
confesión: "No puedo hacer nada mejor que afirmar, simple y rápidamente, que ni creo
en los átomos mismos, ni creo en la existencia de centros de fuerza". 36 Cuando se le
preguntó por qué los químicos deberían usar la teoría atómica, Frankland afirmó que la
teoría sirve "como una especie de escalera para ayudar al químico a progresar de una
posición a otra en su ciencia".37 Nunca explicó cómo una teoría falsa puede funcionar
como un medio indispensable para hacer avanzar una ciencia.
Muchos científicos se sintieron obligados a adoptar esta posición contradictoria. Uno
de los químicos en la reunión, William Odling, había hecho importantes
descubrimientos sobre la estructura molecular de ciertos ácidos y sales; sin embargo, se
rió de lo que llamó "el maravilloso libro ilustrado de Frankland". 38 En la reunión, Odling
comentó: "[T] aquí hay algunos que, como yo, no creen en los átomos y mantienen la
idea de los átomos en segundo plano tanto como sea posible". 39No rechazó los átomos
en la práctica; se dio cuenta de que sin la teoría atómica no podría realizar su
investigación. Pero mantuvo los átomos en un "segundo plano" y se negó a reconocer su
realidad. Por lo tanto, cometió un crimen epistemológico que solo puede describirse
como "robo de teorías", es decir, apropiarse de una teoría a la que uno no tiene derecho.
En Francia, la controversia sobre los átomos estalló en 1877 en una reunión de la
Academia de Ciencias de París, donde Marcelino Berthelot entabló un acalorado debate
con Adolphe Wurtz. Ambos eran químicos destacados; Wurtz fue uno de los pocos
defensores vocales de la teoría atómica en Francia, y Berthelot fue un oponente
apasionado de la teoría. Después de que Wurtz citó la abundante evidencia de los
átomos y presentó sus argumentos, Berthelot respondió con su famosa pregunta
retórica: "¿Quién ha visto una molécula gaseosa o un átomo?"40 Luego declaró: "Lo
único que [la teoría atómica] ha hecho ha sido mezclar las mallas de sus hipótesis con
nuestras leyes demostradas, y esto en gran detrimento de la enseñanza de la ciencia
positiva".41
Un siglo antes, Francia había sido líder mundial en química. Sin embargo, durante el
siglo XIX, la mayoría de los químicos de las universidades francesas detuvieron su
investigación al nivel de las leyes empíricas y se negaron a avanzar hacia una teoría
causal. Berthelot expresó la actitud positivista en la raíz de este estancamiento durante
una conversación con otro químico a mediados de la década de 1880. Mientras
explicaba por qué hizo una cruzada contra la teoría atómica, Berthelot declaró: “No
quiero que la química degenere en una religión; No quiero que el químico crea en la
existencia de átomos como el cristiano cree en la presencia de Cristo en la hostia de
comunión ”.42Su colega le dijo que no se preocupara; después de todo, tranquilizó a
Berthelot, los átomos son sólo una ayuda mental y pocos creen en su existencia real.
En la década de 1880, la evidencia de la composición atómica de la materia excedía
cualquier estándar de prueba razonable. Rechazar átomos era similar a rechazar la
teoría heliocéntrica del sistema solar. La teoría atómica había integrado y explicado los
campos de la química, la cristalografía, la electrólisis, la teoría de los gases y la
termodinámica. Pero solo había una forma de evidencia que Berthelot aceptaría: los
atomistas debían presentarle un átomo que pudiera sostener en la mano y mirar. En
ausencia de tal "apariencia", insistió en que aceptar la existencia de los átomos era
simplemente un acto de fe. Así, aceptó la falsa alternativa entre empirismo y
racionalismo, y eligió actos de mirada en blanco sobre actos de fe ciega.
En física, el más famoso e influyente de los positivistas de finales del siglo XIX fue
Ernst Mach. Cuando era adolescente, Mach había leído a Kant y llegó a la opinión de que
la realidad no era más que una "multiplicidad de sensaciones". Adoptó una perspectiva
en la que todo el mundo de entidades físicas se desvaneció, dejando solo una sucesión
caleidoscópica de apariencias no relacionadas. Después de descartar la idea de
causalidad como "formalmente oscura", argumentó que el objetivo de la ciencia era
simplemente identificar ecuaciones matemáticas que describen patrones en los
fenómenos observados. Evidentemente, la teoría atómica era incompatible con tal punto
de vista. "Lo que nos representamos detrás de las apariencias existe sólo en nuestro
entendimiento", escribió. “[Tales representaciones] sólo tienen el valor de ayudas a
nuestra memoria cuya forma, por ser arbitraria e irrelevante, 43
Según Mach, una teoría científica es simplemente una mnemotecnia arbitraria. Tiene
la misma función que la canción del alfabeto, que ayuda al niño a recordar letras al
conectarlas con una melodía. Por supuesto, los investigadores exitosos no consideran
las teorías de esta manera; no las usan para recordar experiencias pasadas, sino para
explicar esos sucesos pasados y predecir fenómenos nunca antes vistos. También los
utilizan para llevar astronautas a la luna, diseñar plantas de energía nuclear,
revolucionar nuestras vidas con computadoras de alta velocidad o salvar nuestras vidas
con nuevos medicamentos y equipos de diagnóstico médico. Las teorías tienen tal poder
cuando identifican correctamente las relaciones causales fundamentales.
Las premisas básicas de Mach lo llevaron a hacer afirmaciones que solo pueden
describirse como extrañas. Al discutir la composición del agua, por ejemplo, escribió:
“Decimos que el agua consiste en oxígeno e hidrógeno, pero este oxígeno e hidrógeno
son meramente pensamientos o nombres que, a la vista del agua, nos mantenemos listos
para describir fenómenos que son no presente pero que volverá a aparecer cada vez que
descompongamos el agua ”.44De modo que el oxígeno y el hidrógeno no se refieren a los
elementos que componen el agua; más bien, se refieren solo a las burbujas de gas que
vemos durante un experimento de electrólisis. (Los positivistas posteriores darían el
siguiente paso y afirmarían que el nombre "Aristóteles" no se refiere al filósofo griego,
sino solo a nuestras experiencias perceptivas cuando leemos sobre el nombre en un
libro).
A principios del siglo XX, científicos influyentes de toda Europa todavía negaban la
realidad de los átomos. Además de Mach, estaban Karl Pearson en Inglaterra, Henri
Poincaré y Pierre Duhem en Francia, Wilhelm Ostwald y Georg Helm en Alemania, y sus
numerosos seguidores. Eran como miembros de una “sociedad de la Tierra plana”,
excepto que ocupaban puestos universitarios destacados y publicaban artículos en
revistas de prestigio.
Finalmente, los descubrimientos hechos en la primera década del siglo XX
convencieron a algunos positivistas (pero no a Mach) de reconocer el valor heurístico
de la teoría atómica. Por ejemplo, Ostwald hizo esta concesión cuando Einstein
identificó las colisiones con moléculas como la causa del movimiento “browniano”
observado de partículas muy pequeñas (pero perceptibles). La exitosa integración de
ciencias enteras no había dejado impresionado a Ostwald; reconsideró su oposición a la
teoría atómica sólo después de ver pequeñas partículas rebotar. Esto es típico de la
"conversión" que tuvo lugar entre los positivistas. Dado que su epistemología los
restringió a abstracciones cercanas al nivel perceptivo, solo este tipo de evidencia
observacional más directa podría tener algún impacto en ellos.
Aunque los átomos fueron aceptados con un encogimiento de hombros pragmático,
la filosofía que se les opuso sobrevivió. Continuó ejerciendo una fuerte influencia en la
próxima frontera de la investigación: la física subatómica. En la década de 1920, los
fundadores de la teoría cuántica rechazaron explícitamente la causalidad y se limitaron
a desarrollar un formalismo matemático que describe y predice eventos
observables.45Así, el legado del positivismo permanece con nosotros hasta nuestros
días. Ha pasado más de un siglo desde el descubrimiento del electrón y el núcleo
atómico; sin embargo, los físicos aún no tienen una teoría causal de los procesos
subatómicos, y la prohibición de desarrollar tal teoría rara vez se cuestiona.
El método empirista conduce al estancamiento.

***

Racionalistas y empiristas han discutido durante siglos, pero están de acuerdo en


rechazar la opinión de que la teoría científica es la recompensa ganada con esfuerzo de
un proceso paso a paso de abstracción de datos sensoriales. El racionalista pretende
llegar al conocimiento de otra manera: mira pasivamente el contenido de su mente y
declara que las construcciones de su imaginación son validadas por su "belleza" o
"claridad". El empirista, por otro lado, denuncia como acientífico el objetivo mismo de
descubrir una teoría causal y exige que los investigadores se conformen con describir
las "apariencias".
Ambos niegan que el conocimiento abstracto pueda descubrirse mediante una
aplicación rigurosa de la lógica inductiva.
7.

El papel de las matemáticas y la filosofía

A lo largo de este libro, hemos visto que las ciencias físicas dependen de otras dos
ciencias: las matemáticas y la filosofía.
El papel fundamental de las matemáticas está ampliamente reconocido, pero la
razón sigue siendo un misterio. Las matemáticas son el lenguaje de la ciencia física, pero
¿por qué? Aunque la pregunta se ha formulado durante siglos, no se ha ofrecido una
respuesta racional.
Históricamente, la respuesta más popular ha sido que Dios es un matemático y eligió
crear el universo en consecuencia. Pero la eficacia de las matemáticas no se explica por
la afirmación arbitraria de que "Dios lo hizo"; nada se hace inteligible al referirse a los
deseos de una entidad sobrenatural ininteligible que actúa por medios ininteligibles.
Desde el siglo XVII, los científicos han rechazado las supersticiones sobre fenómenos
como cometas, plagas y volcanes y las han reemplazado con explicaciones naturales. Es
hora de que hagamos lo mismo por el papel de las matemáticas.
La filosofía proporciona la visión básica de la existencia y del conocimiento que es
necesaria para perseguir las ciencias especializadas. Hoy, sin embargo, los físicos se
resisten a admitir su dependencia de la filosofía, un campo que se ha hundido en el
escepticismo y ha perdido la capacidad de responder (o incluso de formular) preguntas
interesantes. Los físicos tienen razón cuando descartan la corriente principal de la
filosofía contemporánea por considerarla irrelevante para su trabajo. Pero se equivocan
al juzgar un campo por sus practicantes irracionales, y son ingenuos al pensar que
pueden escapar de las cuestiones fundamentales de la filosofía. Hemos visto que los
diferentes enfoques de la física adoptados por Descartes, Newton y Mach tenían sus
raíces en diferentes sistemas de filosofía. Las ideas filosóficas de los científicos a veces
quedan implícitas y no expresadas,
Reconocer la dependencia de la física de la filosofía implica una responsabilidad
para el físico: debe llegar a sus conclusiones filosóficas utilizando el mismo rigor lógico
que exige para llegar a sus conclusiones científicas. Esto implica una obligación para la
filosofía, que sólo puede imponer tal respeto si está a la altura de los altos estándares
que prescribe para las ciencias especializadas. Las generalizaciones de la filosofía deben
ser inducidas a partir de datos de observación por el mismo método que define una
filosofía racional.
Comencemos por desmitificar la relación entre matemáticas y física. Luego, en la
siguiente sección, examinaremos si la ciencia fundamental que identifica los principios
de un método inductivo adecuado puede realmente seguir ese método. Finalmente,
veremos cómo el colapso de la filosofía ha afectado a la física contemporánea.

La física como inherentemente matemática


Una teoría adecuada de los conceptos es un requisito previo para comprender por qué
las matemáticas son el lenguaje de las ciencias físicas.
La pseudoexplicación que ofrece la religión se basa en una visión platónica de los
conceptos matemáticos. Según Platón, la fuente de las matemáticas es un reino
extrasensorial de ideas que existieron antes y causaron el mundo físico. Recuerde que
cuando Kepler estaba en las garras de este punto de vista, pasó por alto la búsqueda de
causas físicas y, en cambio, confió en sus intuiciones con respecto al diseño de Dios. Este
enfoque racionalista separa las matemáticas del mundo y, como resultado, sus
defensores se encuentran incapaces de utilizar las matemáticas para comprender el
mundo.
Aquellos que se han opuesto a la visión mística de las matemáticas han adoptado
típicamente la visión escéptica. Las leyes matemáticas de la naturaleza no son
creaciones arbitrarias de Dios, insisten los escépticos, sino que son creaciones
arbitrarias nuestras. Elegimos describir las "apariencias" en términos matemáticos
porque nos resulta conveniente hacerlo; esta descripción, sin embargo, no implica nada
sobre la naturaleza de la realidad, sólo sobre lo que los seres humanos encuentran
conveniente. Como dijo el físico inglés James Jeans,
Nunca podemos entender qué son los eventos, pero debemos limitarnos a describir el
patrón de eventos en términos matemáticos; ningún otro objetivo es posible…. Nuestros
estudios [de física] nunca pueden ponernos en contacto con la realidad, y su significado
y naturaleza deben permanecer ocultos para siempre. 1
Una vez más, las matemáticas se separan del mundo y su fuente se sitúa por
completo dentro de la conciencia (esta vez humana en lugar de divina).
Tales puntos de vista sobre la naturaleza de los conceptos matemáticos llevaron a
Einstein a plantear la pregunta incontestable: "¿Cómo es posible que las matemáticas,
un producto del pensamiento humano que es independiente de la experiencia, se ajuste
tan excelentemente a los objetos de la realidad física?" 2Una respuesta a esta pregunta
solo es posible cuando rechazamos la premisa de que las matemáticas son
independientes de la experiencia. Como cualquier otra ciencia, las matemáticas se
aplican a la realidad porque se derivan de nuestras observaciones de la realidad. Es una
conceptualización de hechos, que en última instancia se pueden reducir a similitudes y
diferencias observadas.
Para indicar la objetividad de las matemáticas, consideremos brevemente los
números de conteo. Tomemos, por ejemplo, el concepto “tres”, que se refiere a lo que es
igual entre los tres pájaros de un árbol, las tres monedas en mi bolsillo y los tres
bolígrafos en el cajón de mi escritorio. Cada grupo tiene la misma multiplicidad, es decir,
el mismo número de unidades. Para algunos números enteros pequeños, la similitud se
capta perceptivamente.
Entonces se pueden formar conceptos de números más altos mediante el método de
emparejamiento; por ejemplo, un pastor puede comparar el número de ovejas en una
ladera con el número de dedos de sus manos. Esto le permite captar la diferencia entre
un grupo de nueve ovejas y un grupo de diez ovejas, que no puede captarse mediante la
percepción directa. Al enfocarnos en relaciones de números como “uno menos” o “uno
más”, podemos llegar al concepto “uno” y luego reconocer las tremendas ventajas de
incluirlo como el primer número de una secuencia. Luego podemos contar, extender la
secuencia sin límite y desarrollar los métodos aritméticos. 3
Así, como todos los demás conceptos, los conceptos numéricos son integraciones de
concretos similares. Al contrario de Platón y sus muchos seguidores, son abstracciones
que en realidad no existen aparte de nosotros. Pero esto no implica que sean
invenciones subjetivas. Se refieren a hechos, tal como los procesa nuestra facultad
conceptual; es decir, son objetivos.4
La reducción a datos perceptivos es más compleja para conceptos matemáticos de
nivel superior. Dada la dificultad de la tarea y la confusión generalizada en
epistemología, incluso los mejores matemáticos han renunciado a la premisa de que sus
conceptos se basan en la experiencia. Por ejemplo, Morris Kline escribió:
[E] uch una explicación es demasiado simplista. Puede bastar con explicar por qué
cincuenta vacas y cincuenta vacas hacen cien vacas…. Pero los seres humanos han
creado conceptos y técnicas matemáticas en álgebra, cálculo, ecuaciones diferenciales y
otros campos que no son sugeridos por la experiencia. 5
Sin embargo, si los conceptos de las matemáticas superiores no se derivan de la
experiencia, entonces son el equivalente de "flogisto" o "espacio absoluto", es decir, no
son válidos. Entonces sería imposible comprender la aplicación exitosa de estas ideas.
Los astronautas que aterrizaron en la luna se sorprenderían mucho al saber que
llegaron a su destino confiando en ideas inválidas.
De hecho, los conceptos matemáticos, desde contar números hasta “números
imaginarios” hasta “infinito” y más allá, se desarrollan esencialmente de la misma
manera que los conceptos en las ciencias físicas; es un proceso de abstracción paso a
paso que comienza con la observación. No intentaré identificar esos pasos aquí, que me
llevarían mucho más allá del alcance de este libro. En cambio, remito al lector
interesado al trabajo de Pat Corvini en este campo.6
Dando por sentada la objetividad de las matemáticas, nuestra pregunta es: ¿Por qué
sólo mediante las matemáticas podemos obtener conocimiento científico del mundo
físico? A este respecto, recuerde la profunda declaración de Kepler de que así como el
ojo percibe la luz y el oído el sonido, el intelecto humano es una facultad para captar
cantidades. Hemos visto abundantes pruebas de que tenía razón; ahora buscamos
comprender por qué esto es cierto por la naturaleza misma de una conciencia
conceptual.
Rand identificó que los concretos similares unidos por un concepto difieren entre sí
solo cuantitativamente. Formamos un concepto al notar que dos o más existentes tienen
las mismas características, pero que estas características varían a lo largo de un
continuo cuantitativo de más o menos. Al omitir las medidas aproximadas implícitas de
las características, podemos integrar los existentes y tratarlos como instancias
intercambiables de un solo concepto.
Los conceptos son el medio por el cual identificamos la naturaleza de los existentes y
se basan en nuestra comprensión de las relaciones cuantitativas entre sus referentes. Al
realizar tal integración, nuestras mentes comprenden que las diversas instancias que
percibimos son conmensurables, es decir, reducibles a la misma unidad, y por lo tanto
que las instancias son las mismas excepto por sus diferentes medidas. Por ejemplo,
tomamos cualquier instancia particular de longitud y relacionamos todas las demás
instancias como más o menos. Cuando omitimos las medidas, el resultado es una
categoría conceptual a la que pertenecen todos: “longitud”, que es una integración
mental de todos los referentes conmensurables que podemos medir por referencia a
una instancia perceptible que adoptamos como unidad. El mismo principio se aplica a la
formación de otros tipos de conceptos.7 Por lo tanto, cuando decimos "sé lo que es algo",
queremos decir "sé lo que es a través de una operación cuantitativa que realiza mi
mente", es decir, mediante la captación de la conexión cuantitativa de instancias con
algún concreto tomado como unidad, y luego descartando la mediciones.
En la formación de conceptos, creamos carpetas de archivos, que contienen todos los
referentes de un concepto, los conocidos y los desconocidos. Entonces estamos listos
para recopilar más datos sobre algunas instancias y generalizar, aplicando nuestras
conclusiones a todas las instancias de la carpeta. Llenamos las carpetas de archivos
utilizando los métodos de diferencia y acuerdo para descubrir conexiones causales, que
son la base de nuestras generalizaciones inductivas. Pero, ¿cómo captamos, en el
sentido más profundo, tales conexiones entre los existentes físicos?
Al buscar causa y efecto, estamos relacionando objetos / atributos que están
subsumidos bajo diferentes conceptos. Estamos intentando descubrir los efectos de un
tipo de existente sobre otro, por ejemplo, para identificar el efecto de la temperatura
sobre la presión de un gas, o el efecto de la longitud sobre el período de un péndulo, o el
efecto de la distancia sobre la presión de un gas. fuerza gravitacional entre dos cuerpos.
Nuestro vocabulario conceptual nos permite perseguir ese conocimiento; por ejemplo,
podemos buscar la relación entre temperatura y presión, descartando lo irrelevante,
como el color o la forma, incluso si inunda nuestro campo perceptivo. Por tanto,
podemos plantearnos preguntas causales específicas: ¿Cómo afecta A a B, ignorando
todo lo demás?
Además, nuestra facultad conceptual nos proporciona el sistema numérico y, por lo
tanto, la capacidad de medir no solo implícita y aproximadamente, como en la etapa de
formación de conceptos, sino explícita y numéricamente. Como adultos desarrollados
conceptualmente, continuamos con el proceso de establecer relaciones cuantitativas
como nuestro medio de conocimiento, pero en esta etapa posterior podemos relacionar
objetos de diferentes carpetas de archivos entre sí mediante el método conceptual de
captar la cantidad: la medición numérica.
Como ilustración de este proceso, revisemos la ley de Galileo que relaciona la
longitud de un péndulo con su período.
Primero, debemos formar el concepto de "longitud" captando medidas implícitas,
que luego omitimos. Usamos el concepto, en este caso, para describir una categoría más
estrecha: la longitud de un péndulo (aún una descripción conceptual que incluye un
número infinito de longitudes concretas de péndulos). De manera similar, llegamos al
concepto de "tiempo" observando las acciones de los cuerpos (por ejemplo, "día" y
"año" se basan en el movimiento relativo del sol y la Tierra, y los intervalos de tiempo
menores se estiman en relación con los movimientos regulares de menor duración );
luego omitimos las medidas implícitas. Subdividimos el concepto amplio de "tiempo"
para formar el concepto más estrecho de "período", que se refiere al intervalo de tiempo
entre instancias recurrentes de un movimiento repetido (todavía un concepto que
subsume un número infinito de períodos específicos).
Con este aparato conceptual y el sistema numérico, vimos que Galileo ideó una
forma de variar y medir numéricamente la longitud y el período correspondiente de
diferentes péndulos. Sobre la base de sus medidas, generalizó a una ley algebraica: la
longitud es proporcional al cuadrado del período. Después de comprender esta relación
causal, conocer las medidas de cualquiera de las variables permite calcular el valor
numérico de la otra (dado un sistema particular de unidades).
Así, la medición preconceptual conduce a conceptos, que a su vez hacen posible la
medición conceptual, que es la actividad básica de los experimentalistas en la ciencia
física. Los científicos comienzan identificando relaciones numéricas y luego generalizan
a las leyes matemáticas, que es nuestra forma de comprender las relaciones causales.
Las matemáticas nos permiten reducir a la escala de nuestra percepción
innumerables instancias más allá de nuestra percepción. Por ejemplo, la ley de la
gravitación cubre no solo un número ilimitado de instancias, sino también una escala de
magnitud ilimitada. Estudiamos la caída de la manzana, que es fácilmente perceptible, y
ahora podemos lidiar con la fuerza de atracción que ejerce una galaxia sobre otra. O
estudiamos el comportamiento de las bolas cargadas eléctricamente, que es fácilmente
perceptible, y ahora podemos lidiar con la fuerza que ejercen las partículas subatómicas
entre sí.
El mismo principio actúa en la formación de conceptos y en la práctica de la física.
Comenzamos con el nivel perceptivo de los concretos y luego, mediante un proceso de
abstracción, ascendemos al nivel de los conceptos, que Rand, en una elocuente analogía,
comparó con comenzar con la aritmética y luego, mediante un proceso de abstracción,
ascender al nivel de álgebra. En física, el equivalente del nivel perceptivo son las
medidas numéricas tomadas por el experimentador u observador; esta es la aritmética
de la física. Las leyes inducidas a partir de estas mediciones son el retorno al nivel
algebraico abstracto, y esto es lo que permite al físico comprender las relaciones entre
diferentes variables y, por lo tanto, relacionar su conocimiento, obtenido de un puñado
de instancias perceptibles, con todas las instancias. en todo el universo,
Así adquirimos conocimiento del mundo físico mediante dos formas de medición:
aproximada y preconceptual, y luego numérica y conceptual. La conciencia humana es
inherentemente un mecanismo cuantitativo. Capta la realidad, es decir, los atributos de
las entidades y sus relaciones causales entre sí, sólo mediante la captación de datos
cuantitativos. En este sentido, la cantidad tiene primacía epistemológica sobre la
calidad.
Es fundamental reconocer que este punto es epistemológico, no metafísico.
Pitágoras se equivocó al afirmar que la cantidad es la sustancia de la realidad; no es
cierto que "todas las cosas son números". La cantidad es siempre la cantidad de algo, es
decir, de alguna entidad o atributo. Pero la cantidad es la clave de la naturaleza del
conocimiento humano. Podemos captar e identificar las cualidades de las cosas sólo
captando la cantidad, y podemos captar las relaciones causales entre entidades y
acciones sólo captando las relaciones cuantitativas entre ellas.
Si pudiéramos conocer las cualidades simplemente por percepción, sin ningún
procesamiento cuantitativo, entonces podríamos conocer las relaciones causales por
percepción directa, sin mediciones numéricas. En los niveles más bajos de cognición,
podemos aproximarnos a este estado puramente cualitativo, porque podemos sostener
conceptos de primer nivel y generalizaciones de primer nivel, ostensiva y
perceptivamente. Para saber que el fuego arde, simplemente lo tocamos y gritamos
“¡Ay!” - no se requieren medidas numéricas. Pero en los niveles superiores de cognición,
una conciencia conceptual puede captar las relaciones de cualidades solo a través de la
medición.
La física, en efecto, completa el trabajo de formación de conceptos.
Una vez que hemos desarrollado el vocabulario conceptual necesario, el físico dice:
Restablezcamos ahora las medidas que deliberadamente dejamos fuera en la etapa de
formación de conceptos y veamos qué relaciones cuantitativas podemos encontrar. En
otras palabras: omitimos medidas para formar conceptos; el físico entonces toma estas
mismas medidas omitidas, pero en términos numéricos, y descubre la relación entre un
conjunto de medidas numéricas y otro, lo que llamamos las leyes de la naturaleza. Desde
leyes estrechas hasta teorías fundamentales, este es el método mediante el cual los
científicos identifican las relaciones causales que operan en el universo y, por lo tanto,
explican nuestras observaciones.
Después de la etapa inicial cualitativa y precientífica, no hay nada que un científico
que estudie un mundo físico conceptualizado pueda hacer para comprender las
relaciones entre los cuerpos, excepto restablecer en términos numéricos las mismas
medidas que tuvieron que descartarse para conceptualizar ese mundo. Y esto es así por
la naturaleza de nuestra facultad conceptual.
Ésta es la razón por la que las matemáticas son el lenguaje de la física. La física
matemática es necesaria por el hecho de que la entidad que está aprendiendo es una
conciencia conceptual que conoce los objetos solo a través de la cantidad.

La ciencia de la filosofía
De Platón a Descartes, de Kant a Hegel, los filósofos racionalistas han intentado deducir
la naturaleza del mundo a partir de ideas "a priori", y su espectacular fracaso ha hecho
mucho por desacreditar la filosofía a los ojos de los físicos. La filosofía no nos dice la
naturaleza específica del mundo, pero sí nos dice que hay un mundo, que tiene una
naturaleza y debe actuar en consecuencia, y que descubrimos esa naturaleza siguiendo
ciertos principios de método.
La filosofía es la ciencia que define la relación entre una conciencia volitiva y la
realidad. Por tanto, es la ciencia fundamental de la vida humana, sobre la que descansan
todas las disciplinas más especializadas. Es la voz que nos dice cómo seguir esas
disciplinas mientras permanecemos en contacto cognitivo con la realidad en cada
punto, lo cual es un requisito previo para lograr con éxito metas racionales en cualquier
campo. Todas las demás ciencias presuponen lo esencial de una visión racional del
universo, del conocimiento y de los valores.
La filosofía es y debe ser un tema inductivo en todas las ramas excepto en la
metafísica. (Véase el primer capítulo del libro del Dr. Peikoff Objectivism: The
Philosophy of Ayn Rand para una discusión de cómo conocemos los axiomas
metafísicos, que son la base de todo pensamiento.) Las ideas normativas de la filosofía
no son innatas; deben aprenderse comenzando con la observación perceptiva y luego
avanzando en la jerarquía necesaria, como en la ciencia física. Todo conocimiento de la
realidad debe adquirirse sobre la base de la observación, incluido el conocimiento de
cómo adquirir conocimiento. La inducción es ineludible en todos los temas.
Los datos integrados por generalizaciones filosóficas provienen principalmente de
dos fuentes. La primera es la experiencia personal, incluida la conciencia introspectiva
de los procesos conscientes de uno y el estudio de los demás. La introspección es
claramente una fuente de datos indispensable, ya que la filosofía estudia la conciencia y
un individuo tiene acceso directo solo a la suya propia. La segunda fuente de datos
importante es la historia, que Rand alguna vez llamó "el laboratorio de la filosofía".
Obviamente, hay muchas generalizaciones sobre el conocimiento y los valores que se
pueden descubrir mediante un estudio del antiguo Egipto versus la antigua Grecia,
Atenas versus Esparta, la Edad Media versus el Renacimiento, la Revolución Americana
versus la Revolución Francesa, Alemania Oriental versus Alemania Occidental antes de
Berlín. La pared se derrumbó, y así sucesivamente.
Para dar una breve indicación del proceso inductivo en filosofía, volvamos a la
pregunta planteada al comienzo de este libro: ¿Cuál es el método adecuado para llegar a
generalizaciones sobre el mundo físico? Ahora nos preguntamos: ¿Qué generalizaciones
inductivas debían captarse antes de que fuera posible pensar en esta pregunta?
Claramente, debemos comprender la necesidad de un método. Uno de los primeros
pasos aquí es reconocer que somos falibles. Una idea no es verdadera simplemente
porque se nos ocurra o porque deseamos que sea verdadera; a veces nos equivocamos.
Los niños comprenden esto muy temprano en su desarrollo, y la gente ciertamente lo
sabía cuando todavía vivían en cuevas. Un hombre de las cavernas que confundió una
planta venenosa con una comestible pronto se enteró de que había cometido un error.
Por supuesto, la falibilidad por sí sola no nos lleva muy lejos hacia el descubrimiento
de un método racional. La solución primitiva al problema del error fue confiar en alguna
autoridad supuestamente infalible, por ejemplo, el jefe de la tribu, el médico brujo o las
revelaciones del faraón de los dioses. La humanidad tardó mucho en descubrir que
existe un método basado en hechos mediante el cual un individuo puede llegar a sus
ideas y probarlas.
Este descubrimiento fue posible cuando los filósofos de la antigua Grecia captaron la
distinción crucial entre conceptos y percepciones. Platón fue el primero en identificar
claramente las diferencias entre estas dos formas de conciencia. Los conceptos son
universales, es decir, se refieren a todos los existentes de un tipo dado, mientras que las
percepciones son la conciencia directa de los particulares; los conceptos son productos
del pensamiento, mientras que las percepciones son el resultado automático de la
interacción de nuestros sentidos con el mundo físico; los conceptos son estables,
mientras que las percepciones cambian con las circunstancias y con los cambios en los
cuerpos percibidos.
Desafortunadamente, Platón usó estas diferencias para argumentar que los
conceptos no pueden originarse en nuestra percepción del mundo físico, sino que deben
tener su fuente en un mundo sobrenatural de ideas. Al asignar conceptos y percepciones
a dos mundos diferentes y, por lo tanto, abrir una brecha entre ellos, redujo su filosofía
al misticismo y abandonó la búsqueda de un método basado en la realidad.
Fue Aristóteles quien rechazó el error de Platón y reunió las ideas con la evidencia
de nuestros sentidos. Comprendió que formamos conceptos mediante un proceso de
abstracción de nuestra conciencia sensorial de los particulares. La abstracción es un
enfoque mental selectivo sobre las similitudes entre los existentes; es el proceso de
separar mentalmente las similitudes del conjunto de diferencias en las que están
incrustadas. Así, Aristóteles reconoció que todo el conocimiento conceptual se deriva de
nuestra percepción del mundo de las entidades que nos rodean.
Además, identificó una diferencia crucial entre conceptos y percepciones que había
eludido a Platón. En contraste con el reino del pensamiento conceptual, las
percepciones son infalibles. Son simplemente el producto de una respuesta fisiológica
automática de nuestros sentidos a la realidad; no pueden estar equivocados, al igual que
una manzana no puede equivocarse en su respuesta a un campo gravitacional. Solo los
juicios que hacemos sobre la base de nuestras percepciones pueden ser erróneos. Sin
embargo, tales juicios no son automáticos; están bajo nuestro control; podemos
someterlos a una evaluación crítica y revisarlos según lo justifique la evidencia.
En esta etapa, Aristóteles pudo captar la posibilidad de validar nuestro conocimiento
mediante un método racional. El reino conceptual falible de la cognición humana se
puede comparar con los datos perceptivos infalibles. Podemos exigir que las
conclusiones alcanzadas por cualquier proceso de pensamiento volitivo integren los
datos sensoriales sin contradicción, y podemos rechazar cualquier conclusión que no
satisfaga esta exigencia. Debido a que este método se ha utilizado tan extensamente y
con tanto éxito durante siglos, ahora se da por sentado y se considera obvio. Pero era
necesario captar muchas generalizaciones inductivas abstractas sobre la cognición
humana antes de que alguien pudiera llegar a la idea de tal método.
Una vez que Aristóteles comprendió la necesidad y la posibilidad de un método
racional, preguntó: ¿Cuáles son las reglas específicas de este método, las reglas que
debemos seguir para asegurar que nuestras conclusiones se correspondan con los
hechos? Comenzó con un estudio de la deducción, que es más simple en forma que la
inducción. Los pensadores griegos habían estado discutiendo durante siglos,
construyendo cadenas de premisas que llevaban a conclusiones. Aristóteles emprendió
la tarea de identificar las reglas que distinguen los argumentos válidos de los inválidos y
de abstraer el principio básico de validez.
Su descubrimiento monumental aquí, que lo convierte en el padre de la lógica, fue
que la validez deductiva está determinada únicamente por la forma del argumento, no
por su contenido. Algunas formas son lógicamente válidas, es decir, la conclusión se
deriva de las premisas, sin importar el contenido; otras formas no son válidas, de nuevo,
independientes del contenido. Por ejemplo, considere el argumento: “Sócrates es un
hombre; los hombres son mortales; por tanto, Sócrates es mortal ". Podemos
simbolizarlo de la siguiente manera: “S es M; M es P; por lo tanto, S es P. " Cualquier
argumento con esta estructura es deductivamente válido. Por el contrario, considere el
argumento: “Sócrates es mortal; los cerdos son mortales; por tanto, Sócrates es un cerdo
". Cualquier argumento con esta estructura no es válido.
Tenga en cuenta que nuestra primera comprensión de la distinción entre
argumentos válidos e inválidos se basa en la observación directa. Por ejemplo, sabemos
que el segundo argumento es inválido simplemente porque es perceptualmente
evidente que Sócrates no es un cerdo. Más tarde, podemos simbolizar el argumento,
dibujar diagramas y captar lo que está mal en su forma. Pero la separación inicial de
argumentos válidos e inválidos es anterior al análisis abstracto, y es posible porque las
formas inválidas pueden llevar a conclusiones que son observablemente falsas.
Así, Aristóteles indujo su teoría de la deducción; examinó una enorme variedad de
argumentos particulares y llegó a generalizaciones que identificaron los diversos tipos
de estructuras válidas e inválidas. Luego, ascendiendo a un nivel aún mayor de
abstracción, preguntó: ¿Cuál es el error común en la raíz de todos los argumentos
inválidos? Encontró que todos esos argumentos implican una contradicción, es decir,
implican que algo es A y no A al mismo tiempo y en el mismo sentido. Así comprendió
(inductivamente) que la ley de la no contradicción es el principio fundamental del
pensamiento válido.
La teoría de la deducción fue un logro sin precedentes en epistemología, pero era
obvio que la validez deductiva por sí sola no es garantía de la verdad. Las premisas
falsas combinadas en una estructura válida pueden llevar a conclusiones falsas. El
conocimiento requiere validar toda la cadena de razonamiento que va desde la
observación hasta la conclusión final. Toda conclusión de un argumento deductivo
depende de generalizaciones a las que sólo se puede llegar por inducción. De ahí la
pregunta con la que comenzamos este libro: ¿Cómo podemos conocer la verdad de tales
generalizaciones?
Para responder a esta pregunta en lo que respecta a la física, nos hemos basado en
gran medida en la historia de la ciencia. La teoría de la inducción presentada aquí ha
sido inducida por la observación del proceso de descubrimiento científico en acción.
Hemos tratado la historia de la ciencia como nuestro laboratorio, identificando los
principios del método que han llevado a la verdad y las desviaciones de ese método que
han llevado al error. Hemos utilizado los métodos de acuerdo y diferencia para abstraer
los principios metodológicos comunes a los casos de descubrimiento exitoso y
contrastarlos con los casos de fracaso.
Por ejemplo, considere el principio de que una teoría científica probada debe
basarse en relaciones causales, en oposición a regularidades descriptivas. La ley de
causalidad, por supuesto, se comprende implícitamente en una etapa muy temprana del
desarrollo cognitivo; no llegamos a ella estudiando teorías científicas, que presuponen
el conocimiento de innumerables relaciones causales. Sin embargo, la historia de la
ciencia ofrece una nueva comprensión del papel de la causalidad en el desarrollo de
teorías abstractas del mundo físico, y esta comprensión no podría obtenerse de ninguna
otra manera. Cuando identificamos el enfoque no causal de Ptolomeo y vemos el
estancamiento resultante en la astronomía, y luego lo contrastamos con el enfoque
explícitamente causal de Kepler y vemos su descubrimiento histórico de la verdadera
estructura del sistema solar,
A continuación, considere el principio de que los métodos de diferencia y acuerdo
proporcionan los medios para descubrir relaciones causales (el experimento es la forma
principal de estos métodos, pero, como mostró Kepler, no es la única forma). Una cosa
es reconocer que la diferencia y el acuerdo juegan un papel importante en la ciencia
(incluso los racionalistas suelen conceder esto); sin embargo, es otra cosa comprender
la naturaleza fundamental e indispensable de ese papel. Aquí nuevamente, la historia de
la ciencia proporciona abundantes pruebas. Por ejemplo, el contraste entre la física de
Descartes y la de Newton ilustra este punto. A pesar de que Descartes realizó
experimentos de vez en cuando, el experimento no jugó un papel esencial en su física, lo
que, como resultado, fue una mezcla de afirmaciones que no tenían base en la realidad.
Por otro lado,
El papel de las matemáticas también se deriva de la historia de la ciencia. Antes de
Galileo, incluso los mejores pensadores no comprendían por completo el poder único de
las matemáticas como herramienta para comprender el mundo físico. Incluso después
de Galileo, Descartes hizo relativamente poco uso de las matemáticas en su física (a
pesar de que era un excelente matemático). Fue solo después del trabajo de Newton que
las matemáticas fueron plenamente reconocidas como el lenguaje de la ciencia física.
De la historia también aprendemos que el hombre puede descubrir la naturaleza
fundamental de la materia y que ese conocimiento teórico tiene beneficios prácticos.
Aquí, de nuevo, Newton allanó el camino. Fue el primero en concebir la posibilidad de
explicar la enorme variedad de fenómenos observados mediante unas pocas leyes
fundamentales. Luego, ese conocimiento hizo posible la Revolución Industrial, lo que
resultó en un aumento dramático en la longevidad y prosperidad de la vida humana. Y,
si somos lentos para aprender la lección, la historia tiene la amabilidad de repetirla por
nosotros. Por ejemplo, podemos observar el descubrimiento de la teoría atómica de la
materia, la desastrosa oposición a la teoría por parte de los positivistas que negaban la
posibilidad de tal conocimiento y, finalmente, la extraordinaria tecnología promotora de
vida que ha surgido de la teoría.
Finalmente, considere el principio de que el método inductivo es autocorrector.
¿Podríamos haber captado este principio sin extraerlo de la historia de la ciencia?
Podríamos haber argumentado como sigue: (1) La realidad es un todo interconectado
causalmente que no tiene contradicciones; (2) el método inductivo mantiene a uno en
contacto cognitivo con la realidad; (3) por lo tanto, tal contacto garantiza que uno
eventualmente se dará cuenta de hechos que contradicen y, por lo tanto, refutan
cualquier idea falsa. Sin embargo, esto en sí mismo no es más que una serie de
abstracciones flotantes poco convincentes. El argumento se vuelve convincente sólo
cuando damos contenido a las abstracciones examinando una amplia gama de errores
reales de la historia de la ciencia y viendo en todos los casos que la aplicación
continuada del método inductivo condujo a la corrección del error.
La teoría de la inducción debe evaluarse con los mismos criterios que propone para
evaluar las teorías en las ciencias físicas. Examinemos ahora si se han cumplido estos
criterios.
Primero, considere la variedad de datos históricos que se han ofrecido en apoyo de
la teoría. Hemos examinado de cerca el descubrimiento de tres teorías relativamente
estrechas (la cinemática de Galileo, la teoría del sistema solar de Kepler y la teoría de los
colores de Newton) y el descubrimiento de dos teorías fundamentales (la mecánica
newtoniana y la teoría atómica de la materia). Estas teorías difieren en el nivel de
abstracción, involucran diferentes ciencias (astronomía, física y química) y se ocupan de
fenómenos que van desde los muy grandes (el sistema solar) hasta los muy pequeños
(átomos). En cada caso se demostró que los mismos principios del método condujeron a
la prueba y que los errores cometidos en el camino hacia el descubrimiento fueron
causados por alguna desviación de ese método.8
He elegido deliberadamente teorías probadas y no controvertidas. Un filósofo de la
ciencia que intente identificar los principios del método debe hacerlo por la misma
razón por la que el físico debe eliminar los factores de confusión en sus experimentos.
Así como el físico no puede identificar una causa cuando un experimento involucra
varias variables relevantes pero no controladas, el filósofo no puede identificar los
principios del método apropiado examinando el desarrollo de una teoría que tiene una
relación desconocida con la realidad.
Además de ser inducida por la historia de la ciencia, una teoría de la inducción en
física también debe ser parte integral de un amplio sistema filosófico que ha sido
validado. La inducción es un tema avanzado en epistemología y, por lo tanto, presupone
respuestas a muchas preguntas previas sobre los fundamentos y la naturaleza del
conocimiento. Nuestra teoría es parte de un marco filosófico total que identifica los
axiomas básicos sobre los que descansa todo el conocimiento y la naturaleza de los
conceptos. Así, hemos aceptado la responsabilidad de satisfacer nuestros propios
criterios de prueba: hemos presentado una teoría de la inducción que se basa en todo en
la observación, que se integra con un marco conceptual válido y que ha sido inducida a
partir de un rango suficiente de datos.
Comencé esta sección enfatizando que la filosofía es la base de las ciencias
especializadas y, sin embargo, ahora he enfatizado que algunos conocimientos
filosóficos cruciales se derivan de la historia de esas ciencias. Ambos puntos son
verdaderos y consistentes entre sí. Uno debe tener lo esencial de un enfoque racional de
este mundo para descubrir el conocimiento especializado; luego, una vez que se ha
descubierto una cantidad significativa de ese conocimiento, se puede reflexionar sobre
el proceso y llegar a una comprensión más explícita del método. El conocimiento
filosófico necesario al principio es jerárquicamente más bajo que los principios del
método que se inducen a partir del descubrimiento exitoso de las teorías científicas. Por
ejemplo, primero debemos comprender que la observación es la base del conocimiento
antes de que podamos comprender el papel del experimento en la ciencia física;
primero debemos comprender la ley de la no contradicción y la interdependencia de
nuestras ideas antes de que podamos comprender el principio de que todo
conocimiento debe formar un todo integrado; y primero debemos captar los beneficios
prácticos del conocimiento de nivel inferior antes de poder captar el valor
extraordinario de las teorías abstractas.
En Capítulo 4, discutimos la relación entre el conocimiento temprano de la física y
los descubrimientos posteriores. Vimos que la cinemática de Galileo era un requisito
previo esencial que permitió a Newton expandir el concepto de "aceleración" y
comprender el concepto de "gravedad". En su contexto de conocimiento más avanzado,
Newton pudo mirar hacia atrás y ver las implicaciones de los experimentos de Galileo
que el propio Galileo no pudo comprender. El uso de descubrimientos posteriores para
profundizar y ampliar la comprensión de los puntos anteriores es característico del
conocimiento en cualquier campo, y esto es particularmente cierto en la filosofía. La
ciencia de la filosofía comienza diciéndonos que debemos usar la razón para captar la
realidad si queremos permanecer en la realidad, y luego, a medida que avanza, la
filosofía repite el mismo mensaje, pero con una comprensión cada vez más profunda de
la razón y los requisitos de la misma. vida humana.
Las ciencias de la filosofía y la física utilizan un método similar. Ambos parten de
generalizaciones de bajo nivel basadas en la observación y llegan a principios mediante
un proceso de integración paso a paso. Los conceptos juegan el mismo papel en ambos
campos: los conceptos válidos lo dirigen a uno en el camino hacia las verdaderas
generalizaciones, y los conceptos inválidos detienen el progreso. Y las teorías de ambas
ciencias deben satisfacer los mismos criterios de prueba.
Pero hay dos diferencias obvias de método que han cegado a los intelectuales al
hecho de que la filosofía es una ciencia inductiva.
Primero, la filosofía no usa experimentos. El sujeto de la filosofía es el hombre, y es
evidente que está mal controlar y manipular a los hombres. Además, incluso el intento
diabólico de tratar a los hombres como objetos inanimados fracasaría; dado que los
hombres tienen libre albedrío, siempre existe un factor causal que está inherentemente
más allá del control de cualquier aspirante a experimentador. Pero, como hemos visto,
la filosofía tiene su propio paralelo al experimento que es completamente adecuado
para sus propósitos: utiliza los métodos de la diferencia y el acuerdo para explotar las
ricas fuentes de datos proporcionadas por la experiencia personal y la historia.
En segundo lugar, la filosofía no usa las matemáticas. La filosofía estudia la relación
entre la conciencia del hombre y la realidad, y la conciencia no es numerable. Se puede
medir de forma aproximada porque los pensamientos y las emociones varían a lo largo
de continuos cuantitativos. Por ejemplo, podemos decir que la idea de Newton de la
gravitación universal tiene un alcance mayor que su idea sobre la ropa que usará en una
ocasión particular; o podemos decir que el amor de una mujer por su marido es más
intenso que su amor por el chocolate. Pero nunca podremos decir que la idea de la
gravitación es 8.719 veces más grande, o que el amor de la mujer es 163 veces más
intenso.
Los estados de conciencia son mensurables (aproximada y no numéricamente) solo
por su relación con la materia. De una forma u otra, lo que se mide siempre es la
materia, no el estado de conciencia en tanto que conciencia. Un pensamiento que tiene
un gran alcance es aquel que incluye más objetos o atributos físicos. Una emoción que
tiene gran intensidad es aquella que conduce a más acciones, y / o más tiempo en
acción, y / o la elección de ciertas acciones sobre otras. Cuando los investigadores
hablan (vagamente) de aplicar medidas numéricas a la conciencia, de hecho están
midiendo entidades físicas, atributos o acciones que están relacionadas con estados
conscientes.
La conciencia tiene una naturaleza, es decir, la conciencia se logra por medios
específicos; pero todo lo que se puede medir que pertenece a la naturaleza de la
conciencia se relaciona con sus instrumentos físicos: un tipo particular de sentidos y un
tipo particular de cerebro. El fenómeno de la conciencia en sí mismo es inanalizable,
porque no es más que la facultad de percibir la existencia. Por sí mismo, es decir,
considerado al margen de cualquier relación con el mundo físico, carece de contenido y
carácter, por lo que no hay ningún misterio sobre por qué no se puede cuantificar. Los
números son aplicables sólo a entidades y sus atributos, pero los estados conscientes no
son entidades, son la conciencia de entidades.
Un neurólogo puede medir los impulsos eléctricos en un cerebro y correlacionarlos
con los estados de conciencia, pero los números siempre se refieren a los estados del
cerebro. Un psicólogo puede dar pruebas de opción múltiple diseñadas para medir la
inteligencia o la autoestima, pero tales pruebas dan (en el mejor de los casos) solo
estimaciones aproximadas. Los puntajes numéricos están determinados por la
ubicación de las marcas físicas en las hojas de papel. Puede estar claro que un hombre
en particular es más inteligente o más seguro que otro hombre, pero no hay un
significado literal para la afirmación de que es un 28 por ciento más inteligente o que su
autoestima es un 17 por ciento más alta. No hay nada que sirva como unidad numérica
de inteligencia o autoestima.
Las ideas dentro de una mente son una parte inseparable de un estado cognitivo
total de una manera que no es cierta para los cuerpos físicos. Los constituyentes de una
tabla o de una aleación o incluso de un átomo pueden estar separados y existir sin
conexión con su todo anterior, y conservan una identidad independiente propia incluso
cuando son partes de un todo mayor. Pero dado que una idea carece de sentido aparte
del contexto cognitivo en el que está incrustada, no puede separarse de esta manera, y
mucho menos definirse como una unidad y relacionarse numéricamente con otras ideas.
Cuando una idea se combina con otra idea para llegar a otra idea, la asignación de
números puede llevar a la conclusión de que uno más uno es igual a uno. La conciencia
es una facultad integradora y, como tal, debe eludir cualquier forma de contar.
El hecho de que la filosofía no pueda utilizar las matemáticas no tiene consecuencias
negativas; no pone en duda el estatus del conocimiento filosófico. La física debe utilizar
las matemáticas para descubrir causas y adquirir un conocimiento integrado de una
amplia gama de cuerpos físicos y su desconcertante variedad de propiedades. La
filosofía, en cambio, es un tema más abstracto y mucho más delimitado: estudia un
aspecto de una especie y, por lo tanto, proporciona la base de todo nuestro
conocimiento y nuestros valores. A diferencia de la física, no necesita las matemáticas
para proporcionar un método de integración especializado.
Aquellos que consideran la filosofía como una disciplina "blanda" y no científica, en
contraste con los campos "duros" y científicos de las matemáticas y la física, han
aceptado una Gran Mentira. Las ideas de matemáticos y físicos no pueden ser más
objetivas o ciertas que las ideas filosóficas de las que dependen. La filosofía es la
disciplina que nos dice cómo ser objetivos y cómo lograr la certeza. Sin una teoría del
conocimiento, ¿cómo sabrían los matemáticos o físicos la relación de sus conceptos y
generalizaciones con la realidad?
Es la ciencia inductiva de la filosofía la que le enseña al científico "duro" cómo ser
científico.

Un final y un nuevo comienzo


Hace cuatro siglos, Kepler y Galileo rompieron las cadenas que habían mantenido a los
hombres en la cueva de Platón y comenzaron la revolución científica. Fue una
revolución que cobró impulso rápidamente y logró una victoria tras otra. Pero mientras
los científicos estaban ampliando sus conocimientos y conquistando nuevos territorios,
no se dieron cuenta de que su base de operaciones estaba siendo saboteada. Los
filósofos habían lanzado una contrarrevolución que comenzó a cobrar su propio
impulso.
El líder de la contrarrevolución fue Immanuel Kant.
A pesar de sus errores, la mayoría de los filósofos anteriores a Kant habían intentado
validar la capacidad de la mente para conocer la realidad. Algunos reconocieron su
fracaso y se rindieron desesperados. Pero los escépticos siempre fueron seguidos por
otros que renovaron el esfuerzo por mostrar que la conciencia de alguna manera podía
captar la existencia. Kant fue el primer filósofo que renunció, por principio, a todos esos
esfuerzos y que presentó su renuncia no como un fracaso sino como un triunfo
profundo.
Los sofistas de la antigua Grecia argumentaron que debido a que percibimos las
cosas de una manera que depende de la naturaleza de nuestros sentidos, en realidad no
percibimos las cosas externas, sino solo sus efectos sobre nosotros. Su argumento
suponía que, para ser consciente de un objeto, el sujeto consciente no debe tener
naturaleza propia. Nuestros órganos de percepción, y los medios específicos por los que
operan, supuestamente nos impiden percibir un objeto como realmente es.
Los sofistas concluyeron que percibimos solo apariencias subjetivas, que tienen una
relación incognoscible con los objetos externos. El ataque de Kant a la eficacia de la
mente fue una extensión radical de este viejo error. Si nuestra facultad de percepción es
inválida porque nuestros sentidos operan por medios específicos, ¿qué pasa con nuestra
facultad de concepción? Toda conciencia resulta del procesamiento de los datos de la
cognición, y ese procesamiento se realiza de formas específicas que dependen de la
naturaleza de la entidad consciente. Si la naturaleza de nuestro aparato sensorial es una
barrera infranqueable para percibir la realidad, entonces, por el mismo razonamiento,
la naturaleza de nuestro aparato conceptual debe considerarse como una barrera
infranqueable para pensar en la realidad. Kant concluyó que la conciencia, por el solo
hecho de tener una naturaleza, está separada de la existencia.
La influencia de los escépticos anteriores se había mitigado porque lamentaban su
incapacidad para validar el conocimiento humano. Pero Kant fue diferente: rechazó el
criterio por el cual su filosofía sería condenada como un fracaso. El estándar de verdad,
afirmó, no es la correspondencia entre nuestras ideas y la realidad. Desterró la realidad
del reino de la razón humana y la reemplazó con el "mundo fenoménico", un mundo de
apariencias creado por nuestras mentes. Se refirió a la realidad como el “mundo
nouménico” de las “cosas en sí mismas” e insistió en que es incognoscible y
cognitivamente irrelevante. “No sé ni necesito saber qué pueden ser las cosas en sí
mismas, ya que una cosa nunca puede presentarse ante mí excepto en apariencia”,
escribió en la Crítica de la razón pura (1787). 9Según Kant, nunca percibimos la realidad
y la razón es impotente para saber nada sobre ella. La razón se ocupa únicamente del
mundo subjetivo de su propia creación.
Los filósofos del pasado, afirmó Kant, estaban al revés cuando asumieron que las
ideas debían corresponder a los hechos de un mundo existente independientemente.
"Hasta ahora se ha asumido que todo nuestro conocimiento debe ajustarse a los
objetos", escribió. “[Ahora] probamos si no podemos tener más éxito en las tareas de la
metafísica si suponemos que los objetos deben ajustarse a nuestro conocimiento”. 10 Los
objetos que percibimos, dice Kant, siempre se ajustarán a nuestras ideas básicas, porque
son meras apariencias construidas por medio de esas mismas ideas, que son inherentes
a la estructura de la mente humana.
En una extraña contorsión del lenguaje, Kant se refirió a este cambio fundamental de
perspectiva como su "revolución copernicana". Fue un intento descarado de usurpar ese
prestigioso nombre y unirlo a ideas de naturaleza opuesta. La revolución copernicana
real fue dirigida por hombres que afirmaron con confianza que la razón puede captar la
realidad, y que se rebelaron contra la tradición escéptica de simplemente describir las
"apariencias". Debido a que estos científicos reconocieron que el mundo físico es
completamente real e independiente de nosotros, pudieron descubrir que el universo
no está centrado ni diseñado a nuestro alrededor. Kant, por otro lado, afirmó que el
mundo que observamos es creado por nosotros. Su visión del universo era
incomparablemente peor que la astronomía geocéntrica; lo que ofrecía era una ilusión
antropocéntrica.
Como Platón y Descartes, Kant basó su epistemología en ideas innatas. A diferencia
de Platón y Descartes, negó que tales ideas se correspondan con la realidad; insistió en
que son meras construcciones subjetivas, inaplicables a las "cosas en sí mismas". De ahí
que su teoría sintetizara los peores errores de sus predecesores: combinó el método
arbitrario de los racionalistas con el contenido escéptico de los empiristas.
Kant reconoció que su filosofía requería volver a concebir la ciencia de la física.
Captamos las cosas por medio de nuestros conceptos humanos subjetivos, afirmó, por lo
tanto, no captamos las cosas reales, solo los objetos internos creados por nuestras
mentes. Esta premisa exigía el rechazo del método inductivo de Newton. Dado que
creamos el mundo fenoménico, somos los autores de sus leyes básicas, no los
descubridores. Escribió que "las leyes universales de la naturaleza ... no se derivan de la
experiencia, sino que la experiencia se deriva de ellas". 11 Supuestamente comenzamos
con las leyes y creamos la experiencia que las obedece.
El subjetivismo —la opinión de que el sujeto crea los objetos de conocimiento
mediante sus propios procesos internos— se presenta en diferentes variedades. Según
Kant, los conceptos innatos y las formas de intuición que crean el mundo fenoménico
son inherentes a la mente humana y, por lo tanto, todos creamos el mismo mundo. Pero
muchos de los seguidores de Kant han rechazado este aspecto de su sistema; prefieren
un enfoque más libre, en el que un grupo de personas puede adoptar ideas y así crear su
propia realidad, diferente de las realidades creadas por otros grupos.
Desde la década de 1960, este subjetivismo pluralista ha sido la visión dominante en
la filosofía de la ciencia. Dos de sus defensores más influyentes han sido Thomas Kuhn y
Paul Feyerabend.
En su libro más popular, La estructura de las revoluciones científicas, Kuhn dividió a
los científicos en dos tipos. Están los creadores de nuevos "paradigmas" (es decir,
teorías científicas vistas como construcciones subjetivas), y luego están los científicos
"normales" que adoptan estos paradigmas sobre la base de la autoridad. En otras
palabras, Kuhn describe la ciencia en la forma en que uno podría caracterizar con
precisión un culto religioso. La fe, afirma, juega un papel central: “[El científico] debe…
tener fe en que el nuevo paradigma tendrá éxito con los muchos grandes problemas que
enfrenta, sabiendo solo que el paradigma anterior ha fallado con unos pocos. Una
decisión de ese tipo solo se puede tomar por fe ". 12
Según Kuhn, un científico no puede hacer una elección racional entre teorías sobre la
base de evidencia observacional. La observación en sí misma está supuestamente
"cargada de teoría" y, por lo tanto, las teorías aceptadas por un científico crean el
mundo que observa. Como resultado, Kuhn afirma que "los defensores de paradigmas
en competencia practican sus oficios en mundos diferentes". 13 Dos científicos que
aceptan teorías diferentes ni siquiera pueden esperar comunicarse entre sí, a menos
que uno o el otro experimenten la conversión inexplicable a la que Kuhn se refiere como
un "cambio de paradigma".
Considérese, por ejemplo, el descubrimiento de la composición atómica de la
materia en el siglo XIX. En el punto de vista de Kuhnian, los científicos no recopilaron
minuciosamente evidencia observacional, evaluaron objetivamente esa evidencia,
diseñaron experimentos cruciales para responder preguntas clave y, finalmente,
lograron una prueba definitiva de la teoría. Los científicos no tienen acceso cognitivo a
un mundo real hecho de átomos; sólo existe el mundo que construyen a partir de sus
ideas. En el siglo XVIII, la mayoría de los químicos estudiaron un mundo donde no había
átomos; después del trabajo de Dalton, "llegaron a vivir en un mundo donde las
reacciones se comportaron de manera muy diferente a como lo habían hecho antes". 14
Feyerabend llevó este subjetivismo radical un paso más allá y llegó a una posición
que solo puede describirse como nihilismo epistemológico. En su opinión, el
conocimiento objetivo no es solo un mito, es un enemigo que debe ser combatido y
destruido. "Una verdad que reina sin frenos y contrapesos", escribió Feyerabend, "es un
tirano que debe ser derrocado, y cualquier falsedad que pueda ayudarnos a derrocar a
este tirano debe ser bienvenida".15Debido a que los científicos son conocidos como
ejemplos de objetividad y descubridores de la verdad, Feyerabend los convirtió en el
blanco de su hostilidad. “Los científicos”, escribió, “no jugarán ningún papel dominante
en la sociedad que imagino. Serán más que equilibrados por magos, sacerdotes y
astrólogos ".dieciséis Podemos mirar hacia atrás en la historia para ver la sociedad ideal
de Feyerabend: se llamó la Edad Media.
Hace más de dos milenios, en una cultura que exaltaba la razón y sentaba las bases
de la ciencia, el nombre "filosofía" se derivaba de las palabras griegas que significan
"amor a la sabiduría". Pero hoy el estado de la filosofía es muy diferente. Los
intelectuales finalmente han llegado al final del camino kantiano, sólo para encontrar a
Paul Feyerabend esperándolos, riéndose de ellos y llenando el suelo yermo con libros
titulados Contra el método y Adiós a la razón.
¿Qué le sucede a la física cuando es abandonada por la filosofía racional, como lo ha
sido durante el siglo pasado? La respuesta se puede encontrar examinando tres teorías
fundamentales de la física contemporánea: mecánica cuántica, cosmología del Big Bang
y teoría de cuerdas.
La mecánica cuántica tiene su origen en una serie de descubrimientos realizados
durante finales del siglo XIX y principios del XX, y su formulación matemática básica se
completó en la década de 1920. Algunos de los primeros descubrimientos cruciales se
relacionaron con la naturaleza de la luz. La teoría de las ondas electromagnéticas de la
luz había explicado una enorme variedad de datos; sin embargo, sorprendentemente,
fenómenos como la radiación de cuerpo negro y el efecto fotoeléctrico parecían exigir
que los físicos consideraran la luz como una partícula. Más tarde, se descubrió la misma
"dualidad onda / partícula" en relación con la materia que tiene masa; por ejemplo, se
encontró que los electrones exhibían propiedades de onda además de sus conocidas
propiedades de partículas.
Las expresiones para la energía y el impulso de tales "ondas de materia" fueron
identificadas en 1924 por Louis de Broglie. Usando estas relaciones, Erwin Schrödinger
pudo derivar la ecuación de onda fundamental que describe la dinámica del mundo
subatómico. Una mirada de cerca a esta historia temprana revela que las matemáticas
de la teoría cuántica se desarrollaron de una manera admirablemente lógica; estaba
guiada por el experimento, por el principio de conservación de la energía y por el
requisito de que la teoría se redujera a la mecánica newtoniana en el límite
macroscópico.
Como formalismo matemático, la teoría cuántica ha tenido un enorme éxito. Realiza
predicciones cuantitativas de impresionante precisión para una amplia gama de
fenómenos, proporcionando la base para la química moderna, la física de la materia
condensada, la física nuclear y la óptica. También hizo posible algunas de las mayores
innovaciones tecnológicas del siglo XX, incluidas las computadoras y los láseres.
Sin embargo, como teoría fundamental de la física, es extrañamente vacía: "un
esquema esquelético de símbolos", para usar la elocuente frase de Sir Arthur
Eddington.17Proporciona una receta matemática para predecir el comportamiento
estadístico de las partículas, pero no proporciona modelos causales de procesos
subatómicos. Los fundadores de la teoría cuántica rechazaron el objetivo mismo de
desarrollar tales modelos; Niels Bohr, el principal intérprete de la teoría, insistió en que
no había nada que modelar. "No hay mundo cuántico", escribió. "Sólo hay una
descripción cuántica abstracta".18
Entonces, ¿qué describe la teoría? La mayoría de los físicos consideran inútil la
pregunta; la realidad subyacente al formalismo matemático se considera generalmente
ininteligible. La versión estándar de la teoría cuántica (la interpretación de
"Copenhague") rechaza la ley de identidad de Aristóteles; las entidades básicas que
componen la materia, dice, existen en un estado irreal sin propiedades específicas. “La
física atómica priva de todo significado a los atributos bien definidos que la física clásica
atribuiría al objeto”, escribió Bohr.19Las partículas elementales no tienen identidad —
no son algo, ni nada— hasta que las medimos u observamos, momento en el que la
propiedad observada aparece de repente como algo definido. En palabras del físico John
Archibald Wheeler, "Ningún fenómeno elemental es un fenómeno real hasta que es un
fenómeno observado".20
Por tanto, la teoría afirma que una medición no nos informa sobre un estado
preexistente de una partícula; más bien, crea ese estado. Antes de la medición, una
partícula existe en varios estados incompatibles simultáneamente, y a cada uno se le
asigna una probabilidad. Los físicos insisten en que no es simplemente nuestra
ignorancia del estado real de la entidad lo que requiere el uso de probabilidades. Las
probabilidades se consideran una descripción completa del sistema físico. Es la realidad
la que se considera incompleta o, en palabras del físico matemático Hermann Weyl,
"afligida por una especie de vaguedad".21
La causalidad es supuestamente inaplicable a este mundo cuántico "vago" e irreal. "A
través de la mecánica cuántica", escribió Werner Heisenberg, "se establece
definitivamente la invalidez de la ley de causalidad".22La ley de causalidad establece una
relación entre una entidad y sus acciones; dice que la naturaleza de la entidad
determina cómo actuará en cualquier circunstancia. Si uno niega que los constituyentes
fundamentales de la materia tengan una naturaleza específica, se sigue que no hay nada
que determine sus acciones. Según Bohr y Heisenberg, las partículas individuales actúan
al azar, sin causa.
La teoría no intenta explicar cómo una medida transforma un "nada en particular"
en algo con propiedades definidas. Algunos físicos han optado por una interpretación de
la teoría cuántica de "mente sobre materia". Desde este punto de vista, el mundo físico
no tiene existencia independiente de nuestra conciencia; como dijo Kant, es una
creación de conciencia. “Solo con la entrada del resultado de la medición en la
conciencia de alguien, toda la pirámide de estados cuánticos del 'limbo' colapsará en
una realidad concreta”, escribe el físico Paul Davies.23Otros han afirmado que la teoría
cuántica describe en realidad un conjunto de universos, cada uno de los cuales se
encuentra en un estado definido. La observación determina entonces cuál de los muchos
universos habitamos. Ante tales interpretaciones alternativas, la mayoría de los físicos
hoy en día prefieren adoptar un enfoque "práctico": se limitan a hacer cálculos y tratan
de no pensar en el significado de la teoría.
A los defensores de la interpretación de Copenhague no les preocupaba la dualidad
onda / partícula. Bohr argumentó que “debemos aceptar el hecho de que una
elucidación completa de un mismo objeto puede requerir diversos puntos de vista que
desafían una descripción única”, es decir, debemos aceptar el uso de modelos
contradictorios.24La teoría cuántica, dijo Bohr, asegura que nunca podremos observar
simultáneamente las propiedades contradictorias atribuidas a los microobjetos, porque
una observación "colapsa" la entidad en un estado único y definido. Concluyó que era
apropiado que la teoría contuviera tales contradicciones, siempre y cuando el “milagro
de la medición” nos salve de percibirlas. Y si esto hace que alguien se sienta incómodo,
el problema se puede evitar si no se usa la dura palabra "contradicción". En cambio,
Bohr llama a los modelos de ondas y partículas "complementarios", que tienen un
sonido relajante y tranquilizador.
La incapacidad de integrar adecuadamente los modelos de ondas y partículas (es
decir, la aceptación de las "ondas") ha llevado a las paradojas de la teoría cuántica.
Trágicamente, la mayoría de los físicos han reaccionado encogiéndose de hombros.
James Gleick, en su biografía de Richard Feynman, describió la resignación generalizada:
“[Los físicos] reconocieron que la relación de su profesión con la realidad había
cambiado. Se acabó el lujo de suponer que existía una sola realidad, que la mente
humana tenía un acceso razonablemente claro a ella y que el científico podía explicarlo
".25
Pero estas premisas no son lujos, son necesidades y se han entregado sin mucha
lucha. La rendición no fue causada por hechos experimentales; el conocimiento
adquirido mediante el descubrimiento experimental de hechos nunca puede conducir a
la negación del conocimiento y los hechos. La rendición fue causada por la influencia de
la filosofía post-kantiana, un enemigo que operaba detrás de las líneas del frente y
proporcionaba el marco corrupto utilizado para malinterpretar los hechos. Al rechazar
la causalidad y aceptar la ininteligibilidad del mundo atómico, los físicos se han
reducido a meras máquinas calculadoras (en el mejor de los casos) y, por lo tanto, no
pueden hacer más preguntas ni integrar sus conocimientos.
La mecánica cuántica de Copenhague no es una teoría, es un formalismo matemático
unido al escepticismo. Equivale a afirmar que no es posible ninguna teoría física del
mundo cuántico. Vale la pena señalar que esta afirmación ha sido refutada por David
Bohm, un físico que desarrolló una teoría cuántica en la que las ondas son ondas, las
partículas son partículas y las contradicciones se rechazan como contradicciones (en
lugar de aceptarse como puntos de vista diversos y “complementarios”). La teoría de
Bohm puede ser correcta o no, pero califica como teoría y, como tal, merece más
atención.
Pasemos ahora del mundo subatómico al universo como un todo. Si uno considera
las preguntas que han quedado sin respuesta durante el siglo pasado, incluidas las
preguntas fundamentales sobre la mecánica cuántica y su relación problemática con la
teoría de la relatividad, podría sorprenderse de que los físicos se atrevan a presentar
una teoría del universo. Sin embargo, con la teoría del Big Bang, lo han hecho con la falsa
bravuconería de un megalómano.
Quizás no debería sorprendernos. El Big Bang es el último en una larga historia de
mitos de la creación, y los estándares racionales de evidencia nunca se aplican a tales
mitos. Dado que la razón no puede aprobar la idea de la creación, en este caso, la
afirmación de que hace catorce mil millones de años el universo entero surgió
inexplicablemente de un punto con una densidad de masa infinita, es poco realista
esperar que se apliquen altos estándares epistemológicos al resto de la teoría.
El modelo del universo del Big Bang fue propuesto en 1931 por George Lemaître, un
astrofísico que también era un sacerdote católico. Inicialmente, sus principales
defensores fueron explícitos a favor de una teoría de la creación sobre bases filosóficas.
Pero hicieron intentos de argumentos científicos. Lemaître argumentó que el Big Bang
era la única fuente posible de rayos cósmicos; Eddington argumentó que la ley de la
entropía implica un universo que ha estado degenerando desde un estado inicial de
simplicidad en el momento de la creación; George Gamow argumentó que las altas
energías requeridas para la nucleosíntesis de elementos pesados podrían existir solo
inmediatamente después del Big Bang. Los tres argumentos han sido refutados de
manera decisiva.
La propia teoría del Big Bang, sin embargo, logró sobrevivir. Ahora está justificado
sobre la base de tres tipos de evidencia observacional. Primero, el corrimiento al rojo
observado de la luz de estrellas y galaxias distantes es supuestamente causado por la
"expansión del espacio" que comenzó con el Big Bang. En segundo lugar, se afirma que
la teoría explica la abundancia relativa de elementos ligeros (deuterio, helio y litio). En
tercer lugar, se supone que la radiación de fondo de microondas que se detectó por
primera vez en la década de 1960 es una reliquia del Big Bang.
Sin embargo, para dar cuenta de estos fenómenos, los defensores del Big Bang se
han visto obligados a modificar la teoría con una lista cada vez mayor de hipótesis sin
fundamento. Contrariamente a las expectativas, los datos del desplazamiento al rojo
parecen implicar una tasa de expansión acelerada, que supuestamente es causada por
una fuerza repulsiva asociada con la "energía oscura" (una forma misteriosa de energía
que no está relacionada con la materia y supuestamente constituye más del 70 por
ciento de la energía en el universo). La densidad de masa observada del universo es
demasiado baja para tener en cuenta la abundancia relativa de elementos ligeros, por lo
que se supone que la masa faltante existe en forma de "materia oscura" (una forma
desconocida de materia que constituye más del 80 por ciento). de la masa en el
universo). La distribución de la radiación de fondo de microondas es demasiado
uniforme, lo cual se explica por una superexpansión llamada “inflación” que
supuestamente ocurrió durante el primer instante del big bang. La distribución de las
galaxias es demasiado irregular, lo que se explica por las fluctuaciones cuánticas
durante este primer instante. En resumen, los teóricos del Big Bang se basan en la
energía, la materia y eventos únicos que son inaccesibles para los astrónomos
observacionales. Para usar su terminología, es una teoría "oscura".
Históricamente, las teorías a las que se ha llegado mediante una aplicación adecuada
del método inductivo (por ejemplo, la mecánica newtoniana, la teoría atómica, el
electromagnetismo) han conducido rápidamente a predicciones cuantitativas precisas
para una impresionante gama de nuevos fenómenos. Pero la historia de la teoría del Big
Bang es diferente: es una historia de astrónomos observacionales que brindan
sorpresas desagradables, mientras los cosmólogos se apresuran a ajustar la teoría.
Como señala un astrofísico, Eric Lerner,
[L] a teoría del Big Bang no puede presumir de predicciones cuantitativas que
posteriormente hayan sido validadas por observación. Los éxitos que afirman los
partidarios de la teoría consisten en su capacidad para ajustar retrospectivamente las
observaciones con una serie de parámetros ajustables en constante aumento, al igual
que la antigua cosmología de Ptolomeo centrada en la Tierra necesitaba capa tras capa
de epiciclos.26
Sin embargo, la gran mayoría de los físicos considera que la teoría está probada, de
la misma manera que los astrónomos hace cinco siglos consideraban que la teoría de
Ptolomeo estaba probada. La pregunta central formulada por estos físicos no es: ¿Cuál
es la naturaleza del universo? sino más bien: ¿Cómo debe ser el universo para ajustarse
a la teoría del Big Bang? La pequeña minoría de investigadores que expresan dudas —
aquellos que están preocupados por desplazamientos al rojo anómalos, o consideran
explicaciones alternativas de la radiación de fondo de microondas, o cuestionan si existe
materia oscura en la cantidad requerida por la teoría— son descartados como herejes.
Como corresponde a un mito de la creación, el big bang se trata como una doctrina
religiosa y los cosmólogos desempeñan el papel de teólogos que protegen la fe.
Los intentos prematuros de desarrollar una teoría completa del universo a menudo
han sofocado el progreso de las ciencias físicas. En la antigua Grecia, Eudoxo ofreció una
teoría del universo en términos de esferas celestes giratorias interconectadas, y su
teoría tuvo el efecto de reforzar ideas falsas sobre la naturaleza del movimiento, las
fuerzas y la materia. Hoy en día, los físicos saben mucho más que Eudoxo, pero todavía
es demasiado pronto para una teoría del universo. Los datos consisten principalmente
en luz de fuentes muy distantes, pero los físicos aún no tienen una comprensión
adecuada de las "ondas" de luz o de los campos a través de los cuales viajan. La teoría
cosmológica se basa en la relatividad general y la teoría cuántica de campos, que, en esta
etapa, son formalismos matemáticos que se contradicen entre sí. Antes de que sea
posible una teoría del universo,
Algunas de las respuestas las ofrece supuestamente la teoría de cuerdas, que ha
dominado la física teórica durante la generación pasada.
A principios del siglo XX, los físicos esperaban la perspectiva de explicar toda la
materia en términos de unas pocas partículas elementales. Sin embargo, a medida que
exploraban el mundo subatómico, su complejidad se desanimaba progresivamente. La
teoría estándar aceptada hoy contiene una docena de partículas elementales, más sus
antipartículas, más las partículas de "intercambio" que median las cuatro fuerzas
básicas. Además, los físicos se han sentido frustrados por el hecho de que la gravitación
ha resistido todos los intentos de describirla en términos de la teoría cuántica de
campos (que se utiliza para describir las otras tres fuerzas).
La teoría de cuerdas pretende reducir esta complejidad y explicarla por medio de un
tipo de entidad que se mueve de acuerdo con una ley. Todo está hecho de cuerdas, que
tienen propiedades simples: se describen mediante una constante de tensión (la energía
por unidad de longitud) y una constante de acoplamiento (la probabilidad de que una
cuerda se rompa en dos cuerdas). Todas las cuerdas se mueven de manera que el área
trazada en el espacio-tiempo se minimiza. Todas las partículas y fuerzas están asociadas
con la vibración o rotura o unión de cuerdas. La gravedad se incluye en este esquema
como la vibración de bucles cerrados.
Si cree que esta teoría suena demasiado buena para ser verdad, tiene razón. La
teoría de cuerdas es un truco de magia. No hace que los problemas realmente
desaparezcan; simplemente los esconde en un lugar diferente. Es un escondite donde
muy poca gente miraría: la geometría del espacio-tiempo de once dimensiones. Según
los teóricos de cuerdas, la complejidad del mundo no surge de la naturaleza de la
materia, sino de la complejidad del espacio considerado como una cosa en sí misma. El
mundo tridimensional que percibimos se complementa con siete dimensiones
espaciales adicionales que se enrollan en estructuras demasiado pequeñas para
percibir. Así, la unificación supuestamente lograda por la teoría es una ilusión. Un físico,
Lee Smolin, lo expresa de esta manera:
Las constantes que denotan las masas de las partículas y la fuerza de las fuerzas se
intercambian por constantes que denotan la geometría de las seis [ahora siete]
dimensiones adicionales…. Nada fue restringido o reducido. Y debido a que había una
gran cantidad de opciones para la geometría de las dimensiones adicionales, el número
de constantes libres subió, no disminuyó. 27
Los teóricos de cuerdas están perdidos en el mundo de las ideas geométricas que
han inventado y no pueden encontrar el camino de regreso al mundo real. La naturaleza
arbitraria de su creación ha llevado al problema de la "no singularidad": no hay una
teoría de cuerdas, sino un número incontable, sin forma de elegir entre ellas. Ninguna
de estas teorías hace predicciones que hayan sido confirmadas por la observación. Y, a
pesar de la extraordinaria libertad con la que se crean estas teorías, todas contradicen
los datos observacionales; por ejemplo, predicen pares inexistentes de partículas con
igual masa y fuerzas inexistentes de largo alcance. Como resultado, la teoría de cuerdas
evoca una reacción mixta: uno no sabe si reírse de lo absurdo o llorar por su tragedia.
Según los estándares racionales que muchos científicos aceptaron en el pasado, la
teoría de cuerdas es un fracaso catastrófico. Es la teoría líder en física hoy en día solo
porque esos estándares han sido rechazados. Smolin ha descrito la nueva actitud de los
teóricos de cuerdas: “No más confianza en los experimentos para verificar nuestras
teorías. Eso era cosa de Galileo. Las matemáticas ahora eran suficientes para explorar
las leyes de la naturaleza. Habíamos entrado en el período de la física posmoderna ". 28
Los físicos “posmodernos” adoptan los criterios estéticos del racionalismo y juzgan
sus teorías únicamente por la elegancia, la simetría y la belleza de las matemáticas.
Steven Weinberg, premio Nobel y destacado teórico, expresó la idea que ahora domina
la física: “La realidad que observamos en nuestros laboratorios es sólo un reflejo
imperfecto de una realidad más profunda y hermosa, la realidad de las ecuaciones que
muestran todas las simetrías de la teoría."29 Por supuesto, esta idea no es original: es, en
esencia, lo que dijo Platón en el siglo IV a. C.
Platón fue el primero en reemplazar el mundo físico con formas geométricas
impuestas al espacio mismo. Como mencioné enCapítulo 3, Los matemáticos griegos
sabían que hay cinco figuras geométricas sólidas que se pueden construir a partir de
superficies planas idénticas, y estas figuras fueron admiradas por su perfecta simetría.
También se creía comúnmente que hay cinco elementos materiales: tierra, aire, agua,
fuego y el éter que forma los cuerpos celestes. La coincidencia de números llevó a Platón
a equiparar cada elemento material con uno de los sólidos regulares. Cuando terminó,
no quedaba nada en el universo físico excepto el espacio y las relaciones espaciales que
constituyen las figuras geométricas. Relaciones espaciales de qué? ¿Formas de qué? No
tuvo respuesta, al igual que sus seguidores contemporáneos no tienen respuesta.
En la raíz de la filosofía de Platón hay un antagonismo fundamental hacia la
percepción sensorial y el mundo físico. Este antagonismo se expresa en su diálogo
Fedón, donde identifica las premisas que lo llevaron a cosificar el espacio y reducir la
física a la geometría:
Cuando [el alma] intenta investigar algo con la ayuda del cuerpo, obviamente se
extravía…. [L] a persona que tiene más probabilidades de tener éxito en este intento es
la que se acerca a cada objeto, en la medida de lo posible, con el intelecto sin ayuda, sin
tener en cuenta ningún sentido de la vista en su pensamiento, ni arrastrando ningún
otro sentido. en su cálculo: el hombre que persigue la verdad aplicando su pensamiento
puro y sin adulterar al objeto puro y sin adulterar, aislándose tanto como sea posible de
sus ojos y oídos y virtualmente de todo el resto de su cuerpo, como un impedimento que
por su presencia impide que el alma alcance la verdad y el pensamiento claro…. [Si] si
alguna vez vamos a tener un conocimiento puro de algo, debemos deshacernos del
cuerpo y contemplar las cosas por sí mismas con el alma por sí misma. 30 (Cursiva
agregada.)
Como los gánsteres en la noche, los teóricos de cuerdas también están tratando de
"deshacerse del cuerpo". Sin embargo, al aceptar el platonismo, se están deshaciendo de
la ciencia de la física. Han hecho retroceder los relojes, no sólo a la era de la prefísica,
sino a la era de la prelógica.

***

El “fin de la física” se ha convertido en un tema de moda en la literatura reciente. Los


platónicos afirman que la física teórica terminará con la omnisciencia, que se logrará tan
pronto como reciban su revelación final sobre la estructura once-dimensional del
espacio-tiempo. Los escépticos coinciden en que la física está llegando a su fin, pero por
una razón diferente: afirman que el hombre ha agotado su capacidad para decir
cualquier cosa inteligible sobre el mundo.
En cierto sentido, los escépticos tienen razón; "Agotado" es una forma precisa de
caracterizar el estado de la física actual. Incluso Weinberg, a pesar de su platonismo,
hace la siguiente concesión: “Nunca ha habido un momento en el que haya habido tan
poca emoción en el sentido de que los experimentos sugieran ideas o teorías realmente
nuevas que sean capaces de hacer nuevos y cualitativamente diferentes tipos de
predicciones que luego se llevan a cabo mediante experimentos ". 31 En efecto, la física
teórica ha llegado a su fin, no porque se haya descubierto todo, o porque no tengamos
capacidad de descubrimiento, sino porque los físicos aún no han identificado el método
de descubrimiento.
La física, sin embargo, tiene solo cuatrocientos años de juventud y hay muchas
preguntas básicas que aún no han sido respondidas. Hay motivos para una nueva
emoción. El extraordinario ritmo de progreso que caracterizó la era de la física clásica
se puede lograr nuevamente e incluso superar, si los físicos comprenden explícitamente
el método que hizo posible tal progreso.
La física está muerta, ¡viva la física!
REFERENCIAS

Prefacio
1. E. Bright Wilson, Introducción a la investigación científica (Nueva York: Dover,
1990), pág. 298.

Capítulo 1
1. Paul K. Feyerabend, Against Method, edición revisada (Nueva York: Verso, 1988),
p. 73.
2. E. Bright Wilson, Introducción a la investigación científica (Nueva York: Dover,
1990), pág. 293.
3. Ayn Rand, Introducción a la epistemología objetivista (Nueva York: Penguin,
1990), p. 13.
4. Ibíd., Pág. 18.
5. Leonard Peikoff, Objectivism: The Philosophy of Ayn Rand (Nueva York: Penguin,
1990), p. 90.
6. A medida que nuestro conocimiento se expande, las definiciones también cumplen
una función crucial para los conceptos de primer nivel; por ejemplo, la definición
del hombre como "el animal racional" representa una enorme condensación de
conocimientos.
7. Rand,Introducción a la epistemología objetivista, p. 48.
8. Ibíd., Págs. 66–67.
9. Peikoff, objetivismo, pág. 133.
10. Ibídem.
11. Ibíd., Págs. 172–73.
12. Duane Roller, El desarrollo del concepto de carga eléctrica (Cambridge, Mass .:
Harvard University Press, 1967), p. 63.

Capitulo 2
1. A. Mark Smith, “La búsqueda de Ptolomeo de una ley de refracción”, Archivo de
Historia de las Ciencias Exactas 26 (1982), págs. 221–40.
2. La derivación inicial de Galileo del teorema de la cuerda no es válida. Más tarde,
después de su descubrimiento experimental de la aceleración constante en
planos inclinados, dio una demostración correcta del teorema. Stillman Drake
analiza este punto en Galileo: Pioneer Scientist (Toronto: University of Toronto
Press, 1990), p. 91.
3. Michael R. Matthews, Time for Science Education (Nueva York: Kluwer Academic /
Plenum Publishers, 2000), p. 104.
4. Citado en ibid., Págs. 84-85.
5. Ibíd., Pág. 82.
6. Stillman Drake, Galileo: Pioneer Scientist (Toronto: University of Toronto Press,
1990), pág. 96.
7. Stillman Drake, Galileo en el trabajo (Chicago: University of Chicago Press, 1978),
pág. 128.
8. Matthews,La hora de la educación científica, pág. 98.
9. Galileo: Diálogo sobre los dos sistemas mundiales principales, traducido por
Stillman Drake, 2ª edición (Berkeley: University of California Press, 1967), págs.
17–21.
10. Drake, Galileo at Work, págs. 387–88.
11. Los escritos filosóficos de Descartes, vol. 1, traducido por John Cottingham,
Robert Stoothoff y Donald Murdoch (Nueva York: Cambridge University Press,
1985), p. 249.
12. I. Bernard Cohen y Richard S. Westfall, eds., Newton (Nueva York: Norton, 1995),
pág. 148.
13. JE McGuire y Martin Tamny, Certain Philosophic Questions: Newton's Trinity
Notebook (Cambridge, Inglaterra: Cambridge University Press, 1983), pág. 263.
14. Ibíd., Pág. 389.
15. Richard S. Westfall, Never at Rest (Cambridge, Inglaterra: Cambridge University
Press, 1980), pág. 164.
dieciséis. Filosofía de la naturaleza de Newton: selecciones de sus escritos, editado por
HS Thayer (Nueva York: Hafner, 1953), p. 6.
17. Ibídem.
18. Ibíd., Págs. 7-8.
19. Newton restringió su método inductivo y su rechazo de las afirmaciones
arbitrarias al ámbito de la ciencia. Era devotamente religioso y, por tanto, no
sostenía que todo conocimiento deba basarse en la observación. Sin embargo, a
diferencia de Descartes, quien invocó explícitamente a Dios en su intento de
validar las leyes del movimiento, Newton rara vez permitió que sus puntos de
vista religiosos afectaran su ciencia (la excepción crucial es su punto de vista de
la naturaleza del espacio y el tiempo).
20. Cohen y Westfall, eds., Newton, págs. 148–49.
21. Morris Cohen y Ernest Nagel, Introducción a la lógica y al método científico
(Nueva York: Harcourt, Brace & World, 1934), pág. 205.
22. Ibíd., Pág. 266.
23. Ibíd., Pág. 257.

Capítulo 3
1. Pierre Duhem, To Save the Phenomena, traducido por Edmund Doland y Chaninah
Maschler (Chicago: University of Chicago Press, 1969), p. 31.
2. Nicolaus Copernicus, On the Revolutions of Heavenly Spheres, traducido por
Charles Glenn Wallis (Nueva York: Prometheus, 1995), p. 26.
3. Ibíd., Pág. 27.
4. I. Bernard Cohen, The Birth of a New Physics (Nueva York: Norton, 1985), p. 23.
5. CopérnicoSobre las revoluciones de las esferas celestiales, págs. 12-13.
6. Ibíd., Pág. 17.
7. Max Caspar, Kepler, traducido y editado por C. Doris Hellman (Nueva York: Dover,
1993), p. 102.
8. Gerald Holton, Thematic Origins of Scientific Thought: Kepler to Einstein
(Cambridge, Mass .: Harvard University Press, 1973), p. 72.
9. Gaspar, Kepler, pág. 62.
10. Holton,Orígenes temáticos del pensamiento científico, pág. 78.
11. Gaspar, Kepler, pág. 134.
12. Arthur Koestler, The Sleepwalkers (Londres: Penguin, 1989), págs. 327-28.
13. Holton,Orígenes temáticos del pensamiento científico, pág. 74.
14. Koestler, Los sonámbulos, pág. 334.
15. Selecciones de Astronomia Nova de Kepler, traducido por William H. Donahue
(Santa Fe, NM: Green Lion, 2004), p. 94.
dieciséis. Koestler, Los sonámbulos, pág. 337.
17. Gaspar, Kepler, pág. 19.
18. Holton,Orígenes temáticos del pensamiento científico, pág. 68.
19. Gaspar, Kepler, pág. 67.
20. Koestler, Los sonámbulos, pág. 398.
21. Holton,Orígenes temáticos del pensamiento científico, pág. 85.
22. Caspar, Kepler, págs. 280–81.
23. Ibíd., Pág. 135.
24. Para más información sobre la astronomía de Galileo y su batalla con la Iglesia,
vea mi artículo de tres partes “Galileo: Inaugurando la Era de la Razón”, The
Intellectual Activist 14, núms. 3-5 (marzo-mayo de 2000).

Capítulo 4
1. Isaac Newton, Principia, vol. 2, El sistema del mundo (Berkeley: University of
California Press, 1934), pág. 398.
2. James Gleick, Isaac Newton (Nueva York: Pantheon, 2003), pág. 58.
3. Galileo Galilei, Two New Sciences, traducido por Henry Crew y Alfonso de Salvio
(Nueva York: Dover, 1954), págs. 182–83.
4. Gleick, Isaac Newton, pág. 59.
5. Ernst Mach, La ciencia de la mecánica (Chicago: Open Court, 1960).
6. Isaac Newton, Principia, vol. 1, The Motion of Bodies, prefacio de la primera
edición (Berkeley: University of California Press, 1934), pág. xvii.
7. Newton,Principia, vol. 2, El sistema del mundo, pág. 519.
8. A. Rupert Hall, From Galileo to Newton (Nueva York: Dover, 1981), págs. 310-14.
9. Newton,Principia, vol. 2, El sistema del mundo, pág. 547.
10. Sala,De Galileo a Newton, págs. 315-16.
11. David Harriman, “Grietas en la fundación”, The Intellectual Activist 16, no. 12
(diciembre de 2002), págs. 19–27.
12. Véase la quinta carta de Leibniz en The Leibniz-Clarke Correspondence, editada
por HG Alexander (Manchester, Inglaterra: Manchester University Press, 1965).
13. Nicolaus Copernicus, On the Revolutions of Heavenly Spheres, traducido por
Charles Glenn Wallis (Nueva York: Prometheus, 1995), p. 5.

Capítulo 5
1. Thomas L. Hankins, Science and the Enlightenment (Nueva York: Cambridge
University Press, 1985), pág. 112.
2. Ibíd., Pág. 109.
3. El mundo del átomo, vol. 1, editado por Henry Boorse y Lloyd Motz (Nueva York:
Basic Books, 1966), p. 169.
4. JR Partington, A Short History of Chemistry (Nueva York: Dover, 1989), p. 204.
5. El mundo del átomo, vol. 1, pág. 321.
6. Ibíd., Pág. 327.
7. The Beginnings of Modern Science, editado por Holmes Boynton (Roslyn, NY:
Walter J. Black, 1948), p. 198.
8. Humphry Davy, "An Essay on Heat, Light, and the Combinations of Light", en
Contribuciones al conocimiento físico y médico, editado por T. Beddoes (Bristol,
Inglaterra, 1799), reimpreso en las Obras completas de Davy (Londres, 1839),
vol. 2, pág. 9.
9. Investigadores posteriores, como Clausius y Maxwell, se dieron cuenta de que el
modelo de Waterston estaba demasiado simplificado. El calor absorbido por un
gas poliatómico no solo aumenta la velocidad de las moléculas; también puede
aumentar su velocidad de rotación y vibración. Afortunadamente, la ley básica de
los gases depende solo de la proporcionalidad entre la temperatura y la energía
cinética de traslación promedio y, por lo tanto, el modelo de Waterston fue
adecuado para su propósito. Para comprender las capacidades caloríficas de los
gases, se deben tener en cuenta los demás movimientos.
10. Stephen G. Brush, El tipo de movimiento que llamamos calor (Amsterdam:
Elsevier Science BV, 1986), p. 146.
11. The Scientific Papers of James Clerk Maxwell, editado por WA Niven (Nueva
York: Dover, 1965), vol. 2, págs. 344–45.
12. Cepillo,El tipo de movimiento que llamamos calor, pág. 190.
13. Este resultado es fiel a la aproximación de primer orden, que se aplica a los
cuerpos que se mueven lentamente a través de gases dentro de un cierto rango
de presión. No se aplica cuando la presión es extremadamente baja o alta y, como
pueden atestiguar los lanzadores de béisbol, no se aplica a las bolas curvas
lanzadas al Coors Field en Denver.
14. Cepillo,El tipo de movimiento que llamamos calor, pág. 191.
15. Ibíd., Pág. 76.
dieciséis. El mundo del átomo, vol. 1, pág. 278.
17. Frankland originó el concepto, pero utilizó el término "atomicidad" en lugar de
"valencia". La palabra "valencia" entró en uso a finales de la década de 1860.
18. WG Palmer, A History of the Concept of Valencia to 1930 (Londres: Cambridge
University Press, 1965), pág. 34.
19. Ibíd., Pág. 14.
20. Ibíd., Pág. 27.
21. Ibíd., Pág. 76.
22. Cecil J. Schneer, Mind and Matter (Nueva York: Grove, 1969), pág. 178.
23. Alexander Butlerov, "Sobre la estructura química de las sustancias", reimpreso
en Journal of Chemical Education 48 (1971), págs. 289–91.
24. Palmero,Una historia del concepto de Valencia hasta 1930, pág. 62.
25. John Hudson, The History of Chemistry (Nueva York: Chapman & Hall, 1992), p.
148.
26. John Buckingham, Persiguiendo la molécula (Stroud, Inglaterra: Sutton, 2004),
pág. 206.

Capítulo 6
1. Karl R. Popper, Objective Knowledge, edición revisada (Oxford: Clarendon Press,
1979), págs. 9, 16, 198-201.
2. WG Palmer, A History of the Concept of Valencia to 1930 (Londres: Cambridge
University Press, 1965), pág. 66.
3. The Beginnings of Modern Science, editado por Holmes Boynton (Nueva York:
Walter J. Black, 1948), págs. 393–94.
4. Ibíd., Págs. 443–61.
5. JR Partington, A Short History of Chemistry (Nueva York: Dover, 1989), p. 48.
6. Walter Pagel,Los aspectos religiosos y filosóficos de la ciencia y la medicina de van
Helmont (Baltimore: Johns Hopkins Press, 1944), págs. 16–22.
7. Edmund Whittaker, Historia de las teorías del éter y la electricidad (Nueva York:
Thomas Nelson, 1951), p. 75.
8. AEE McKenzie, The Major Achievements of Science (Cambridge, Inglaterra:
Cambridge University Press, 1960), pág. 111.
9. Ruth Moore, The Earth We Live On (Nueva York: Knopf, 1956), pág. 268.
10. Joe D. Burchfield, Lord Kelvin and the Age of the Earth (Nueva York: Science
History Publications, 1975), pág. 81.
11. Ibíd., Pág. 42.
12. Ibíd., Págs. 143–44.
13. Ibíd., Pág. 168.
14. Moore,La Tierra en la que vivimos, pág. 385.
15. Burchfield,Lord Kelvin y la era de la Tierra, pág. 176.
dieciséis. Steven Weinberg, Sueños de una teoría final (Nueva York: Vintage, 1992),
p. 13.
17. Gary Taubes,Bad Science: The Short Life and Weird Times of Cold Fusion (Nueva
York: Random House, 1993), p. 127.
18. Ayn Rand, For the New Intellectual (Nueva York: New American Library, 1961),
pág. 30.
19. Rene Descartes, Principles of Philosophy (Dordrecht, Países Bajos: Kluwer
Academic Publishers, 1991), p. 20.
20. The Philosophical Writings of Descartes, traducido por John Cottingham, Robert
Stoothoff y Dugald Murdoch (Cambridge, Inglaterra: Cambridge University Press,
1985), p. 288.
21. Descartes,Principios de filosofía, pág. 69.
22. Los escritos filosóficos de Descartes, pág. 245.
23. Ibíd., Pág. 266.
24. Descartes,Principios de filosofía, pág. 283.
25. A. Rupert Hall, From Galileo to Newton (Nueva York: Dover, 1981), pág. 120.
26. Para un análisis de la filosofía de Kant y su enfoque de la ciencia, vea mi artículo
“La ciencia de la iluminación y su caída”, Objetivo Estándar 1, no. 1 (2006), págs.
83-117.
27. Immanuel Kant, Filosofía de la naturaleza material de Kant, traducido por James
W. Ellington (Indianápolis: Hackett, 1985), p. 93.
28. WH Brock, The Atomic Debates (Leicester, Inglaterra: Leicester University Press,
1967), pág. 10.
29. Stephen G. Brush, El tipo de movimiento que llamamos calor, libro 1
(Amsterdam: Elsevier Science BV, 1976), p. 140.
30. Brock,Los debates atómicos, pág. 77.
31. Ibíd., Pág. 51.
32. Ibíd., Págs. 14, 48.
33. Alan J. Rocke, Atomismo químico en el siglo XIX (Columbus: Ohio State University
Press, 1984), p. 314.
34. Ibídem.
35. Ibíd., Pág. 315.
36. Ibídem.
37. The Question of the Atom, editado por Mary Jo Nye (Los Ángeles: Tomash, 1984),
p. 143.
38. Rocke,El atomismo químico en el siglo XIX, pág. 316.
39. Ibíd., Pág. 315.
40. Ibíd., Pág. 323.
41. La cuestión del átomo, pág. 246.
42. Rocke,El atomismo químico en el siglo XIX, pág. 324.
43. Ernst Mach, Historia y raíz del principio de conservación de la energía (Chicago:
University of Chicago Press, 1910), p. 49.
44. Ibíd., Pág. 48.
45. Paul Forman, “Cultura, causalidad y teoría cuántica de Weimar, 1918-1927:
adaptación de físicos y matemáticos alemanes a un entorno intelectual hostil”,
Estudios históricos en ciencias físicas 3 (1971), págs. 1-115.

Capítulo 7
1. James Jeans, Physics and Philosophy (Cambridge, Inglaterra: Cambridge
University Press, 1943), págs. 15-16.
2. Citado en Morris Kline, Mathematics: The Loss of Certainty (Nueva York: Oxford
University Press, 1980), p. 340.
3. Pat Corvini explica el desarrollo paso a paso del sistema numérico en su curso de
conferencias, "Dos, tres, cuatro y todo eso", que está disponible en la librería Ayn
Rand.
4. Leonard Peikoff, Objectivism: The Philosophy of Ayn Rand (Nueva York: Penguin,
1990), págs. 111–21.
5. Kline, Matemáticas, pág. 339.
6. Véase, por ejemplo, el curso de conferencias del Dr. Corvini titulado "Aquiles, la
tortuga y la objetividad de las matemáticas" (que está disponible a través de la
librería Ayn Rand). El Dr. Corvini está trabajando actualmente en un libro
titulado "Concebir el infinito".
7. Ayn Rand, Introducción a la epistemología objetivista, segunda edición, editado
por Harry Binswanger y Leonard Peikoff (Nueva York: Penguin, 1990).
8. Véase, por ejemplo, Duane Roller, The Development of the Concept of Electric
Charge (Cambridge, Mass .: Harvard University Press, 1954) y Sir Edmund
Whittaker, A History of the Theories of Aether and Electricity, vol. 1 (Nueva York:
Thomas Nelson, 1951).
9. Immanuel Kant, Critique of Pure Reason, traducido por Norman Kemp Smith
(Nueva York: St. Martin's, 1965), p. 286.
10. Ibíd., Pág. 22.
11. Immanuel Kant, Filosofía de la naturaleza material de Kant, traducido por James
W. Ellington (Indianápolis: Hackett, 1985), págs. 55–56.
12. Thomas Kuhn, The Structure of Scientific Revolutions, segunda edición (Chicago:
University of Chicago Press, 1970), p. 158.
13. Ibíd., Pág. 150.
14. Ibíd., Pág. 134.
15. Paul K. Feyerabend, “Filosofía de la ciencia 2001”, en Metodología, metafísica e
historia de la ciencia, editado por Robert S. Cohen y Marx W. Wartofsky (Boston:
D. Reidel, 1984), p. 138.
dieciséis. Ibíd., Pág. 147.
17. Quantum Questions: Mystical Writings of the World's Great Physicists, editado por
Ken Wilber (Boston: New Science Library, 1984), p. 180.
18. Nick Herbert, Quantum Reality: Beyond the New Physics (Nueva York: Anchor,
1987), p. 17.
19. Donald Murdoch, Filosofía de la física de Niels Bohr (Cambridge, Inglaterra:
Cambridge University Press, 1987), pág. 139.
20. Herbert, Quantum Reality, pág. 18.
21. Citado en Paul Forman, “Cultura, causalidad y teoría cuántica de Weimar, 1918-
1927: adaptación de físicos y matemáticos alemanes a un entorno intelectual
hostil”, Estudios históricos en ciencias físicas 3 (1971), p. 78.
22. George Greenstein y Arthur G. Zajonc, The Quantum Challenge (Sudbury, Mass .:
Jones y Bartlett, 1997), pág. 53.
23. The Ghost in the Atom, editado por PCW Davies y JR Brown (Cambridge,
Inglaterra: Cambridge University Press, 1986), p. 31.
24. Niels Bohr, Atomic Theory and the Description of Nature (Cambridge, Inglaterra:
Cambridge University Press, 1934), p. 96.
25. James Gleick, Genius: The Life and Science of Richard Feynman (Nueva York:
Vintage, 1993), p. 243.
26. Eric Lerner, "Bucking the Big Bang", New Scientist, 22 de mayo de 2004, pág. 20.
27. Lee Smolin, The Trouble with Physics (Nueva York: Houghton Mifflin, 2006), p.
121.
28. Ibíd., Págs. 116-17.
29. Steven Weinberg, Sueños de una teoría final (Nueva York: Vintage, 1994), p. 195.
30. Phaedo (65–66), en The Collected Dialogues of Platón, editado por Edith
Hamilton y Huntington Cairns (Princeton, Nueva Jersey: Princeton University
Press, 1961), págs. 48–49.
31. John Horgan, The End of Science (Nueva York: Broadway, 1997), p. 73.
SOBRE EL AUTOR

David Harrimanobtuvo su maestría en física de la Universidad de Maryland y su


maestría en filosofía de Claremont Graduate University. Ha trabajado como físico
aplicado, analizando errores en modelos gravitacionales utilizados por sistemas de
navegación inercial, y es editor de Journals of Ayn Rand. Ha dictado conferencias y
publicado artículos sobre la revolución científica, el concepto de "espacio" y la influencia
de la filosofía kantiana en la física moderna. Recientemente, cofundó Falling Apple
Science Institute (con Tom VanDamme), una organización sin fines de lucro que está
desarrollando un plan de estudios científico único basado en el método inductivo.
ÍNDICE

Los números de página de este índice se refieren a la versión impresa de este libro. Para
encontrar las ubicaciones correspondientes en el texto de esta versión digital, utilice la
función de "búsqueda" en su lector electrónico. Tenga en cuenta que es posible que no
se puedan buscar todos los términos.

abstracción, 234
(ver también conceptos, teoría de Rand)
aceleración, concepto de, 47–48, 118–20, 143
acidez, 194–96
Contra el método, 247
acuerdo, método de, 70
presión de aire, 123-24
alótropos, definición de, 160
Anaxágoras, 81
Apolonio, 102, 132
reclamaciones arbitrarias, 64–66, 72–73, 145, 215
Arquímedes, 102, 124, 149
Aristarco, 81
Aristóteles, 6, 25, 30, 35, 149, 189, 234–36, 248
átomo,
definición de, 157
estructura de, 204
teoría atómica, 151–88, 238
en la antigua Grecia, 151–52, 157
rechazo positivista de, 216-22
peso atómico, 159, 161–63, 171–72
Averroes, 84 años
Avogadro, Amedeo, 158, 162–63, 167

Bacon, Francis, 212


benceno, 174–75, 185, 191
Berthelot, Marcelino, 220
Bertholett, Claude Louis, 155 años
Berzelius, Jons Jacob, 156–57, 160, 163, 171
teoría del big bang, 251–53
Bohm, David, 250
Bohr, Niels, 248–50
Boyle, Robert, 59, 124
Brahe, Tycho, 89–90, 93–97, 101, 110
Brodie, Benjamin, 217-19
Broglie, Luis de, 247
Movimiento browniano, 222
flotabilidad, principio de, 124, 149
Buridan, Jean, 45–46, 78–79
Butlerov, Alexander, 174
calórico, concepto de, 164–65
Cannizzaro, Stanislao, 171–74
Carlisle, Anthony, 199
Gaspar, Max, 103, 109
Cassini, Gian, 135
causalidad,
y método experimental, 67–74
como esencial para la generalización, 21-22, 236
captado a través de relaciones cuantitativas, 229–32
como se percibe, 22-24
ley de, 9, 21-22, 236-37
rechazo de, x, 103, 216-23, 249
Ciertas cuestiones filosóficas, 59
Chamberlin, Thomas, 204–5
Charles, Jacques, 167, 179
enlace químico, 162–63, 170–71
Clausius, Rudolf, 167
Cohen, Morris, 72–73
fusión fría, 207–9
cometas, órbitas de, 140–41, 144
Comte, Auguste, 215
conceptos,
como carpetas de archivos, 14, 76, 152, 229
como luces verdes para la inducción, xi, 2, 76–77, 177–79
naturaleza jerárquica de, 11
en relación con la teoría científica, 186
Teoría de Rand de, 9-14, 228-32
versus percepciones, 234
marco conceptual, 32–34, 72, 74, 79, 179, 194
secciones cónicas, 132
Copérnico, Nicolás, 24, 85–89, 91, 102, 113–14, 150
Corvini, Pat, 228
Misterio cósmico, 107
Crítica de la razón pura, 244
cultura, influencia de la física en, ix
Curie, Pierre y Marie, 205
péndulo cicloide, 55, 122

Dalton, John, 156, 162–63, 166, 216, 246


Da Vinci, Leonardo, 44–45, 57
Davy, Humphry, 159, 163–64, 181, 196, 199–201
Davies, Paul, 249
deducción, 29, 34, 189, 235–36
definiciones, 12-13
Descartes, Rene, 58, 63, 180, 212-15, 225, 232, 237, 245
diferencia, método de, 68–69
Duhem, Pierre, 180, 222
Dulong, Pierre, 159, 161, 163

Tierra,
edad de 201–6
como un imán, 90, 99
órbita de, 94–96
precesión del eje de giro, 140
forma de, 139–40
tamaño de, 82–83
Eddington, Sir Arthur, 248, 251
educación, 146
Einstein, Albert, 20, 104, 147–49, 222, 226
batería eléctrica, 199
corriente eléctrica, 197-201
electricidad,
Observaciones griegas de, 13
teoría estática de 196-1997
electrólisis, 161–62, 207, 221
elemento, concepto de, 153–54
Elementos de la química, 155
empirismo, 21, 30, 130, 142, 151, 211, 215-23, 245
energía, concepto de, 165–66, 179
enumeración, 8–9
epiciclos, 86
puntos de ecuación, 91–92
Eratóstenes, 82–83
Euclides, 102
Eudoxo, 253
Euler, Leonhard, 56
experimentar,
definición de, 36
crucial, 179–80
(ver también acuerdo y diferencia, métodos de)
Experimentos y consideraciones sobre los colores que tocan, 59

falacia,
de "fijación cognitiva", 206
de "promiscuidad cognitiva", 206–9
de abandonar el contexto, 8
de controles experimentales inadecuados, 200
de sustituir una regularidad por una causa, 196
de "robo de teoría", 220
Faraday, Michael, 161–62, 174, 185
Adiós a la razón, 247
Fermi, Enrico, 44
Feyerabend, Paul, 5, 246–47
Feynman, Richard, 250
Fleischmann, Martin, 207–9
fuerza, concepto de, 90, 143
Frankland, Edward, 172–73, 219
Franklin, Benjamin, 31–34, 153
caída libre, 43–44, 46–47, 125
fricción, 16, 44

Galileo, 9, 24, 102, 118–20, 133, 149, 211–12, 237–38, 240, 243
teorema del acorde, 40
descubrimientos con telescopio, 114, 180
errores en física, 54–57, 209–10
caída libre, 43–44, 46–47, 125, 132
movimiento horizontal libre, 15–16, 49–50
planos inclinados, 48–50, 122
trayectorias parabólicas, 50–51, 190
péndulos, 38–42, 127, 229–30
relatividad del movimiento, 53–54, 89, 114, 116
Galvani, Luigi, 197–200, 209
Gamow, George, 251
gas, concepto de, 192–93
Gay-Lussac, Joseph Louis, 157–58
generalización,
como forma de conceptualización, 28, 72
basado en conexiones causales, 21
como contextual, 19-20
como jerárquico, 14-20
primer nivel, 16, 18-28
teoría geocéntrica, 37, 83–88, 91, 150, 180, 237, 252–53
geología, 201–6
Gilbert, William, 90, 99, 212
Gleick, James, 250
gravitación,
concepto de, 42, 56, 77, 120-21, 144
ley de 131-145
Teoría griega de los elementos, 153–54
Teoría griega del movimiento, 45, 78

Halley, Edmund, 124, 141


Armonía del mundo, 108
Harvey, William, 212
calor, como una forma de movimiento interno, 164–66
pesadez, concepto de, 67, 123-24
Hegel, Georg Wilhelm Friedrich, 232
Heisenberg, Werner, 249
teoría heliocéntrica, ix, 17, 84–89
Helm, Georg, 222
Hiparco, 140
Holton, Gerald, 108
Hooke, Robert, 63, 180
horizontal, concepto de, 74–75
Hume, David, xi, 21, 215
Hutton, James, 201
Huygens, Christian, 54–55, 135
hipótesis, el rechazo de Newton de, 64–66, 142
método hipotético-deductivo, 145–46

identidad, ley de, 10, 22, 248


ímpetu, concepto de, 45–46, 78–79
planos inclinados, 48–50, 122
rodar versus deslizar, 55–56, 209–10
inducción,
como inherente a la conceptualización, 74–77
como autocorrector, 210, 238
en contraste con la deducción, 34–35
problema de, 6–9, 143
estructura de, 29–35
teoría de, 239
Ingenhousz, enero 192
integración,
como criterio de prueba, 184-1885
como la esencia del pensamiento, 53
Introducción a la epistemología objetivista, xi, 9
ion, concepto de, 161, 179
isómeros, 160, 175–77

Vaqueros, James, 226


Joule, James, 165–66
Júpiter,
lunas de, 114, 116, 135
forma de, 140

Kant, Immanuel, x, 215–16, 221, 232, 243–45, 249


Kekule, agosto de 175
Kelvin, Lord (también conocido como William Thomson), 169–70, 201–6, 209
Kepler, Johannes, 9, 24, 89, 116, 212, 228, 237–38, 243
influenciado por Platón, 106–9, 225
idea de fuerza solar, 90, 99-100, 113-14
leyes del movimiento planetario, 57, 95-104, 110-13, 120, 131-33, 185, 190
prueba de teoría, 113-15
energía cinética, definición de, 165–66
teoría cinética de los gases, 166–69
Kirch, Gottfried, 141
Kline, Morris, 227
Koestler, Arthur, 97 años
Kroenig, agosto 171
Kuhn, Thomas, 246

Ladenberg, Albert, 191


Lavoisier, Antoine, 9, 157
como padre de la química, 153–55, 178–79
teoría de la acidez, 194–96, 209
Ley,
de Avogadro, 158, 162–63, 167, 170–71, 179, 182–85, 216
de flotabilidad, 124, 149
de movimiento circular, 117-19
de composición constante, 155, 179
de combinar volúmenes de gas, 157–58, 179, 182
de electrólisis, 161–62, 179, 182
de caída libre, 43–44, 46–47, 125
de difusión gaseosa, 168, 183
de conducción de calor gaseosa, 168, 183
de gravitación, 120-21, 131-45
de capacidades caloríficas, 159, 161, 163, 170, 172, 179, 182–83
de gases ideales, 166–67, 171, 179, 217
de movimiento plano inclinado, 48–50, 122
de Mendeleyev, 173, 179, 185
de movimiento (primero), 118, 121
de movimiento (segundo), 121-26
de movimiento (tercero), 127-29
de proporciones múltiples, 156–57, 179, 182
de péndulos, 38–42, 127, 229–30
del movimiento planetario, 95-104, 110-13, 131-33
de refracción, 37, 58
de viscosidad, 168–69, 183
Lemaitre, George, 251
Lerner, Eric, 252
Liebig, Justus von, 160 años
luz, velocidad de, 17
ligereza, concepto griego de, 123-24
rayo, naturaleza de, 31–34
límite, concepto de, 48, 79, 119
lógica,
definición de, 29
propósito de, 189
Loschmidt, Joseph, 169, 175

Mach, Ernst, 130, 221–22, 225


imanes
Estudio de Gilbert de, 90, 99
El experimento de Newton con 127-28
Marignac, Jean de, 170
Marte, órbita de, 91-102
masa, concepto de, 123-25, 144
como proporcional al peso, 126
matemáticas,
como inaplicable a la conciencia, 241–42
como modelo de cognición, 11
explicación del papel de, 228–32
objetividad de, 226-28
poder de, 80, 109-13, 133-34, 181, 237
Matthews, Michael, 52 años
Maxwell, James Clerk, 9, 167–69, 183, 187, 217–18
McGuire, JE, 59
camino libre medio, concepto de, 167–69, 179
omisión de medición, 10, 28, 228-29
(ver también conceptos, teoría de Rand)
medición, numérica, 10, 110, 180–81
Mendeleyev, Dmitry, 173–74, 185, 187
Mercurio, precesión de la órbita, 147
Meyer, Lothar, 172
Michelson, Albert, 206
Mill, John Stuart, 68 años
teoría de la estructura molecular, 174–77, 183
impulso, concepto de, 79, 128-29
Luna,
fuerza gravitacional activada, 120, 136–37
montañas de, 116
órbita de 137–38
tamaño y distancia de la Tierra, 82, 136

Nagel, Ernest, 72–73


movimiento natural, 45, 78, 116
Nueva astronomía basada en la causalidad, 102
Nuevo sistema de filosofía química, 156
Newton, Isaac, ix, 5, 9, 20, 58, 104–5, 115, 186, 206, 211, 224, 237–38, 240, 245
análisis del movimiento circular, 117-19
primera ley del movimiento, 118, 121
ley de la gravitación, 120-121, 131-45
segunda ley del movimiento, 121-26, 149
tercera ley del movimiento, 127-29
teoría de los colores, 58–67, 180
teoría de las mareas, 138–39
visión del espacio y el tiempo, 148–49
Nicholson, William, 199
no contradicción, ley de, 236, 240
fusión nuclear, 205, 207–9

Objetivismo: la filosofía de Ayn Rand, 9, 19, 233


Odling, William, 219
actividad óptica, 176
Óptica, 150
Ostwald, Wilhelm, 222
ozono, 170–71

Pascal, Blaise, 124


Pasteur, Louis, 175–76
Pearson, Karl, 222
Peikoff, Leonard, 9, 18, 233
contribuciones a este libro, 1–2
péndulo,
Ley de Galileo de, 38–42, 67–68, 229–30
cicloide, 54–55
Los experimentos de Newton con 126-27
tabla periódica, 173–74
Petit, Alexis, 159, 161, 163
Fedón, 255–56
filosofía,
como fundamento de las ciencias especializadas, 224–25, 242–43
como ciencia inductiva, 225, 232–43
en comparación con la física, 240–43
flogisto, 178–79, 227
planetas
ley de área, 95–96, 101, 104, 112, 131
ley de la órbita elíptica, 98-101, 104, 110-11
inclinaciones de órbitas, 90
interno versus externo, 87
ley de período / radio, 102, 104, 113
tamaño relativo de las órbitas, 85
velocidad relativa de, 85
movimiento retrógrado de, 86-87
crecimiento de las plantas, 192-194
Platón, 37, 58, 83, 105–8, 225, 232, 234, 243, 245, 255–56
Poincaré, Henri, 222
Pons, Stanley, 207–9
Popper, Karl, 189
positivismo, 215-23
Priestley, Joseph, 192
Principios de filosofía, 212-15
Principia, ix, 58, 130–131, 140–41, 143–44, 146, 150
prueba,
criterios de, 184–87, 238–39
de la teoría atómica, 177–88
de la teoría de Kepler, 113-15
de las leyes de Newton, 143–50
Proust, Joseph Louis, 155
Ptolomeo, Claudio
estudio de la refracción, 37–38
teoría geocéntrica de, 37, 83–88, 91, 150, 180, 237, 252
Pitágoras, 231

cantidad, papel en la cognición humana, 228–32


mecánica cuántica, 222, 247–50
Quine, Willard, 180

radiactividad, 205
arco iris, teoría de, 58, 63
Rand, Ayn, 233
teoría de conceptos, xi, 9–14, 35, 152, 228–32
racionalismo, 30, 105, 142, 151–52, 211–15, 245
reducción (del conocimiento a la percepción sensorial), 15-18
reflejo de colores, 62–63
refracción, 37, 58–62, 75
religión, 25, 66, 148
Más rico, Jean, 124
Roemer, Olaus, 17
Rumford, Count (también conocido como Benjamin Thompson), 164, 181
Rutherford, Ernesto, 205

Saturno, órbita de 135


Schrodinger, Erwin, 247
Smolin, Lee, 254–55
Snell, Willebrord, 37, 58
Sócrates, 235–36
Sofistas, 243
calor específico, definición de, 159
espectro, concepto de, 61, 77
velocidad, concepto de, 47–48
estereoquímica, 175–77
teoría de cuerdas, x, 253–56
Estructura de las revoluciones científicas, 246
Strutt, Robert, 205
subjetivismo, x, 74, 245–47
sustancia, concepto de, 153
Sol,
edad y fuente de energía, 203–5
como causa de las órbitas planetarias, 90, 99–100, 113–14, 120
tamaño y distancia de la Tierra, 81–82
manchas solares, 114

Tamny, Martín, 59
telescopio,
aberración cromática, 58, 63
reflectante, 63
descubrimientos con 114, 135, 180
temperatura, 13, 165–66, 183
Tales, 194
mareas, explicación de, 138–39
Torricelli, Evangelista, 123-24, 149

valencia, concepto de, 172–73, 179


Van Helmont, JB, 192–94, 209
Van 't Hoff, Jacobus, 176–77, 191
variaciones, método de, 68
Venus, fases de 114, 180
vertical, concepto de, 74–75
Vieta, Francois, 102
movimiento violento, 45, 78, 116
viscosidad, 168–69, 179, 183
Volta, Alessandro, 161, 198–200, 209

Waterston, JJ, 166–67, 171, 217


dualidad onda / partícula, 247, 249–50
Weinberg, Steven, 255–56
Weyl, Hermann, 249
Wheeler, John Archibald, 248 años
Wilson, E. Bright, 1–2, 6
Wohler, Friedrich, 160
Wurtz, Adolphe, 220

También podría gustarte