100% encontró este documento útil (1 voto)
181 vistas50 páginas

Corrientes Epistemologicas

1) El idealismo es una corriente filosófica que sostiene que la realidad se conoce a través de las ideas y el pensamiento más que de los sentidos. 2) Existen varios tipos de idealismo como el platónico, objetivo, subjetivo y alemán. 3) Representantes clave del idealismo incluyen a Platón, Descartes, Kant, Hegel y Leibniz.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (1 voto)
181 vistas50 páginas

Corrientes Epistemologicas

1) El idealismo es una corriente filosófica que sostiene que la realidad se conoce a través de las ideas y el pensamiento más que de los sentidos. 2) Existen varios tipos de idealismo como el platónico, objetivo, subjetivo y alemán. 3) Representantes clave del idealismo incluyen a Platón, Descartes, Kant, Hegel y Leibniz.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

¿Qué es Idealismo?

El idealismo es un conjunto de corrientes filosóficas que se opone al


materialismo. Afirma que para comprender la realidad no alcanza con el
objeto en sí que es percibido por los sentidos sino que es necesario tener en
cuenta las ideas, los sujetos pensantes y el propio pensamiento.
El idealismo fue de gran influencia en el pensamiento filosófico a lo largo de
la historia. Motivó a los pensadores a desconfiar de la percepción de sus
propios sentidos para ampliar su capacidad de comprensión de la realidad.
Ver además: Ecléctico
Tipos de corrientes idealistas
Platón sostuvo que las ideas constituyen un mundo suprasensible fuera del ser.
Se distinguen cinco tipos de corrientes idealistas:
Idealismo platónico. Platón fue uno de los primeros filósofos en hablar de
idealismo. Sostuvo que las ideas constituyen un mundo suprasensible fuera del
ser, es decir, un mundo que se intuye de manera intelectual y no solo a través
de los sentidos. Es por medio del intelecto y la razón como se logra conocer el
mundo real.
Idealismo objetivo. Para esta variante filosófica, las ideas existen por sí
mismas y solo se pueden descubrir mediante la experiencia. Algunos
representantes del idealismo objetivo fueron Platón, Leibniz, Hegel, Bolzano y
Dilthey.
Idealismo subjetivo. Algunos filósofos de esta corriente fueron Descartes,
Berkeley, Kant y Fichte. Sostenían que las ideas existen en la mente del sujeto
y no en un mundo exterior independiente. Según esta corriente, las ideas
dependen de la subjetividad del ser que las percibe.
Idealismo alemán. Se desarrolló en Alemania y los principales pensadores de
esta corriente fueron Kant, Fichte, Schelling y Hegel. Contempla que la
verdadera esencia del objeto existe debido a la actividad subjetiva del
pensamiento, que lo reconoce como algo real y no como algo abstracto. Se
caracterizó por priorizar el pensamiento sobre la sensación, por plantear la
relación entre lo finito e infinito y por inspirar una fuerza creativa en el
hombre (incluso los poetas fueron influenciados por los filósofos de esta
corriente).
Idealismo trascendental. El filósofo Kant fue su principal representante y
sostuvo que, para que tenga lugar el conocimiento, es necesaria la presencia de
dos variables:
Fenómeno. Manifestación directa de los sentidos, es decir, el objeto de
una observación empírica.
Noúmeno. Es lo pensado, que no corresponde a una percepción de los
sentidos. Puede ser conocido por medio de la intuición intelectual.
Kant sostiene que el conocimiento está condicionado por los fenómenos,
mientras que los noúmenos son los límites de lo que puede ser conocido. Las
condiciones de todo conocimiento son dadas por el sujeto y todos los
fenómenos derivados de su percepción son considerados como
representaciones de la realidad. Las cosas en sí mismas no constituyen lo real.
Características del idealismo
Según el idealismo, la realidad se conoce por medio del intelecto y la
experiencia.
Requiere del intelecto que le permite formar una idea determinada de las cosas
que percibe a través de los sentidos.
La razón no se identifica con lo finito o material sino que alcanza lo infinito,
como puede ser la concepción de la existencia de Dios.
La manera de conocer la realidad, es decir, a los objetos en sí mismos, es por
medio del intelecto y a través de la experiencia.
No se conforma con lo que en apariencia perciben los sentidos sino que está
ligado a una realidad superior de la consciencia del ser.
Ejemplos de idealismo
Detallamos los principales ejemplos que reflejan parte de la filosofía idealista:
Derechos humanos. Una idea universal surgida en Francia es asimilada por los
dirigentes sobrevinientes de la Segunda Guerra Mundial.
La Revolución Francesa. Sus premisas de libertad, igualdad y derechos
humanos, se basan en conceptos del idealismo social y político.
Don Quijote de la Mancha. Se caracteriza por un personaje que soñaba y se
perdía en su propio mundo de ideas.
“Pienso, luego existo”. Es la frase del filósofo René Descartes que mejor
identifica a la corriente idealista.
“Son filósofos verdaderos, quienes disfrutan contemplando la verdad”. Esta
frase de Platón alude a que la filosofía consiste en elevarse hacia la verdad o
realidad.
Las obras de Carlos Marx. A partir de sus ideas, Marx explica las
características y el funcionamiento de una sociedad ideal, donde los medios de
producción pertenecen a la clase trabajadora.
Representantes del idealismo
René Descartes buscaba el método para llegar al conocimiento y a la verdad.
Entre los principales representantes se encuentran:
Platón. Filósofo griego (Atenas, 427 – 347 a. C.). Sócrates fue su maestro y
luego, Aristóteles su discípulo. Fue un pensador destacado cuyo trabajo tuvo
gran influencia en la filosofía occidental y en las prácticas religiosas. En el
año 387 a. C. fundó la Academia, el primer instituto superior de filosofía
idealista de la antigua Grecia. Algunos de los aportes más destacados de
Platón fueron:
La teoría de las ideas. Es el eje de la filosofía platónica. No se encuentra
formulada como tal en ninguno de sus trabajos sino que fue abordada desde
diferentes aspectos en sus obras La República, Fedón y Fedro.
La dialéctica. Es parte de la lógica que estudia el razonamiento probable, pero
no de la demostración. Se relaciona con el arte de debatir, persuadir y razonar
las diferentes ideas.
La anamnesis. Es un término empleado por Platón para hacer referencia a la
búsqueda metódica del conocimiento. Tiene que ver con un recuerdo del alma
sobre una experiencia que ha tenido en una encarnación anterior.
René Descartes. (La Haye en Touraine, 1596-1650). También llamado
Renatus Cartesius en latín, fue un filósofo, matemático y físico francés. El
aporte de sus obras es considerado una revolución en el ámbito científico y de
la filosofía moderna. Se diferenció de otros pensadores porque tuvo como
propósito conocer el camino o método para llegar al conocimiento y a la
verdad, mientras que otros filósofos se basaban en corrientes preestablecidas
que definían qué es el mundo, el alma, el ser humano, etc., lo que
condicionaba las ideas que pudieran alcanzar. Descartes expone el discurso
del método mediante cuatro reglas:
Evidencia. Admitir como verdadera una cosa solo si se sabe con claridad y no
genera dudas. Esto contradice el principio de identidad de Aristóteles, donde
la razón es suficiente para concretar una idea.
Análisis. Separar las posibles dificultades o incógnitas para pensarlas hasta
llegar a sus componentes últimos.
Síntesis. Ordenar los pensamientos según el grado de complejidad.
Enumeración. Revisar más de una vez y de manera minuciosa cada instancia
de la metodología para asegurarse de no omitir nada.
A través de la duda metódica, Descartes se cuestiona todos los conocimientos
e intenta liberarse de todo tipo de prejuicios. No busca no creer en nada sino
que se plantea si existen otros motivos para cuestionar el conocimiento. Se
denomina metódica porque no duda de cada conocimiento individual, idea
o creencia, al contrario, tiene como objeto analizar las razones en las que se
fundó una idea para darla como válida y, de ese modo, rastrear el camino para
encontrar la verdad.
Descartes concluye que hay algo de lo que no puede dudar y es, precisamente,
de la capacidad de dudar. “Saber cómo dudar, es una manera de pensar. Por lo
tanto, si dudo, significa que existo. Esa verdad resiste a toda duda por muy
radical que sea y el solo hecho de dudar es prueba su verdad.” Así llegó a la
verdad, a partir de la cual nace el pensamiento moderno: “pienso, luego
existo”.
Immanuel Kant. (Königsberg, 1724-1804). Filósofo prusiano y figura
relevante del movimiento cultural e intelectual llamado Iluminismo, Kant
establece que el problema de la filosofía es “saber si la razón es capaz de
conocer”. Deriva entonces la variante del idealismo denominada “criticismo”
o “idealismo trascendental”:
Kant considera que el hombre es un ser autónomo que expresa su libertad a
través de la razón y que no conoce las cosas en sí mismas sino que ve una
proyección de sí mismo en el conocimiento de las cosas. Los principales
conceptos de su trabajo son:
Idealismo trascendental. En el proceso del conocimiento, la experiencia de
conocer el objeto influye sobre la realidad y esta experiencia está
condicionada por el tiempo y lugar.
El ser humano en el centro del universo. El sujeto que conoce, lo hace de
manera activa y modifica la realidad que está conociendo.
Más allá del ser. Existen condiciones universales y necesarias, previas a la
experiencia del ser.
Georg Wihelm Friedrich Hegel. (Stuttgart, 1770-1931). Filósofo alemán que
sostuvo que “lo absoluto” o idea, se manifiesta de manera evolutiva bajo
normas de la naturaleza y del espíritu. Establece que el conocimiento tiene
una estructura dialéctica: por un lado, el mundo existente y, por el otro está la
necesidad de superar los límites de lo conocido.
Cada cosa es lo que es y solo llega a serlo en relación con otras cosas. Esta
realidad dialéctica está en constante proceso de transformación y cambio.
Concibe una totalidad donde cada cosa llega a ser lo que es como suma de
todos los momentos, superando la vaguedad de la abstracción. No hay
diferencia entre el ser y el pensar ni entre el sujeto y objeto: todo se diluye en
la totalidad. Proceso del conocimiento dialéctico:
El conocimiento consiste en la relación sujeto-objeto y, a su vez, cada uno se
niega o contradice, lo que impone un proceso de transformación que conduce
a la igualdad entre ellos.
El proceso de transformación para superar la diferencia entre objeto y sujeto
tiende a reducir uno a otro. Solo en la identidad es posible alcanzar un
conocimiento total y absoluto.
En la reducción a la identidad absoluta se alcanza el verdadero conocimiento
dialéctico que tiene lugar la disolución de objeto en el sujeto.
Gottfried Wilhelm Leibniz. (Leipzig, 1646-1716). Fue un filósofo alemán
erudito que supo en profundidad sobre matemática, lógica, teología y política.
Su trabajo aporta importantes contribuciones para
la metafísica, epistemología, lógica y filosofía de la religión. Leibniz busca
unir a la religión con la ciencia, explica las desdichas del hombre en base a
verdades de la voluntad divina. Esta doctrina se asocia con la enseñanza
religiosa sobre la omnipotencia de Dios.
Según Leibniz, el universo está compuesto de sustancias espirituales
independientes que son las almas, a las que Leibniz denominó “mónadas”:
elementos constitutivos de todas las cosas de la vida. Este es el aporte más
significativo para la metafísica y supone una solución a los problemas de la
interacción entre mente y cuerpo. Además, evidencia la identidad del ser y
derriba la falta de individualización. Leibniz se destaca por una mirada óptima
respecto al universo, que considera el mejor que Dios pudo haber creado. En
su época fue varias veces ridiculizado por sostener esta idea.

¿Qué es el Realismo?
Por realismo se entiende una tendencia estética y artísticas, fundamentalmente
literaria, pictórica y escultórica, que aspira a la semejanza o la correlación lo
más exacta posible entre las formas de arte y representación, y la realidad
misma que las inspira. Es decir, una tendencia que valora el parecido de
una obra de arte para con el mundo real que representa.
Esta doctrina estética surgió formalmente en Francia en el siglo XIX, bajo la
influencia del racionalismo y la tradición de la Ilustración francesa, que
privilegiaba el intelecto humano y el conocimiento de la realidad por encima
de las emociones y el mundo subjetivo.
Sin embargo, pueden hallarse consideraciones realistas en las formas artísticas
de casi todas las épocas, desde la prehistoria. Y en líneas generales, el
realismo suele oponerse a otras formas de arte como el abstraccionismo,
el neoclasicismo, el idealismo o, en el caso específico de la literatura, a las
formas subjetivas del romanticismo.
A groso modo, el arte realista se reconoce, sea cual sea su disciplina, porque
procura representar la realidad de la manera más verosímil posible, prefiriendo
las situaciones cotidianas y descartando lo heroico, a favor de temas más
apegados a lo mundano, a lo común. En muchos sentidos se lo ha pensado
como una forma de comprender y criticar las sociedades contemporáneas al
artista, lo cual requiere entre otras cosas de objetividad.
Ver además: Surrealismo

Contexto histórico del realismo


El realismo representaba los cambios sociales inspirados en la Revolución
Francesa.
Las tendencias hacia el realismo y hacia el abstraccionismo o la fantasía se
han enfrentado a menudo a lo largo de la historia del arte. Así, la aparición y
expansión del romanticismo entre los siglos XVIII y XIX, un movimiento
opuesto lo que proponía la tradición ilustrada y racionalista de la Francia de la
época, impulsó al mismo tiempo una reacción contraria, que rechazaría los
exotismos a veces mitológicos que cultivaban los románticos alemanes e
ingleses. Esta nueva escuela sería el realismo, y su objetivo sería la búsqueda
del arte en la cotidianidad del ser humano, en los conflictos de clase propios
de la época y de los cambios sociales inspirados por la Revolución
Francesa de 1789.
Así, el surgimiento del periodismo, las teorías de Auguste Comte y la teoría
evolucionista de Darwin fueron importantes impulsores de la fe en la razón
humana y el progreso de la civilización a través del adelanto científico. Por
ende, el realismo fue mucho más que una mera reacción estética: fue también
la aplicación de la filosofía positivista al arte, aspirando a hacer del artista
un personaje comprometido con el retrato de su cultura y de su época, que
abordara temas hasta entonces ignorados, sin fantasías escapistas ni
ensoñaciones.
Así nacieron muchos realismos, tales como el realismo socialista,
comprometido con la causa política revolucionaria y la novela social; o el
kitchen sink realism, vertiente que quiso indagar en lo más sucio, feo y
corriente de la realidad.

Características del realismo


El arte realista propone una mirada centrada en el ser humano y en su
existencia cotidiana, dándole la espalda a los temas mitológicos, religiosos,
fantásticos y oníricos, prefiriendo en cambio la denuncia social y política. Esto
condujo a técnicas pictóricas que aspiraban a la objetividad: la reproducción
casi fotográfica de lo observado, o las largas y minuciosas descripciones
literarias que procuraban agotar lo observable a través de palabras.
Los personajes y las escenas predilectas del realismo fueron siempre las más
mundanas, protagonizadas generalmente por el pueblo llano, cuando no por
las clases desposeídas, que eran representadas en su mayor fidelidad,
asumiendo el arte como un vehículo para captar la vida real de los de abajo: el
campesinado, las nacientes clases obreras, etc.
Mucho de lo que realismo fue en pintura, sirvió para el surgimiento posterior
del impresionismo, y sus principios fueron llevados aún más allá por el
naturalismo venidero, en sus numerosas acepciones y vertientes.
Arte en el realismo
El arte realista apuntó a una perspectiva local.
La fotografía ya hacía sus primeras apariciones cuando el realismo se
convirtió en la escuela imperante, por lo que de un modo u otro se aspiraba a
una exactitud, objetividad y nivel de detalles en el arte que nunca antes habían
sido posibles, gracias a las innovaciones científicas, y que en el caso de la
pintura y la escultura, derivaron luego en el hiperrealismo del siglo XX.
Alejándose de los motivos románticos, el arte realista apuntó a una perspectiva
local, costumbrista, que coincidió además con el surgimiento de numerosos
movimientos nacionalistas en la Europa del siglo XIX. Obviamente, sus
pinturas son siempre figurativas, lejanas a la abstracción, y sus motivos
siempre explicables en términos laicos, casi científicos.
Realismo literario
El realismo literario daba largas descripciones de los objetos, ambientes y
personajes.
Por su parte, el realismo literario apuntó a modelos de escritura menos ideales
y más veraces, que se alejaran de la sensibilidad y la imaginación de los
autores, para comprometerse con la observación del mundo que los rodeaba,
en sus detalles sociales, económicos y políticos. Se aspiraba a que un escritor
estudiase la sociedad tal y como lo haría un médico al cuerpo humano.
En cuanto a las formas, el realismo privilegió el estilo sencillo, directo, sobrio,
que abriera espacios para la reproducción del habla cotidiana de las gentes y
para largas y puntillosas descripciones de los objetos, ambientes y personajes.
Esto se tradujo en párrafos largos con muchas oraciones subordinadas, a la par
que en un lenguaje “invisible” que no tuviera muchos giros, metaforizaciones
ni excentricidades, pues lo importante no era el autor, sino la realidad descrita.
Por último, en la narrativa se prefirió siempre un narrador omnisciente, capaz
de explicar hasta el último detalle por qué ocurría lo que ocurría y de
aleccionar al lector en los asuntos sociales y económicos que involucran a su
historia. Esto condujo además a la aparición de personajes arquetípicos,
cuando no estereotípicos, que de tan recurrentes terminaban siendo
semejantes: la joven prostituta, el comunista obrero, el indigente, etc.
Autores y representantes del realismo
Algunos importantes representantes de esta tendencia en las diversas
disciplinas artísticas son:
Pintura. Los franceses Gustave Courbet (1819-1877), Thomas Couture
(1815-1879), Jean-Francois Millet (1814-1875), Jules Breton (1827-1906), así
como otros muchos representantes de Inglaterra, Alemania, Italia y Estados
Unidos mayormente.
Escultura. Los franceses Auguste Rodin (1840-1917), Honoré Daumier
(1808-1879) y Jean-Baptiste Carpeaux (1827-1875), así como el belga
Constantin Meunier (1831-1905) y el italiano Medardo Rosso (1858-1928).
Literatura. Los franceses Honoré de Balzac (1799-1850), Stendhal (1783-
1842) y Gustave Flaubert (1821-1880); el inglés Charles Dickens (1812-
1870); el español Benito Pérez Galdós (1843-1920) y los rusos Fiódor
Dostoievski (1821-1881), fundador de la novela psicológica, y León Tolstoi
(1828-1910).
Realismo mágico
Gabriel García Márquez fue el principal exponente del realismo mágico.
El realismo mágico es una escuela literaria hispanoamericana del siglo XX,
cuyo principal exponente es el autor colombiano Gabriel García Márquez,
ganador del Premio Nobel de Literatura. Esta tendencia apuesta por la
representación realista de eventos extraños y maravillosos, que sin embargo
producen poca o ninguna sorpresa en el universo ficcional de la obra. Es decir,
se trata del abordaje cotidiano y objetivo de eventos fantásticos.
Esta vertiente del realismo entraña también una postura política ante la
realidad de los pueblos latinoamericanos, que inicialmente formulara el
cubano Alejo Carpentier (quien lo llamó “real maravilloso”) y por el
venezolano Arturo Úslar Pietri (ya como “realismo mágico”), en el que el
continente latinoamericano juega el papel de reservorio de la magia y lo
exótico dentro de un hemisferio occidental racionalista y cientificista.

¿Qué es el empirismo?

El empirismo es una teoría filosófica que considera la experiencia y


la percepción sensorial como el mejor camino hacia la verdad de las cosas.
Es decir, para un empirista la realidad experimentada es la base de
todo conocimiento, tanto en su origen como en su contenido, ya que la mente
humana debe partir del mundo de lo sensible (lo percibido por los sentidos),
para después formar las ideas y los conceptos.
El pensamiento empírico tiene raíces en la antigüedad clásica, especialmente
en la obra de Aristóteles y de otros filósofos grecorromanos (en especial los
sofistas y los escépticos). De hecho, toma su nombre del vocablo
griego empeirikós, equivalente a “guiado por la experiencia”.
En ese entonces, se entendía lo empírico como el conocimiento útil
y técnico de los médicos, arquitectos y artesanos en general, en contraposición
al conocimiento teórico e inaplicable que se obtenía de la contemplación de
la vida.
Sin embargo, el empirismo surgió como movimiento filosófico en la Edad
Moderna, punto final de un proceso de pensamiento iniciado en la baja Edad
Media.
En ese momento las nuevas teorías filosóficas y la Revolución
Científica estaban renovando el pensamiento de Occidente, proponiendo
dos métodos de investigación (Descartes y Bacon), y dos modelos de
pensamiento filosófico: el empirismo y el racionalismo.
El empirismo fue particularmente desarrollado por distintos filósofos ingleses,
razón por la cual a menudo se habla de “empirismo inglés”: Bacon, Hobbes,
Locke, Berkeley, Hume. Sus rivales, en cambio, tendían a provenir
del continente: Descartes, Spinoza, Leibniz, etc.

Características del empirismo


Valorando el conocimiento no especulativo, el empirismo dio paso al método
científico.
El empirismo se caracterizó por lo siguiente:
Valoró la realidad sensible y perceptible como el origen de todas las ideas, es
decir, que el mundo primero se percibe y luego se piensa o imagina. En otras
palabras: el ser humano aprende a través de sus sentidos.
Sostuvo que el conocimiento es subjetivo, y que no existían ideas
preconcebidas, sino que se nace con la mente “en blanco”. Luego se van
adquiriendo conocimientos a partir de experiencias internas (pensamientos,
emociones, etc.) y externas (experiencias materiales y físicas).
Se opuso al racionalismo y al historicismo como teorías del conocimiento. Al
mismo tiempo, continuó y valoró la crítica nominalista comenzada en la Baja
Edad Media (en cuanto al llamado “problema de los universales”).
Importancia del empirismo
El empirismo fue una escuela fundamental en el surgimiento de corrientes de
pensamiento futuras. Por ejemplo, permitió el surgimiento del pensamiento
científico y del método científico, dentro del cual jugó un rol muy importante
un pensamiento empírico moderno, nacido a raíz del que sostenía el
empirismo inglés.
Para ello, el empirismo debió abrir primero las puertas al ateísmo. Por otro
lado, de la oposición entre el empirismo y el racionalismo, surgió el
pensamiento kantiano que intentó reconciliar sus posturas, y que
posteriormente jugó un rol decisivo en la cultura de Occidente.
Representantes del empirismo
Hume clasificó el conocimiento como “impresiones” o “ideas”.
Los principales representantes del empirismo fueron:
John Locke (1632-1704). Filósofo y médico inglés, padre además
del Liberalismo Clásico, su obra se vio muy influenciada por los escritos de sir
Francis Bacon, y en base a ellos propuso grandes contribuciones a la teoría
del contrato social. Su famoso Ensayo sobre el entendimiento humano de 1689
fue una réplica a René Descartes, proponiendo la mente humana como
una Tabula rasa, sobre la cual se imprime el conocimiento a
posteriori mediante la experiencia.
David Hume (1711-1776). Filósofo, economista e historiador escocés, es una
de las figuras centrales de la Ilustración escocesa y del pensamiento
occidental, cuyas obras defendían la tesis de que el conocimiento deriva de la
experiencia sensible. Son célebres sus ensayos Tratado de la naturaleza
humana (1739) e Investigación sobre el entendimiento humano (1748), en los
que reduce todo conocimiento a “impresiones” o “ideas”, de las cuales surgen
dos tipos de verdades: “verdades de hecho” y “relación de ideas”.
George Berkeley (1685-1753). También conocido como el obispo de
Berkeley, fue un filósofo irlandés cuya obra propuso el idealismo subjetivo o
inmaterialismo, cuyo postulado principal era que no existe la materia, sino la
percepción de la misma, o sea, que el mundo existe únicamente mientras lo
percibimos. Para explicar por qué el mundo no desaparece mientras dormimos
o cuando parpadeamos, propuso que Dios era el gran observador del universo,
cuyo ojo constante y universal garantizaba que todo siguiera existiendo.

¿Qué es el racionalismo?
El racionalismo es un movimiento filosófico surgido en la Edad Moderna de
Occidente, específicamente en la Europa de los siglos XVII y XVIII. Esta
corriente sostenía que la razón era el principal mecanismo humano de
adquisición de conocimientos. En ello se distinguía del empirismo, su
corriente contraria, que establecía la importancia de los sentidos y de la
experiencia como vía hacia el aprendizaje.
El racionalismo defendía el postulado de que el conocimiento humano
proviene de su capacidad para razonar, algo que constituía en sí mismo un
cambio de pensamiento sustancial respecto a las épocas pasadas, donde ese rol
lo cumplía la fe religiosa.
En consecuencia, esta corriente filosófica sólo pudo surgir después de los
importantes cambios culturales que se dieron en Occidente durante
el Renacimiento y el fin de la Edad Media, aunque es posible rastrear sus
antecesores hasta tiempos tan remotos como los de Platón, en la Antigua
Grecia.
El pensador francés René Descartes fue el fundador del racionalismo. Era
admirador de la geometría y las matemáticas, las cuales consideraba un
modelo a seguir para toda forma de filosofía.
Descartes aspiraba a convertir la filosofía en una disciplina científica, provista
de un método, dado que, a su parecer, sólo mediante la razón podían hallarse
ciertas verdades universales. Así, en su Discurso del método (1637) propuso
sus cuatro reglas para toda investigación filosófica:
Evidencia. Sólo es verdadero lo que no causa dudas al pensamiento.
Análisis. Entender algo reduciéndolo a sus partes constitutivas.
Deducción. Encontrar las verdades complejas a partir de las simples
conocidas.
Comprobación. Asegurarse de que lo conocido mediante la razón siga estas
cuatro reglas establecidas.
El término “racionalismo” en nuestros días ha adquirido otras connotaciones,
sirviendo para referir a cualquier postura filosófica que otorgue a la razón un
lugar central por encima de la fe, la superstición u otras formas de
pensamiento.
Puede servirte: Conocimiento racional
Características del racionalismo
El racionalismo se caracterizó por lo siguiente:
Sostener la razón y el pensamiento como la fuente de todo conocimiento
humano.
Creer en el innatismo: que en el espíritu humano existen ideas preconcebidas,
nacidas con él o puestas allí por Dios.
Prefería el empleo de métodos lógico-deductivos para explicar los
razonamientos empíricos y confirmarlos cuando fuera posible.
Jugó un papel fundamental en el advenimiento del pensamiento laico (y
antirreligioso).
Sus principales defensores provenían de Francia, Alemania y otros países de la
Europa continental, opuestos al empirismo proveniente de Inglaterra.
Representantes del racionalismo
Baruch Spinoza es considerado el padre del pensamiento moderno.
Los principales representantes del racionalismo fueron:
René Descartes (1596-1650). Filósofo, matemático y físico de origen francés,
padre de la geometría analítica y de la filosofía moderna, fue uno de los
grandes nombres de la Revolución científica, cuya obra rompió con la
escolástica que imperaba hasta entonces. Junto a Spinoza y Leibniz conforma
el trío de los más grandes racionalistas de la historia.
Blaise Pascal (1623-1662). Matemático, físico, teólogo, filósofo y escritor
francés, quien no sólo contribuyó teóricamente con las ciencias naturales y la
historia natural, sino prácticamente con todas las ciencias: es uno de los
pioneros en la construcción de calculadoras mecánicas.
Baruch Spinoza (1632-1677). Filósofo judío neerlandés, considerado uno de
los grandes racionalistas del siglo XVII, cuya obra fue hostigada por el
catolicismo y olvidada hasta su redescubrimiento en el siglo XIX. Filósofos
posteriores como Hegel y Schelling lo proclaman como el padre del
pensamiento moderno.
Gottlieb Leibniz (1646-1716). De origen alemán, este matemático, teólogo,
jurista, bibliotecario, político y filósofo fue uno de los grandes pensadores de
su época, al que se le confiere el título de “último genio universal”. Sus
aportes en todas las áreas anteriormente mencionadas son significativos, tanto
que hasta sus detractores lo admiraban profundamente.
Racionalismo y empirismo
Las dos vertientes filosóficas que engendró el escepticismo fueron el
racionalismo, partidario de dar a la racionalidad humana un lugar central en el
aprendizaje, y también el empirismo, que proponía dar ese lugar a la
experiencia y al mundo de los sentidos.
Estos dos modelos se opusieron durante toda la Edad Moderna y constituyeron
los polos filosóficos de Occidente, padres de las escuelas filosóficas
posteriores y clave cada uno, a su manera, en el desarrollo del pensamiento
científico como hoy lo entendemos.
Más en: Empirismo
Racionalismo y humanismo
El movimiento racionalista presenta similitudes con el humanismo, al menos
en su versión secular, en el sentido de que considera la razón humana como el
único camino cierto hacia la verdad de las cosas. Así, el racionalismo desplazó
la fe religiosa que había imperado en el pensamiento occidental durante el
Medioevo.
Este desplazamiento permite el surgimiento de un pensamiento filosófico
ajeno a la religión, lo cual es también central en la doctrina del humanismo,
cuyo objetivo central fue colocar al ser humano, y no a Dios, en el centro del
mundo. Eso no significa que el racionalismo fuera ateo, ya que no descartaba
ni afirmaba a priori la existencia de Dios.
En cambio, el humanismo secular proponía una visión revalorizante y digna
del ser humano, para la cual es fundamental una visión racionalista, escéptica,
aunque en ella también tenga importancia el asunto ético del ser humano, cosa
que los racionalistas no contemplaban. De ese modo, no todo racionalista
vendría siendo un humanista.

DEFINICIÓN DE INDUCTIVISMO
Para poder conocer el significado del término inductivismo se hace necesario,
en primer lugar, descubrir su origen etimológico. En este caso, podemos
subrayar que se trata de una palabra que se forma a partir de la unión de varios
componentes léxicos del latín y del griego. Nos estamos refiriendo a los
siguientes:
-La palabra latina “inductivus”, que puede traducirse como “que tiene la
capacidad de persuadir o mover” y que es fruto de la suma de estos elementos:
el prefijo “in-”, que significa “hacia adentro”; el verbo “ducere”, que es
sinónimo de “guiar”, y el sufijo “-tivo”, que se usa para indicar “relación
activa o pasiva”.
-El sufijo griego “-ismo”, que significa “doctrina” o “sistema”.
El inductivismo es un método lógico que parte de enunciados particulares
para llegar a conclusiones generales. Lo inductivo se realiza por inducción: el
acto y el resultado de inducir.
Para comprender cómo funciona el inductivismo, por lo tanto, hay que saber
que la acción de inducir consiste en extraer, partiendo de experiencias u
observaciones particulares, un principio general que se encuentra implícito en
ellas. El inductivismo forma parte de los llamados métodos científicos, que son
pasos que se siguen de manera ordenada para generar un nuevo conocimiento.
A nivel general, el inductivismo consta de cuatro grandes etapas. Primero se
deben observar y registrar los hechos; luego, analizarlos y clasificarlos. En
tercer lugar, a través de una derivación inductiva, se realiza una
generalización, que finalmente debe ser contrastada.
Se considera que entre las primeras figuras que analizaron, estudiaron,
plantearon y desarrollaron el inductivismo se encuentra el escritor y filósofo
inglés Francis Bacon (1561 – 1626), que está considerado el padre del
empirismo científico y filosófico.
El método inductivo se basa en la proposición de una conclusión que resulte
general para la totalidad de los eventos de una misma clase. Para arribar a esta
conclusión, se desarrollan múltiples observaciones.
El inductivismo, de este modo, va de lo particular a lo general. El método
deductivo, en cambio, concreta el camino inverso: de lo general a lo particular.

Del inductivismo tenemos que establecer además que sus conclusiones son
probables y que lo que persigue no es otra cosa que crear nuevo conocimiento.
Asimismo, es interesante resaltar el hecho de que ha sido el método más
utilizado dentro de las ciencias experimentales desde hace siglos. No obstante,
en la actualidad se emplea como parte de lo que es el método científico en
general.
El método deductivo, por su parte, tenemos que indicar que es muy utilizado
en las matemáticas y en la lógica, que sus conclusiones son muy rigurosas y
que, al contrario que el inductivismo, no genera nuevo conocimiento en sí.
Veamos un ejemplo sencillo de la aplicación del inductivismo. Si un observador
nota que las águilas son aves y vuelan, que los cóndores son aves y vuelan y
que las palomas son aves y vuelan, la conclusión según el método inductivo
puede ser que todas las aves vuelan. Sin embargo, pese a que el razonamiento fue
correcto, dicha conclusión no es verdadera: los pingüinos y los avestruces son
aves y no vuelan.
DEFINICIÓN DE MÉTODO DEDUCTIVO
El método deductivo es un método científico que considera que la conclusión se halla
implícita dentro las premisas. Esto quiere decir que las conclusiones son una
consecuencia necesaria de las premisas: cuando las premisas resultan
verdaderas y el razonamiento deductivo tiene validez, no hay forma de que la
conclusión no sea verdadera.

Las primeras descripciones del razonamiento deductivo fueron realizadas por


filósofos en la Antigua Grecia, entre ellos Aristóteles. Cabe destacar que la palabra
deducción proviene del verbo deducir (del latín deducĕre), que hace referencia a
la extracción de consecuencias a partir de una proposición.
El método deductivo logra inferir algo observado a partir de una ley general.
Esto lo diferencia del llamado método inductivo, que se basa en la formulación
de leyes partiendo de los hechos que se observan.
Hay quienes creen, como el filósofo Francis Bacon, que la inducción es
preferible a la deducción, ya que permite trasladarse desde particularidades
hacia algo general.
Entre los ejemplos que podemos utilizar para entender más exactamente lo
que significa el término método deductivo estaría el siguiente: si partimos de
la afirmación de que todos los ingleses son puntuales y sabemos que John es
inglés, podemos concluir diciendo que, por tanto, John es puntual.
En el ámbito de las Matemáticas también se hace mucho uso del citado
método deductivo. Así, en esta materia podremos encontrar ejemplos que lo
demuestran: si A es igual a B y B es igual a C, podemos determinar que A y C
son iguales.
Al hablar de este citado método deductivo tenemos que subrayar que el
mismo, en el que el pensamiento va de lo general a lo particular, se hace uso
de una serie de herramientas e instrumentos que permitan conseguir los
objetivos propuestos de llegar al punto o esclarecimiento requerido.
En este sentido, podemos exponer que es frecuente que se empleen resúmenes,
pues son los documentos que permiten concentrarse de manera clara y concisa
en lo esencial de un asunto. No obstante, también hay que destacar que, de
igual forma, se hace utilización de la síntesis y de la sinopsis.
Pero la lista de procedimientos y herramientas va mucho más allá. Así, en ella
tampoco se podrían obviar los mapas, los gráficos, los esquemas o las
demostraciones. Estas últimas en concreto ayuden especialmente a demostrar
que un principio o una ley en concreto son verdaderos, y para ello se parte de
todas las verdades establecidas así como de las relaciones lógicas.
El método deductivo puede dividirse según resulte directo y de conclusión
inmediata (en los casos en los que el juicio se produce a partir de una única
premisa sin otras que intervengan) o indirecto y de conclusión mediata (la premisa
mayor alberga la proposición universal, mientras que la menor incluye la
proposición particular: la conclusión, por lo tanto, es el resultante de la
comparación entre ambas).
En todos los casos, los investigadores que apelan al método deductivo
empiezan su trabajo planteando supuestos (coherentes entre sí) que se limitan
a incorporar las características principales de los fenómenos. El trabajo sigue
con un procedimiento de deducción lógica que finaliza en el enunciado de
las leyes de carácter general.
Qué es Positivismo:
El positivismo es una corriente filosófica que afirma que todo conocimiento
deriva de alguna manera de la experiencia, la cual se puede respaldar por
medio del método científico. Por tanto, rechaza cualquier conocimiento previo
a la experiencia.

Positivismo, epistemológicamente hablando, significa ‘sin valor’ o ‘sin


prejuicios’. Es decir, que no cree en las ideas previas o ideas a priori porque
todo está en abierto hasta que se demuestre objetivamente a través de un
método científico.
El término positivismo surgió en Francia a mediados del siglo XIX. El
primero en hacer mención del positivismo fue el filósofo francés Saint-Simon,
precursor de la filosofía social. No obstante, fue el sociólogo y filósofo
francés Auguste Comte (1798 - 1857) quien popularizó dicha corriente
filosófica junto con, el filósofo y político británico, John Stuart Mill (1806 –
1873).
Tanto Comte como Mill se basaban en la idea de que todo conocimiento o
actividad filosófica o científica debía partir de hechos reales y posibles de
comprobar a través del método científico, por lo que rechazaban cualquier tipo
de conocimiento previo a la experiencia.
El positivismo tiene su raíz en el Iluminismo o Ilustración francesa donde
surge un énfasis en el racionalismo y del empirismo inglés del siglo XVIII
representado por David Hume (1711 - 1776).
Asimismo, fue uno de los resultados que produjo la Revolución Francesa tras
los cambios políticos, sociales y económicos, que colocaron a los individuos y
a las sociedades como objetos de estudio partiendo de sus experiencias.
Por tanto, el positivismo es una conjugación del empirismo, corriente
filosófica que se basa en que todo conocimiento es adquirido a través de algún
tipo de experiencia u observación, en la cual la lógica y las matemáticas van
más allá de los hechos a través de la aplicación del método científico.
El padre del método científico René Descartes (1596 - 1650) afirmó que las
ideas eran innatas. Posteriormente, John Locke (1632 - 1704) refutó esta idea
introduciendo la experiencia como catalizador de todo conocimiento.
En otro orden de ideas, el término positivismo también se refiere a tomar una
actitud más positiva, cómoda y práctica para ser feliz y obtener mejores
beneficios. Como se diría con la analogía psicológica del vaso medio lleno o
el vaso medio vacío, el que practica el positivismo o, el que es positivo, ve
siempre el vaso medio lleno.
Características del positivismo
A continuación se presentan las principales características que definen a la
corriente filosófica denomina Positivismo.
Rechaza las nociones a priori y los conceptos o creencias de tipo universal que
no hayan sido comprobados.
El positivismo se basa en que los hechos empíricos son los que fundamentan
el conocimiento.
Promueve como válido el conocimiento de carácter científico respaldado por
el método científico.
El método científico debe ser aplicado tanto a las investigaciones científicas
como humanísticas.
El conocimiento que se obtiene del positivismo debe ser objetivo.
Las pruebas documentadas son las más importantes, no sus interpretaciones.
Positivismo lógico
El positivismo lógico o neopositivismo es una corriente filosófica que incluye
en su metodología científica el análisis del lenguaje y se limita al análisis o
estudio de todo aquello que es empírico y comprobable. Esta derivación del
positivismo surgió en el siglo XX y fue desarrollado por los integrantes del
Círculo de Viena.
Significado de Hermenéutica
Qué es Hermenéutica:
Hermenéutica se refiere al arte de interpretar textos bien sean de carácter
sagrado, filosófico o literario.
Asimismo, a través de la hermenéutica se pretende encontrar el verdadero significado
de las palabras, tanto escritas como verbales.

La hermenéutica tiene sus orígenes en la Antigüedad, cuando diversos


pensadores se concentraron en la tarea de interpretar los textos o escrituras
sagradas a fin de diferenciar la verdad de lo espiritual, y esclarecer aquello que
resultaba ambiguo o poco claro. Algunos de ellos fueron Filón de Alejandría,
Agustín de Hipona, Martín Lutero, entre otros.
Sin embargo, fue en la Edad Moderna que los estudios entorno a la
hermenéutica tomaron mayor forma tras las contribuciones del filósofo
Friedrich Schleiermacher, por lo que es considerado como padre de la
hermenéutica.
Entre sus principios propuestos por Schleiermacher destaca la idea de
comprender e interpretar el discurso tal cual lo expone el autor, y luego
proponer una interpretación aún mejor que ésta.
El término hermenéutica deriva del griego ἑρμηνευτικὴ τέχνη (hermeneutiké tejne),
que significa el ‘arte de explicar, traducir, aclarar o interpretar’. Asimismo, la
palabra hermenéutica se relaciona con el nombre del dios griego Hermes, el
dios mensajero con la capacidad de descifrar significados ocultos.
Hermenéutica bíblica
La hermenéutica bíblica tiene como propósito el estudio de los principios,
reglas y métodos para realizar una adecuada interpretación de los textos
bíblicos a fin de comprender su significado.
En este sentido, pretende ofrecer los medios para realizar una correcta
interpretación de los textos de la Biblia. Algunos de los métodos que se
utilizan requieren la realización de análisis textuales, literarios e históricos.
Asimismo, la hermenéutica se emplea para interpretar otras obras religiosas de
diversas culturas. De allí que en muchas ocasiones se relacione con el término
exégesis, que se refiere, y en sentido estricto a la 'interpretación' de un texto
tanto religioso como científico y filosófico.
Vea también Exégesis.
Hermenéutica en Filosofía
Desde los estudios filosóficos la hermenéutica ha sido un término interpretado
de diferentes maneras por filósofos y pensadores en diversas épocas.
De allí que se pueda definir como una corriente filosófica aplicable al análisis
de las ciencias humanas, a fin de establecer la importancia de interpretar y
comprender los hechos humanos teniendo en cuenta el contexto sociohistórico
en el que ocurren.
En este sentido, el filósofo Friedrich Schleiermacher expuso la hermenéutica
como un saber práctico que permite la interpretación de los contenidos
escritos u orales partiendo de la reconstrucción del contexto del autor, lo que a
su vez nos permite colocarnos en su lugar y realizar una mejor comprensión
de la información.
En el estudio de este término, el filósofo Martin Heidegger sitúa la
comprensión antes de la interpretación. Por su parte, el alemán Hans-Georg
Gadamer es considerado un renovador del concepto de hermenéutica como
una teoría de la verdad y un método interpretativo.
Hermenéutica jurídica
La hermenéutica jurídica es el estudio de las reglas y los métodos para la
interpretación de los textos jurídicos. Su objetivo es que la interpretación de
este tipo de textos no se realice con base en criterios subjetivos que puedan
modificar el significado original de los textos.

Determinismo e indeterminismo
La pregunta sobre si nuestra realidad está inexorablemente determinada o si,
por el contrario, se encuentra librada al azar y la sorpresa ha sido una
preocupación constante en el ser humano a través de las diferentes épocas y
culturas. El determinismo como cuestión metafísica tuvo su origen en la
antigüedad clásica, asociado a la noción de destino inexorable o de fatalidad.
Durante el período medieval el problema del determinismo se insertó en la
discusión teológica, como tema subyacente en la doctrina de la predestinación.
Sin embargo, la cosmovisión determinista con fundamentos teóricos en la
ciencia es una comprensión moderna, concebida a partir de los éxitos
predictivos de la física de Newton y de la mecánica racional.
Durante el siglo XX, la cosmovisión científica se alejó considerablemente de
la imagen determinista del mundo-reloj asumiendo nuevas modalidades. Los
estudios sobre la naturaleza de las teorías científicas dieron lugar a
definiciones más precisas del determinismo, pero los grandes avances de la
física cuestionaron su naturaleza misma. Por un lado, el estudio de sistemas
altamente inestables resultó un obstáculo insalvable para quienes pretendían
obtener una predicción unívoca de todo estado futuro en todos los sistemas
reales. Por otro, la mecánica cuántica exigió una revisión del determinismo
clásico al introducir la aleatoriedad en el estrato fundamental de la realidad. El
desarrollo de la biología, además, introdujo también nuevas perspectivas de
análisis, por ejemplo, desde la genética y desde la biología sistémica.
Finalmente, la veracidad del testimonio de la conciencia que nos dice ser
dueños de nuestras decisiones volvió a ser acaloradamente discutida, ya que si
bien un mundo determinista la ponía en duda, un mundo indeterminista, en el
que el sustrato último de la realidad parece depender del azar, tampoco
asegura de suyo un rol demasiado relevante al libre albedrío. Así, la relación
entre el determinismo/indeterminismo y el libre albedrío dio origen
contemporáneamente al debate entre compatibilistas e incompatibilistas.
Pero la discusión sobre los resultados científicos que se refieren al
determinismo o al indeterminismo del mundo natural no atañe sólo a la
filosofía de la naturaleza y de la ciencia, sino también a la teología natural.
Esta relación se explicita sobre todo en la consideración de la acción
providente de Dios en el gobierno del mundo. En el apartado final, se
mencionan las nuevas perspectivas de análisis abiertas por la ciencia
contemporánea para el estudio de esta cuestión teológica.
1 Causalidad y determinismo   ↑
En sentido amplio, se entiende por causa a aquella realidad de la que depende
el ser o el hacerse de otra. Para la filosofía, causa es el principio real -no
meramente lógico- que influye positivamente en otra cosa (efecto), haciéndolo
depender de algún modo de sí: sin la causa el efecto no puede comenzar a ser
o subsistir. Toda causa tiene prioridad sobre su efecto según un orden de
naturaleza. En muchos casos, además, esta prioridad también supone una
anterioridad temporal.
La primera formulación del principio de causalidad -todo lo que se mueve es
movido por algo (Phys. VII, c. 1, 241b 24)- se debe a Aristóteles. La
aplicación rigurosa de este principio condujo a Aristóteles a proponer la
existencia de un Primer Motor, Acto Puro, causa primera y radical del
movimiento de los móviles. Posteriormente, Tomás de Aquino refirió este
principio al ser de las cosas –todo lo que no siempre fue, si comienza a ser,
necesita algo que sea causa de su ser (Compendium theologiae, c. 7). Según
él, la causalidad tiene vigencia tanto cuando algo empieza a ser de modo
absoluto, como en el inicio temporal de cualquier perfección -todo lo que
conviene a algo y no es de su esencia, le pertenece por alguna causa (Summa
contra gentiles, I, 22).
En el pensamiento de Aristóteles, la causalidad aparece principalmente al
considerar el aspecto dinámico del ser y su devenir, dando cuenta del paso de
la potencia al acto. Basándose en la relación de dependencia entre la causa y el
efecto menciona cuatro tipos de causas, distinguiendo: la causa formal
o quididad; la materia o el sujeto; la tercera, aquella de donde procede el
principio del movimiento; y la cuarta, la que se opone a ésta, es decir, la causa
final o el bien, que es el fin de cualquier generación o movimiento
(Metafísica, I, 3, 983a 25-33).
La causa eficiente en su sentido primordial tiene un sentido dinámico, referido
al movimiento y al hacerse de las cosas (Metafísica, VIII, 4, 1044a 32; Física,
II, 3, 194-195). Es decir, la acción de la causa eficiente no se debe entender
únicamente como motor del movimiento local, sino también interviniendo en
la generación de los seres, donde la causa eficiente ejerce una acción
transformadora sobre el compuesto sustancial afectando principalmente a la
forma, que es la que se pierde o adquiere en los individuos, tanto en la
generación sustancial como en las alteraciones accidentales.
Durante la época moderna el racionalismo mantuvo el principio de causalidad,
pero lo consideró bajo otra perspectiva: la idea de causa tendió a subordinarse
a la de razón e incluso a confundirse con ella. Con el empirismo la causalidad
abandonó el plano ontológico y se convirtió en una categoría gnoseológica. En
su Ensayo sobre el Entendimiento Humano, Locke afirma: “Aquello que
produce cualquier idea simple o compleja, lo denotamos por el nombre
general de causa, y aquello que es producido, por el nombre de efecto” (Libro
II, Cap. XXVI, Secc.I). Con Hume se completó el viraje y la relación causal se
asimiló a la mera conjunción entre la causa y el efecto (Tratado sobre la
Naturaleza Humana, Libro I, Parte III, Secc. II-III).
Con el nacimiento de la ciencia moderna las causas final, formal y material se
fueron ocultando en la discusión filosófica, de manera que la causalidad se
identificó con la causa eficiente. Los éxitos predictivos de la física de Newton
y de la mecánica racional condujeron a pensar que era posible agotar toda
descripción del universo desde el mecanicismo, reduciendo la causalidad a
una causalidad determinista y mecánica.

2 El mecanicismo en el siglo XIX   ↑


El mecanicismo de los siglos dieciocho y diecinueve concibió al mundo como
un gran sistema de relojería, cuyos estados evolucionan de un modo
inexorable a partir de un estado inicial, de manera que “aquellas partes del
universo ya establecidas señalan y decretan de un modo absoluto lo que serán
las otras partes (…) Cualquier otro futuro distinto de aquel que fue fijado
desde la eternidad es imposible. El todo se halla en todas y cada una de las
partes, engarzándose con el resto en una unidad absoluta, un bloque de hierro
en que no puede haber error, sombra, o vuelta atrás” (James 1897, 150).
El exponente más paradigmático del determinismo mecanicista fue Pierre-
Simon Laplace, quien en su Essai philosophique sur les probabilités formuló
hipotéticamente la existencia de una super-inteligencia capaz de calcular con
la misma precisión lo acaecido y el futuro a partir de una información
exhaustiva del universo en un instante cualquiera de su transcurso: “Hemos de
considerar el estado actual del universo como el efecto de su estado anterior y
como la causa del que ha de seguirle. Una inteligencia que en un momento
determinado conociera todas las fuerzas que animan a la naturaleza, así como
la situación respectiva de los seres que la componen, si además fuera lo
suficientemente amplia como para someter a análisis tales datos, podría
abarcar en una sola fórmula los movimientos de los cuerpos más grandes del
universo y los del átomo más ligero; nada le resultaría incierto y tanto el
futuro como el pasado estarían presentes ante sus ojos” (Laplace 1985 [1814],
25).
Los avances de la ciencia durante el siglo XX, sin embargo, señalaron diversas
limitaciones de esta comprensión mecanicista, que condujeron a distinguir
entre determinismo y causalidad. Distintos pensadores adoptaron posturas
diversas. Paulette Février consideró a la causalidad como una categoría del a
posteriori, relacionada con los encadenamientos entre acontecimientos
pasados, mientras que concibió el determinismo como una categoría del a
priori, relativa al porvenir y, por tanto, a la idea de previsión (Février 1957).
La posibilidad de nexos causales no deterministas también fue admitida por
autores como Louis de Broglie, uno de los padres de la mecánica cuántica (de
Broglie 1941). Otros pensadores, como Rudolf Carnap, asimilaron la
causalidad a la legalidad, y sostuvieron que el nexo causal es más general que
la idea de determinación (Carnap 1966). Para Mario Bunge, en cambio, el
principio causal es un caso particular del principio de determinación (Bunge
1978).

3 Determinismo e indeterminismo científico   ↑


Durante el siglo XX, la cosmovisión científica se alejó considerablemente de
la imagen determinista del mundo-reloj asumiendo nuevas modalidades
(Vanney 2013, Vanney y Lombardi 2015, Vanney y Franck 2016). Los
estudios sobre la naturaleza de las teorías científicas dieron lugar a
definiciones más precisas del determinismo, y los grandes avances de la física
cuestionaron su naturaleza misma. Por un lado, los sistemas caóticos
resultaron un obstáculo insalvable para quienes pretendían obtener una
predicción unívoca de todo estado futuro en todos los sistemas reales. Por
otro, la mecánica cuántica exigió una revisión del determinismo clásico al
introducir la aleatoriedad en el estrato fundamental de la realidad. El
desarrollo de la biología, además, también introdujo nuevos elementos de
análisis, tanto desde las perspectivas genéticas como sistémicas.

3.1 El determinismo en las formulaciones teóricas   ↑


A comienzos del siglo XX las teorías físicas fueron consideradas como un
conjunto de enunciados articulados deductivamente, que constituían un
sistema axiomático. Desde esta perspectiva sintáctica, los elementos
primitivos y las hipótesis de partida (leyes fundamentales o principios) de la
teoría son adoptados sin demostración, y a partir de ellos es posible deducir un
conjunto de enunciados singulares -consecuencias observacionales- que
permiten el testeo empírico de la teoría (Klimovsky 1994). Por ejemplo: las
nociones de espacio, tiempo, masa y fuerza son los elementos primitivos de la
mecánica, y las tres ecuaciones de Newton son sus leyes fundamentales; la
teoría electromagnética añade a los elementos primitivos de la mecánica
clásica la noción de carga eléctrica, siendo las cuatro ecuaciones de Maxwell,
junto con la fuerza de Lorentz, las leyes fundamentales de la teoría.
Al asumir que las teorías físicas son sistemas axiomáticos, conviene distinguir
las dimensiones sintáctica y semántica. La dimensión sintáctica es el resultado
de las relaciones formales entre los símbolos del sistema. La dimensión
semántica, en cambio, se manifiesta en la interpretación del sistema
axiomático mediante una correspondencia de cada símbolo con su referente.
Los autores que adoptan una concepción sintáctica de las teorías científicas
consideran que el determinismo es una característica del lenguaje científico, y
buscan deducirlo desde la estructura proposicional de las teorías. Ernst Nagel,
por ejemplo, sostuvo que una teoría es determinista si y solo si el conjunto de
proposiciones que especifican el estado del mundo en un instante t, junto con
una serie de proposiciones nomológicas (leyes) obtenidas en la teoría,
permiten obtener deductivamente proposiciones que caracterizan el estado del
mundo en otro instante t′ (Nagel 1953). Es decir, para la concepción sintáctica
el determinismo no es una característica de la realidad física, sino una
consecuencia de la estructura del lenguaje teórico de la ciencia.
La concepción semántica de las teorías, en cambio, sostiene que ni las teorías
son entidades lingüísticas, ni los recursos de un determinado lenguaje son
instrumentos apropiados para individuar las teorías. Para los autores que
defienden esta posición, la identidad de una teoría científica no depende de su
particular presentación formal, sino que está dada por una colección de
modelos que representan a los fenómenos (Suppe 1989). Así, una misma
teoría puede utilizar diferentes formalismos, siempre que estos definan una
misma clase de modelos. Desde esta perspectiva, Richard Montague propone
una acepción semántica del determinismo: una teoría T es determinista si y
sólo si dos modelos cualesquiera de T que coinciden en un instante t0,
coinciden para todo instante t (Montague 1974).
En ambos casos, el determinismo es una característica de las ecuaciones
dinámicas que rigen la evolución del estado del sistema físico. En 1986 John
Earman propuso clasificar las diversas teorías físicas en deterministas o
indeterministas a partir del análisis de sus ecuaciones dinámicas (Earman
1986). Para realizar esta clasificación, consideró que un sistema es
determinista si dado el valor de las variables dependientes en un cierto
instante, las ecuaciones dinámicas fijan de un modo unívoco el valor de dichas
variables para todo instante. Es decir, el carácter determinista de una teoría
científica particular se asocia a la existencia de soluciones únicas para las
ecuaciones dinámicas. Cuando las soluciones posibles son únicas hay
determinismo, pues la evolución del sistema resulta establecida, y en caso
contrario no. Pero aunque la propuesta de Earman resulta clara, no es trivial
clasificar las teorías físicas según este criterio, pues nociones importantes –
como la de sistema o la de estado– no suelen estar definidas con la precisión
que sería necesaria. Así, incluso dentro de una misma teoría suele quedar
abierta la posibilidad de formular legítimamente el determinismo de maneras
diversas, requiriendo de un juicio interpretativo para elegir la mejor
formulación (Lombardi 2002, Bishop 2005).

3.2 Sistemas caóticos e indeterminismo gnoseológico   ↑


El paradigma determinista mecanicista prevaleció en la física sin
cuestionamientos hasta que Henri Poincaré encontró limitaciones intrínsecas
en la predicción de la evolución temporal de algunos sistemas mecánicos. Fue
a fines del siglo XIX cuando Poincaré demostró que no existe una solución
analítica no perturbativa que permita resolver el movimiento de tres cuerpos
celestes. Pues si bien con el método perturbativo es posible alcanzar una
precisión en la predictibilidad de hasta veinte decimales correctos, este
método no puede ofrecer una precisión mayor, porque no converge
analíticamente (Poincaré 1982).
Se suele decir que poseemos un conocimiento determinista de un sistema
cuando la información que tenemos de su estado en un instante dado permite
conocer unívocamente todos los estados en los instantes posteriores dentro de
un margen de error acotado por el interés particular que mueve la
investigación (Lombardi 1998, 72). Pero el estudio de los sistemas caóticos
puso fuertemente a prueba esta posibilidad. Pues si bien en los sistemas
mecánicos siempre es posible calcular la evolución temporal de las
imprecisiones iniciales de las diversas variables, las incertidumbres finales
dependen en gran medida de las características de las ecuaciones de
movimiento. Cuando las ecuaciones que rigen la evolución temporal de un
sistema físico son lineales, las predicciones de su evolución posterior se
mantienen dentro de un rango de error acotado. En los sistemas caóticos, en
cambio, el desconocimiento exacto del estado inicial hace imposible predecir
la evolución temporal de cada una de las partículas que lo componen. Debido
a que, en estos sistemas, el movimiento de las partículas está regido por
ecuaciones muy sensibles a las condiciones iniciales, las trayectorias que
siguen dos puntos inicialmente muy cercanos entre sí divergen
exponencialmente (y no linealmente) con el transcurso del tiempo, de manera
que las pequeñas incertidumbres iniciales son amplificadas exponencialmente
(Bishop 2015).
Así, para sostener un determinismo en la dinámica de los sistemas caóticos se
requiere una interpretación peculiar. Como es posible predecir
estadísticamente de un modo holístico los estados futuros, los procesos
aparentemente aleatorios macroscópicamente se pueden interpretar como
respuestas de leyes deterministas microscópicas subyacentes, responsables de
restaurar la dependencia temporal unívoca entre los estados del sistema.
Cuando se considera que la estadística tiene la exclusiva función de permitir el
tratamiento de sistemas muy complejos con un número enorme de grados de
libertad, la probabilidad se puede concebir como la expresión de nuestra
ignorancia acerca de los procesos perfectamente deterministas que estarían
siguiendo un sinnúmero de elementos inobservables (Lombardi 1998).
El estudio de los sistemas caóticos ha dado así lugar a un nuevo tipo de
indeterminismo, el indeterminismo gnoseológico. Este indeterminismo no se
fundamenta en la existencia de distintas trayectorias posibles para el sistema,
sino en la imposibilidad de conocer el valor de ciertas magnitudes con una
precisión absoluta. Es decir, el indeterminismo gnoseológico simplemente
afirma que se ignora una información relevante.
Aunque un determinismo gnoseológico resulta difícilmente sostenible referido
al conocimiento humano, no es un argumento incuestionable a favor del
indeterminismo. Por ejemplo, el indeterminismo gnoseológico es compatible
con un determinismo de las teorías científicas. El siguiente texto de Pierre-
Simon Laplace ejemplifica esta afirmación: “la curva descrita por una simple
molécula de aire o de vapor está determinada de una forma tan exacta como
las órbitas de los planetas. Entre ellos no hay más diferencia que la derivada
de nuestra ignorancia. La probabilidad es relativa en parte a esta ignorancia y
en parte a nuestros conocimientos” (Laplace 1985 [1814], 27). Como también
este texto de Charles Darwin: “Hasta aquí he hablado a veces como si las
variaciones […] fuesen debidas a la casualidad. Esto, por supuesto, es una
expresión completamente incorrecta, pero sirve para reconocer llanamente
nuestra ignorancia de la causa de cada variación particular” (Darwin 1983
[1859], 189).

3.3 Física cuántica e indeterminismo en la naturaleza   ↑


Si el estudio de los fenómenos caóticos puso en cuestionamiento el paradigma
mecanicista, la mecánica cuántica lo hizo aún más. Al introducir la
aleatoriedad en el estrato fundamental de la realidad, se abrieron las puertas a
la consideración de un indeterminismo en la naturaleza misma, es decir, a un
indeterminismo ontológico.
Pero los resultados no son concluyentes. A pesar de sus enormes éxitos
predictivos parece difícil encontrar en la historia de la ciencia una teoría que
haya despertado mayores controversias respecto de su interpretación como lo
hizo la física cuántica. Transcurridos ya más de noventa años desde sus
primeras formulaciones, el problema de la interpretación del formalismo
cuántico persiste aún como un desafío abierto (Vanney 2015) puesto que las
distintas interpretaciones ni siquiera ofrecen una visión unánime sobre el
estado cuántico.
La función de onda representa matemáticamente el estado cuántico de un
sistema físico, brindando información sobre los estados posibles del sistema y
sus respectivas probabilidades. Sin embargo, aunque la visión estándar de la
mecánica cuántica considera que la función de onda describe un conjunto de
eventos posibles, todavía no hay acuerdo acerca de su significado ontológico
(Pusey, Barrett y Rudolph 2012). Algunos autores sostienen que la función de
onda es real, mientras que otros niegan su realidad objetiva.
Aunque el principio de indeterminación de Heisenberg es un principio
fundamental de la teoría, la función de onda evoluciona según la ecuación
determinista de Schrödinger. Así, algunos autores se apoyan en las
características de la ecuación de Schrödinger para afirmar que el universo
entero, concebido como un sistema cuántico aislado, evoluciona de un modo
totalmente determinista. Otros, en cambio, destacan que no es posible predecir
unívocamente el valor que adquieren las magnitudes de un sistema cuántico,
sino sólo inferirlas probabilísticamente.
Por otra parte, una de las primeras dificultades que se presentan a la hora de
alcanzar una interpretación adecuada de los fenómenos cuánticos es el
problema de la medición. Medir, en general, consiste en asignar
experimentalmente un valor cuantitativo a una magnitud observable. La
medición no supone un problema en la física clásica, porque en ella, cuando se
mide la misma variable en un mismo sistema, se obtiene siempre el mismo
resultado. En un contexto cuántico, en cambio, pueden obtenerse varios
resultados distintos cuando se repite una misma medición. La teoría cuántica
sólo permite calcular la probabilidad de obtener un resultado particular, de
manera que el núcleo del problema de la medición cuántica consiste en
explicar por qué en una ocasión determinada se obtuvo un resultado específico
(Krips 2013). Este problema ha jugado un papel central en el debate Einstein-
Bohr, estableciendo además el contexto para varias de las paradojas de la
teoría, como la paradoja del gato de Schrödinger y la paradoja Einstein-
Podolsky-Rosen (Wheeler y Zureck 1983). Explicar adecuadamente la
medición cuántica es, aún hoy, una de las mayores preocupaciones
interpretativas de la teoría.
El problema de la medición atañe directamente a la cuestión del determinismo.
Mientras que los enfoques deterministas asumen la existencia de una conexión
unívoca entre las propiedades del sistema físico a lo largo del tiempo, el
problema de la medición revela una peculiaridad de los sistemas cuánticos:
éstos no poseen en cada instante todas sus propiedades definidas. No es
posible atribuir entonces simultáneamente un carácter descriptivo y
disposicional al estado cuántico, requisitos indispensables de toda teoría
determinista entendida en sentido tradicional (Fortin 2015).
Desde el surgimiento de la mecánica cuántica se propusieron diversos
formalismos, interpretaciones, y variantes de la teoría en busca de una
solución del problema de la medición. Para explicarlo, por ejemplo, algunas
interpretaciones de la mecánica cuántica asumen un colapso de la función de
onda. Pero ni todas las interpretaciones aceptan la hipótesis del colapso, ni las
distintas interpretaciones brindan una respuesta unánime sobre el
indeterminismo. Para algunas interpretaciones, como la de Copenhague (Faye
2014) o las interpretaciones modales (Lombardi y Dieks 2014), el
indeterminismo cuántico es una propiedad intrínseca del mundo natural. Otras
interpretaciones, en cambio, consideran que el indeterminismo es una mera
manifestación de que ignoramos cierta información relevante, o que es una
consecuencia de las limitaciones de nuestras teorías actuales. Entre estas
últimas se encuentran la interpretación bohmiana (Goldstein 2013) y la
everettiana (Bevers 2011). Para un tercer grupo, por ejemplo las
interpretaciones estadísticas (Home y Whitaker 1992), las teorías científicas
no estarían en condiciones de afirmar o de negar un determinismo o un
indeterminismo en el mundo natural.

3.4 Determinismo genético y complejidad biológica   ↑


Las discusiones acerca de la relación que existe entre las micro-evoluciones y
las macro-evoluciones pronto se trasladaron de la física a la biología. Los
avances de la biología molecular condujeron a planteamientos reduccionistas,
que aspiraron a conducir todas las explicaciones biológicas al ámbito de la
biología molecular. Si bien el reduccionismo genético clásico (Monod 1970)
abrió las puertas a perspectivas indeterministas al introducir el azar, para el
determinismo genético posterior los genes determinan por completo la
morfología y el comportamiento de los fenotipos (Dawkins 1976). Sin
embargo, ni existen leyes de la biología que puedan ser reducidas a leyes de la
biología molecular, ni los genes y el ADN logran satisfacer los criterios de
reducción de un modo adecuado. Actualmente no faltan biólogos
antirreduccionistas que consideran apropiadas las explicaciones de la
macrobiología, y consideran que tienen una autonomía suficiente como para
no requerir ser corregidas, completadas o sustentadas por explicaciones a nivel
molecular (Rosenberg 2007).
Durante las últimas décadas los científicos han descubierto que la información
almacenada en el genoma está regulada en gran medida por factores
epigenéticos. Las aproximaciones epigenéticas asumen los componentes
genéticos de la innovación, como las variaciones genéticas o el gen regulador
de la evolución, pero se concentran en intentar explicar los mecanismos que
subyacen en la generación de novedades (Müller 2010, López-Moratalla y
Cerezo 2011). Actualmente el paradigma epigenético es aceptado sin
cuestionamientos, a pesar de que todavía no hay un modelo explicativo que
pueda dar cuenta de un modo preciso de la dinámica del sistema como un todo
(Madhani et al. 2008, Ptashne, Hobert y Davidson 2010).
El indeterminismo fue introducido en las explicaciones biológicas dentro del
contexto de los fenómenos complejos y de los procesos de auto-organización
(Hooker 2011). Las perspectivas evolutivas, sistémicas y organizacionales de
la complejidad biológica abrieron nuevos caminos para el estudio de las
funciones orgánicas, que permitieron considerar las teorías evolutivas no sólo
desde la biología molecular –asumiendo una selección natural sobre una base
genética–, sino también a la luz del desarrollo y la auto-organización de los
seres vivos.
La consideración de una dimensión estocástica o aleatoria a nivel
microscópico junto con una determinación funcional de las partes y del
sistema a nivel macroscópico implicó el reconocimiento de un principio de
orden u organización en los vivientes, y permitió aplicar la teoría de sistemas
al estudio de los seres vivos (Von Bertalanffy 1950, 1986, Boogerd et al.
2007). Actualmente, para algunos autores, la indeterminación que se percibe
en las ciencias de la vida se debe no tanto a la contingencia de las propiedades
de la materia biológica, sino principalmente al modo específico que es propio
de la emergencia de propiedades sistémicas (Bertolaso 2013).
4 Determinismo, indeterminismo y libre albedrío   ↑
La investigación neurocientífica actual también abre un nuevo capítulo en el
problema del determinismo. La asociación que hoy podemos establecer, cada
vez con mayor detalle, entre funciones neurales y actos mentales, lleva a
plantearse el nada despreciable problema de la naturaleza de la conciencia y
de aquellos actos de los que nos consideramos autores. Los experimentos de
Libet y otros similares (Libet 1985, Haggard y Eimer 1999, Soon 2008)
forzaron a examinar nuevamente el problema, aunque las diversas posiciones
son independientes de ese tipo de resultados y a menudo no lo consideran
(Mele 2015).
Una descripción preliminar de lo que entendemos por libre albedrío le
reconoce dos notas: (a) que dependa de nosotros realizar (o no) una acción
determinada, y (b) que el origen de la acción esté en nosotros mismos. Es
evidente que el determinismo en sus diversas formas podría ser un obstáculo
contra la posibilidad del libre albedrío así entendido, ya sea que el universo
estuviera regido por una física determinista, que nuestras acciones resultaran
de la herencia genética, de motivaciones inconscientes, de la educación, de
condicionamientos sociales, del destino o de un decreto divino. Sin embargo,
y aunque indudablemente el tema del determinismo o del indeterminismo
gravita sobre el libre albedrío, algunos, como Galen Strawson (1986),
sostienen que debería ser resuelto por la ciencia y que no necesariamente
debería modificar nuestra concepción del libre albedrío. Por eso la discusión
filosófica se ha centrado mayormente en la cuestión de la compatibilidad de la
existencia de la libertad en un caso y en otro. Las posiciones se dividen
lógicamente en compatibilistas e incompatibilistas. Entre las últimas, el
libertarismo afirma la realidad del libre albedrío y defiende en consecuencia el
indeterminismo, mientras que el determinismo duro la niega.
En esta sección nos ceñiremos a una presentación de los argumentos
esgrimidos durante el último medio siglo, ya que la discusión actual en torno
al determinismo se ha inscripto en ese marco. La denominación de ‘clásico’
remite por consiguiente a las primeras posiciones dentro de ese debate, que no
necesariamente coinciden con las concepciones de aquellos autores antiguos
(Platón, Aristóteles, Epicuro), medievales (Agustín, Anselmo, Tomás) o
modernos (Hobbes, Spinoza, Leibniz, D’Holbach, Hume, Kant) que han
signado la discusión previa.

4.1 Compatibilismo y libertarismo clásicos   ↑


El incompatibilismo que afirma la realidad del libre albedrío, es decir el
libertarismo, ha argumentado de diversas maneras que es esencial al acto libre
y responsable contar con lo que se ha llamado ‘posibilidades alternativas’, es
decir que el sujeto hubiese podido obrar de otra manera a como lo hizo. Es
clásico el argumento modal o de consecuencia (Ginet 1966, van Inwagen
1983). El mismo parte de considerar que si rigiera un determinismo causal,
como ni el pasado ni las leyes naturales están en nuestro poder, tampoco lo
estarían nuestras acciones y en ningún caso podríamos haber obrado de otra
forma. Obviamente, de ahí no se infiere ni la veracidad ni la falsedad del
testimonio de nuestra conciencia a favor de la realidad del libre albedrío, pero
sí su imposibilidad en un mundo determinista.
El compatibilismo clásico (e.g. Ayer 1954) intenta desarmar el argumento
apoyándose en los condicionales contrafácticos. Parte de una concepción
diferente de libre albedrío y sostiene que un agente es libre si puede hacer lo
que quiere y nada se lo impide. Pero puesto que poder hacer una cosa no
implica efectivamente hacerla, ese poder debe entenderse en términos
condicionales: el agente lo haría si quisiera hacerlo. Y eso equivale a decir que
puede obrar diversamente, de modo que las posibilidades alternativas se
expresan mediante un condicional: que el agente habría podido obrar de
manera diferente a como lo hizo equivale al condicional según el cual lo
habría hecho si lo hubiera querido. Pero el condicional se mantendría
verdadero aun en el caso de que su querer estuviera determinado, ya que
también en ese caso se podrá decir que si hubiese querido, habría obrado
diversamente. El principio de posibilidades alternativas se limitaría entonces a
reconocer que el agente habría obrado diversamente si algún acontecimiento
en el pasado, en este caso su querer o decisión, hubiese sido distinto. Por lo
tanto, el principio mantiene su verdad en un escenario determinista.
Entre las críticas que se pueden mencionar a este uso de los condicionales,
está la formulada por Roderick Chisholm (1964). En síntesis, Chisholm razona
que el condicional (a) ‘alguien habría obrado diversamente si lo hubiera
elegido’ no equivale a decir que (b) ‘habría podido obrar diversamente’, salvo
que sea verdadero que (c) ‘habría podido elegir obrar diversamente’. Pero si
(c) no fuese verdadero, se mantendría la verdad de (a), como sostiene el
compatibilista, pero no la de (b). Por consiguiente, (a) y (b) no son
equivalentes y el intento de expresar el requisito de las posibilidades
alternativas mediante un condicional es erróneo.

4.2 Nuevos argumentos compatibilistas   ↑


Más recientemente los compatibilistas han propuesto dos nuevos tipos de
argumentos para cuestionar la idea de que el libre albedrío implica obrar de
acuerdo a posibilidades alternativas: los ejemplos de personajes (character
examples) y los ejemplos de tipo Frankfurt. El primer tipo de argumentos se
remonta a Dennett (1984) y consiste en decir que hay opciones que son
resultado de las acciones de toda una vida. En esos casos el sujeto no podría
obrar diversamente, pero eso no quita libertad a su opción, en el sentido de
que sigue siendo moralmente responsable. Es más, parecería que solamente en
dichos casos puede asumir verdadera responsabilidad por sus acciones. Un
ejemplo típico sería Lutero al romper definitivamente con Roma. Al decir “No
puedo hacer otra cosa” no se quitaba de encima la responsabilidad, sino que la
asumía plenamente. No obstante, a esto puede responderse que en algún
momento de su vida Lutero sí pudo haber actuado diversamente y es de ese
modo que se fue haciendo responsable también de sus futuras decisiones. Si
nunca hubiera podido obrar de otra manera, difícilmente podría hablarse de
una responsabilidad moral y, por consiguiente, tampoco de verdadera libertad.
No es necesario que dicha posibilidad esté presente en todas las acciones, pero
sí al menos en algunas (Kane 1996). Kane habla en este contexto de acciones
auto-formadoras (self-forming actions), es decir aquellas acciones de las que
el agente es ‘últimamente responsable’ –otra expresión acuñada por Kane– y
mediante las cuales forja su propia personalidad, predisponiéndose para obrar
de una determinada manera en el futuro. Si ninguna de esas acciones hubiese
estado en poder del agente, no cabría hablar de libertad ni de responsabilidad.
El otro tipo de argumentos ha recibido variadísimas formulaciones desde que
fue formulado por primera vez en 1969 por Harry Frankfurt, quien dio nombre
también al principio de posibilidades alternativas. Se trata de una serie de
ejemplos en los que un agente, Jones, ha decidido realizar una determinada
acción, pero luego es forzado, amenazado o hipnotizado para realizar esa
misma acción. El escenario hace posible que el agente sea responsable de su
acción, puesto que la realiza intencionalmente, sin tener verdaderas
posibilidades alternativas. El ejemplo que se ha vuelto famoso es el del
siniestro Black, quien es capaz de controlar a Jones mediante una poción,
hipnosis o incluso manipulando su cerebro. Si Jones hace lo que Black quiere,
este no interviene, pero si advierte que Jones va a hacer algo distinto, entonces
echa mano de sus artes para controlarlo. En el primer caso Jones es
plenamente responsable pero no puede decirse que disponga de posibilidades
alternativas ni que pudiera obrar diversamente. El argumento de consecuencia
sería inválido y el compatibilismo saldría victorioso. Una defensa de la validez
de estos ejemplos se encuentra en Mele y Robb (1998).
John Martin Fischer (1994, 2007) defiende una versión semejante a la de
Frankfurt, pero distingue entre ‘posibilidades alternativas’, requisito de la
libertad, y el ‘principio de posibilidades alternativas’, que afirma que la
responsabilidad moral requiere posibilidades alternativas. Fischer distingue
entre un control regulativo de nuestras acciones, que consistiría en poder
determinar por sí mismo los acontecimientos, y un control guía, suficiente
para la responsabilidad, que implica que el agente actúa por sí mismo de
acuerdo a razones. En los ejemplos tipo Frankfurt este segundo tipo de control
puede darse en algunas secuencias actuales de acontecimientos. Fischer
sostiene que en un mundo determinista no tendríamos el primer tipo de control
pero sí el segundo y de ese modo intenta retener la intuición central del
incompatibilismo, que al obrar el agente sea dueño de su acción, pero dentro
de una visión compatibilista, en la que rija el determinismo y no haya por lo
tanto verdaderas posibilidades alternativas. Es decir, que podríamos ser
moralmente responsables sin ser propiamente libres, como en los casos
planteados por Frankfurt. De ahí que denomine semicompatibilismo a su
posición.
Más recientemente, Carolina Sartorio (2015) propone un modelo
compatibilista basado en las cadenas causales actuales y prescindiendo de la
intención del agente. La propuesta continúa la concepción de libertad de
Fischer y Ravizza (1998). Pongamos el siguiente caso: un jinete monta un
caballo desbocado y al llegar a una encrucijada en la que se presentan varios
caminos, movido por su encono contra los romanos, desvía el caballo por uno
de ellos creyendo que es el único que conduce a Roma. En el camino hiere a
varios romanos. Según Sartorio, si es verdad que solo un camino lleva a
Roma, entonces su acción causa el daño, pero si todos los caminos conducían
igualmente a Roma, entonces su acción no es la causa del daño infligido a los
romanos, independientemente de lo que el jinete creyera, porque de todas
formas los habría atropellado. Aparentemente, las cadenas causales son
idénticas (el jinete desvía el caballo por un camino con la intención de herir
romanos), pero un dato extrínseco a la acción, a saber si es verdad que solo un
camino o todos ellos llevan a Roma, alteraría en realidad la cadena causal
actual y sería decisivo para la atribución de responsabilidad al jinete. El
principio de posibilidades alternativas no es entonces tan relevante porque en
ningún caso podría haber obrado diversamente. Lo determinante es el control
que el agente tiene sobre sus acciones, un control que podría conservar
también en un mundo determinista.
Otras estrategias compatibilistas son las que ven la libertad, y la consiguiente
responsabilidad, en las ‘actitudes reactivas’ (P. Strawson 1962) y en las
‘voliciones de segundo orden’ (Frankfurt 1971). Las actitudes reactivas son
los sentimientos morales del sujeto ante una situación u otra persona, como ser
gratitud, indignación, deseo de venganza, resentimiento, etc. Aunque la acción
haya sido resultado de leyes deterministas, esos sentimientos constituyen un
elemento inherente a nuestras relaciones interpersonales y no pueden reducirse
ni a su utilidad ni a su racionalidad objetiva. Las voliciones de segundo orden
implican una teoría jerárquica de la voluntad y fueron introducidas por
Frankfurt para designar la posición que el sujeto adopta ante sus propios
motivos para actuar. Lo que mueve inicialmente al agente a obrar es muchas
veces un impulso, una costumbre o una tendencia con la que él mismo puede
estar o no de acuerdo reflexivamente. La acción es libre cuando es conforme a
estas voliciones de orden superior.
Ahora bien, se puede oponer a estos argumentos que tanto las reacciones
como las voliciones de primer y también de segundo orden podrían estar
determinadas o resultar de una manipulación, de modo que se desdibujaría ese
rasgo del acto libre según el cual el agente debería tener el control de su
acción. De ese modo, el determinismo seguiría siendo un problema para un
compatibilista que adoptara alguna de esas estrategias. Para evitar este tipo de
críticas se ha propuesto que el agente obra libremente cuando los motivos por
los que obra están de acuerdo con sus verdaderas creencias (Watson 1975), o
cuando obra lo correcto por las razones adecuadas (Wolf 1990). En ambos
casos sería innecesario apelar a la indeterminación de la voluntad que propone
el incompatibilismo, aunque es posible que el fantasma de la manipulación de
esos motivos, creencias o razones no haya desaparecido del todo.

4.3 El incompatibilismo y la causalidad propia del agente   ↑


Entre las teorías incompatibilistas, el libertarismo tiene los mayores desafíos,
ya que debe resolver tanto el problema del determinismo como la cuestión de
la compatibilidad. En efecto, tiene que mostrar que ni el determinismo ni el
compatibilismo son verdaderos. Pero se enfrenta además a un problema
adicional, que se ha llamado la ‘cuestión de la inteligibilidad’, estrechamente
vinculado al del origen o fuente de la acción. La crítica incompatibilista al
determinismo que consiste en observar que si nuestras acciones fueran
totalmente consecuencia de sucesos en el pasado y de las leyes de la
naturaleza, no estarían en nuestro poder y no podrían entonces decirse libres,
tiene como contrapartida la afirmación de que hacia el futuro debe existir un
indeterminismo causal, al menos el suficiente para que el curso del universo
no esté fijado completamente de antemano y que se abra verdaderamente ante
el agente un “jardín de senderos que se bifurcan”, al decir de Borges.
Cuando se trata de seres inanimados, se entiende que la causalidad ocurre
mediante eventos o acontecimientos que producen otros eventos o
acontecimientos (e.g. la elevada temperatura hace comenzar la combustión de
un determinado material, que a su vez prende fuego a un árbol, etc. etc.), pero
el tipo de causalidad que entra en juego para decidir la responsabilidad de una
persona parecería diferente, porque consiste en la acción de un agente. Ahora
bien, si el agente ha de realizar un movimiento corporal para ejecutar la
acción, estarán sin duda involucrados eventos neurales, los cuales tienen
normalmente como causa otros eventos neurales. Para evitar la
sobredeterminación causal y ser responsable de la acción, el agente debería
causar directamente el evento neural que desencadena el movimiento
necesario para realizar dicha acción. Pero una causación directa por parte de
un agente que no involucre un evento concreto en el cerebro, parece
difícilmente inteligible, además de innecesaria, puesto que dicho evento
desencadenante del movimiento bien podría haber sido producido por otro
evento, no por un agente. ¿Qué agregaría la causalidad del agente? Si no tiene
otro evento como causa, ¿no daría lo mismo decir que ocurrió sin causa, que
simplemente sucedió?
Entonces, si del determinismo causal se sigue la negación de la libertad
(pace los compatibilistas), el indeterminismo parecería implicar que las
acciones no tienen causa. Por supuesto, el libre albedrío no saldría beneficiado
con esa explicación, aunque pareciera sustraído al determinismo causal,
porque quedaría sujeto a lo que se ha llamado la ‘suerte moral’ (moral luck),
tanto para bien como para mal (Nagel 1979). La aceptación de que existe una
causalidad propia del agente, como distinta de la propia de los eventos, se
ubica entre ambos extremos. En opinión de Chisholm, es necesario aceptar el
agente como causa que resuelva la indeterminación a la manera de un ‘motor
inmóvil’. Por otra parte, la misma dificultad que encuentra la causalidad del
agente se puede aplicar a todo tipo de causalidad: ¿qué agrega la noción de
causa a una serie de acontecimientos que suceden uno luego del otro?
(Chisholm 1964) En este sentido, es ilustrativo considerar la opinión de que es
justamente la experiencia que el agente tiene de generar su propia acción lo
que proporciona la noción de causa, que serviría luego de paradigma para
aplicar a las cosas inanimadas (Reid 1969 [1788]).
Entre quienes son partidarios de recurrir a una causalidad propia del agente,
Randolph Clarke (2003) propone entenderla según su papel en la acción
intencional, siendo intenciones, motivos y razones eventos desencadenantes de
acciones. La causalidad sería una relación entre causa y efecto, al igual que
entre eventos, con la diferencia de que el agente tendría el estatuto ontológico
de una sustancia. De ese modo, que el agente sea causa significaría que ocupa
un lugar especificado en la relación de causalidad que tiene como efecto una
determinada acción. Timothy O’Connor (2000), en cambio, reclama una
causalidad más clara para el agente, que debería ser causa directa de la acción,
no mediante sus intenciones, sino en virtud de un poder causal propio.
Jonathan Lowe también sostiene que el agente sería causa directa de la acción
y que su necesidad podría probarse contracausalmente. Los eventos neurales y
fisiológicos necesarios para que la acción se realice tienen su origen también
en el agente de modo general, aunque no pueda determinarse cuáles
específicamente ocurrirán (el agente no determina qué neuronas dispararán ni
en qué lugar exacto la mano se posará sobre el picaporte), pero si el agente no
hubiera ejercido su causalidad propia, nada de eso habría ocurrido (Lowe
2008).
Alfred Mele admite la causalidad del agente pero no ve necesario adherir al
incompatibilismo. Su posición parte de pensar al agente libre como autónomo,
es decir como aquel que tiene un control ideal sobre sus acciones y que no está
sujeto a manipulación o control por parte de otros. La decisión que sigue a la
deliberación es esencial al libre albedrío, pero en esa deliberación se calibran
razones y motivos que pueden surgir frente al agente de diversas formas:
pueden ser causados determinísticamente por el mismo proceso deliberativo o
pueden surgir de manera indeterminista en la mente de la persona que
delibera, sea aleatoriamente sea como consecuencia de razones y motivos
causados por ese proceso. El agente es autónomo y conserva el control de su
acción cuando inclina la balanza hacia unos u otros, pero ese control no tiene
que ser último, en el sentido de Kane. Así se elude el problema de la ‘suerte’
moral, admitiendo un modesto indeterminismo interior al agente, el cual
mediante sus decisiones va contribuyendo a forjar su carácter. Si el acento se
pone sobre el control y la autonomía, Mele sostiene, es posible ser agnóstico
respecto del determinismo y del indeterminismo, conservando las ventajas de
ambos sin ser compatibilista ni libertario (Mele 1995, 2002).
Otros indeterministas apelan a los motivos o razones para actuar como forma
de explicar nuestras acciones, sin necesidad de acudir a la causalidad (Ginet
1990). Robert Kane se diferencia de Ginet en que sostiene que las razones
para actuar ejercen una cierta forma de causalidad, aunque no sea una
causalidad distinta de la propia de los eventos. Las razones no causan
necesariamente pero sí inclinan más o menos, de acuerdo al carácter del
agente (Kane 1996). Es interesante mencionar en este contexto el llamado
argumento del ‘agente que desaparece’ (disappearing agent), que consiste
precisamente en decir que si toda causalidad es del tipo evento, el agente no
hace nada para que se dé la acción y, por consiguiente, no tiene ninguna
responsabilidad sobre ella (Pereboom 2012). Su autor, sin embargo, lo emplea
para esgrimir la idea de que, como la causalidad no es algo real, nadie es
responsable de sus acciones.
Eleonore Stump (1996) reconoce que los ejemplos tipo Frankfurt tienen éxito
frente a la exigencia de posibilidades alternativas, pero argumenta que el
incompatibilismo no necesita mantener esa exigencia. Le basta con sostener
que la cadena causal que resulta en una acción no proviene de fuera del agente
y que la causa última del acto son las facultades cognitivas del agente y su
voluntad. De modo semejante, en la defensa del incompatibilismo Kevin
Timpe subordina el principio de posibilidades alternativas al problema del
origen o fuente de la acción. Las posibilidades alternativas serían un resultado
de satisfacer la condición de ser fuente de la acción en la secuencia actual de
acontecimientos, y una condición de la secuencia actual es que el agente sea
sensible a razones para actuar y decida de acuerdo a ellas (Timpe 2008).
El debate va mostrando paulatinamente que en cuanto al libre albedrío se
refiere, una verdadera distinción entre causalidad propia de eventos y propia
de agentes exige considerar específicamente la naturaleza del agente racional,
que decide en base a razones para actuar pero sin abandonar en estas ni en sus
motivos la decisión por el curso a seguir (Gasser 2014).
Distanciándose de muchos autores, Murphy y Brown (2007) sostienen que el
problema del determinismo es secundario, no tanto porque la realidad o no del
libre albedrío se resolvería con independencia de él, sino porque afectaría
solamente a niveles inferiores de un sistema complejo como es el agente. A su
vez, no sería necesaria una causalidad propia del agente, ya que el libre
albedrío consistiría en la facultad de un sistema complejo tomado como un
todo, no en una parte de ese sistema ni en una propiedad de un individuo que
actuaría sobre otras partes de un sistema. El libre albedrío ejercería una
causalidad arriba-abajo (top-down o downward) sobre niveles inferiores, que
podrían tener perfectamente un comportamiento determinista. El problema no
sería el determinismo entonces, sino el reduccionismo neurobiológico.

4.4 El determinismo duro   ↑


Mientras que los deterministas duros clásicos afirman el determinismo y
niegan al hombre libertad en sentido fuerte, que implique la responsabilidad
sobre nuestras acciones, los defensores contemporáneos del determinismo
duro prefieren dejar el problema del determinismo a la discusión científica.
Niegan la existencia del libre albedrío pero no por afirmar la verdad del
determinismo sino por sostener que es incompatible tanto con el determinismo
como con el indeterminismo. Contrariamente a quienes son optimistas
respecto de las posibilidades de una mecánica cuántica indeterminista de
favorecer la realidad del libre albedrío (Hameroff 2012), sostienen que si el
indeterminismo tuviera lugar en el nivel micro-físico, sus efectos serían
despreciables en el macroscópico, donde ocurren nuestras acciones. Y si acaso
tuviera efectos importantes, no favorecería tampoco el libre albedrío, sino todo
lo contrario, ya que si nuestras acciones dependieran de la resolución aleatoria
de un cierto grado de probabilidad, tampoco estarían en nuestro poder
(Dennett 1984, Honderich 1988).
Para Galen Strawson (1986) el libre albedrío exige una responsabilidad última
de parte del agente, como defiende Kane. Muchos compatibilistas no lo
advertirían y por eso desarrollan ejemplos estilo Frankfurt. Por su parte, los
libertarios creen que dicha responsabilidad es real, pero Strawson considera
que no es posible encontrar una acción de la que seamos ‘últimamente
responsables’, ya que implicaría un regreso al infinito. En consecuencia, la
auto-determinación exigida por el incompatibilismo no existe y el
‘pesimismo’ respecto del libre albedrío sería la posición correcta.
Entre los incompatibilistas destaca Derk Pereboom, ya mencionado, quien
denomina a su posición ‘incompatibilismo duro’, ya que piensa que la libertad
es incompatible con el determinismo y que este es verdadero. Pero no cree que
eso tenga consecuencias tan terribles como algunos suponen; por el contrario,
contribuiría a generar empatía, tolerancia y capacidad de perdonar (Pereboom
2001).
Desde el comienzo de la discusión contemporánea sobre el libre albedrío se
observa a menudo un presupuesto fisicalista o neurorreduccionista sobre la
naturaleza de los actos mentales, incluyendo obviamente nuestras intenciones
y decisiones. Gradualmente, sin embargo, se hace cada vez más claro que una
acción y un evento en el universo no tienen el mismo status ontológico, menos
aún si se trata de la acción de un agente racional. Así, mientras la cuestión del
determinismo o indeterminismo físico o biológico permanece abierta, entre
quienes no creen en la posibilidad de acciones libres cobran fuerza
argumentos tomados de otras ciencias, como la psicología o la sociología.
Cualquiera sea la posición que se adopte, sin embargo, el foco se desplaza
progresivamente de la realización de un movimiento físico al acto intencional
y voluntario. Sin evadir la explicación de cómo un acto mental puede influir
sobre el curso de la naturaleza física, el antiguo problema de la causación
mental, la discusión alcanza entonces el terreno de la filosofía de la acción y
de la voluntad, a fin de establecer tanto las condiciones de una verdadera
acción libre como si esas condiciones se cumplen realmente en algún caso.
Por otra parte, hay que resaltar que el problema del libre albedrío,
particularmente en relación a la cuestión del determinismo, recoge un aspecto
parcial del tema clásico de la libertad, a saber la capacidad de optar (Blanco y
Roldán 2016). Puede afirmarse así que la contraposición entre compatibilismo
e incompatibilismo tiene sus limitaciones, resultando insuficiente cuando se
considera a la libertad desde perspectivas que no la reducen al libre albedrío,
como por ejemplo, la distinción de origen tomista entre libertad electiva y
libertad de amor indefectible al bien trascendental (Sanguineti 2013).

5 Determinismo, indeterminismo y acción divina   ↑


La discusión científica sobre el determinismo o el indeterminismo del mundo
natural atañe no sólo a la filosofía de la naturaleza y de la ciencia, sino
también a la teología natural (Vanney 2015). Pues al estudiar la acción
providente de Dios en el gobierno del mundo no resulta indiferente asumir una
cosmovisión determinista o indeterminista. Los avances de la ciencia en el
último siglo también abrieron nuevas perspectivas de análisis en esta cuestión.

5.1 Dios en un mundo determinista   ↑


Durante los siglos dieciocho y diecinueve, el universo fue comparado a un
gran mecanismo de relojería. Según Wolfhart Pannenberg, la cuestión más
importante en la intersección entre ciencia y religión durante la época
moderna se refiere a la interpretación mecanicista de la naturaleza
(Pannenberg 2006). La comprensión mecanicista condujo a la concepción de
un Dios relojero, que creó el cosmos y lo dejó evolucionar por sí mismo,
ignorándolo.
Esta tesis deísta, apoyada también por algunos teólogos protestantes liberales
como Friedrich Schleiermacher (Schleiermacher 1956, §46), Rudolph
Bultmann (Bultmann 1953) y Gordon Kaufman (Kaufman 1968), tuvo fuertes
implicancias teológicas. Una visión causalmente cerrada de la naturaleza
confronta a la teología de la acción divina, forzando a elegir entre dos
alternativas:
a) No-intervencionismo: Dios sólo establece las condiciones iniciales. Si las
leyes de la mecánica determinan el curso del universo rígidamente, no hay
ninguna cabida para una acción providente de Dios sin violar las leyes de la
naturaleza.
b) Una acción divina objetivamente especial: Dios realmente interviene en el
orden natural, pero lo hace violando o suspendiendo las leyes ordinarias de la
naturaleza.

5.2 Dios en un mundo indeterminista   ↑


En los últimos veinte años, el programa de investigación llamado
“Perspectivas científicas sobre la acción divina” estudió diversas áreas de la
ciencia contemporánea que ofrecen diferentes espacios de indeterminación,
con la finalidad de explicar la acción divina en el mundo natural (Wildman
2004, Russell, Stoeger y Murphy 2009). Varios investigadores de este
programa sostuvieron que Dios, al seleccionar las leyes de la naturaleza, eligió
unas leyes muy específicas con propiedades notables que, sin restringirse a un
mero despliegue de sus consecuencias, dan lugar a una genuina emergencia de
la complejidad e indeterminación en la naturaleza (Murphy 2010).
En 1958, William Pollard había sugerido que las indeterminaciones cuánticas
eran el dominio a través del cual actúa la providencia divina en el gobierno de
todos los eventos (Pollard 1958). Para Robert Russell, director del programa
de investigación mencionado, la mecánica cuántica resulta, entre otros, un
marco muy adecuado para dar cabida a una “acción divina no-intervencionista
objetivamente especial” (Russell et al. 2001). Nicolás Saunders, filósofo de la
física, distingue cuatro posibles ámbitos de acción divina en el dominio
cuántico: 1) Dios altera la función de onda entre las mediciones; 2) Dios hace
sus propias mediciones en un sistema dado; 3) Dios altera las probabilidades
de obtener un resultado particular; 4) Dios controla los resultados de las
mediciones (Saunders 2000). Pero las cuatro alternativas tienen aspectos
problemáticos, pues algunas conllevan acciones divinas altamente
intervencionistas y otras dependen críticamente del status ontológico que se le
otorgue a las probabilidades de la medición. En este sentido, como muchos de
los investigadores del programa “Perspectivas científicas sobre la acción
divina” asumen un indeterminismo intrínseco en la naturaleza, también
prefieren las interpretaciones de la mecánica cuántica que aceptan el postulado
de la proyección o colapso de la función de onda. Crítico a este programa,
Saunders señala: “La tesis de que Dios determina todos los eventos cuánticos
es no sólo científicamente irreconciliable con la teoría cuántica, sino también
teológicamente paradójica (…) Si Dios actúa en la mecánica cuántica con
regularidad, hay entonces relativamente pocos procesos que escapan a tal
control. Si éste es el caso, parece muy irracional que Dios hubiera formulado
la mecánica cuántica, como un resultado de la creación del mundo, para que
sea indeterminada (…) En efecto, si tuviéramos que acoplar las propuestas
discutidas aquí con la común interpretación del problema de la medición
cuántica, llegaríamos a la absurda conclusión de que Dios a menudo evita
actuar en el universo por la ausencia de alguien para realizar una medición”
(Saunders 2000, 541-542).
Desde una perspectiva más metafísica, otros filósofos también han
argumentado que para admitir una acción divina en el mundo natural no sería
un requerimiento indispensable la indeterminación cuántica (Silva 2014). Para
explicar la diversidad de lo real conviene reconocer una pluralidad de sentidos
concurrentes de la causalidad, de manera que se pueden considerar tantos tipos
de causas como maneras diversas de subordinación real (Polo 2004). La
diversidad de causas alude a sentidos diversos de la prioridad que se implican
mutuamente. Es decir, si bien existen varios sentidos de la causalidad, éstos no
ocurren aislados. Todas las causas son causas, pero lo son concurriendo,
produciendo la causalidad según un orden determinado, de manera que la
suficiencia de la pluralidad causal reside en la concurrencia causal completa.
La causalidad de las criaturas no produce el ser en cuanto tal, sino que las
criaturas son causas transformadoras, causas del hacerse de las cosas o causas
segundas. Pero la causalidad creada exige una causa primera que sea causa del
ser. Desde una perspectiva aristotélico-tomista, el término propio de la
causalidad creada en los procesos de generación o corrupción es la forma, que
es el acto primero de la sustancia corpórea. A su vez, en los fenómenos de
alteraciones accidentales, el término es un nuevo accidente de la sustancia.
Así, el agente creado no es causa única y absoluta de su efecto, sino más bien
es causa de que éste se origine. Las causas creadas influyen directa e
inmediatamente, más que en el ser del efecto, en su modo de ser, ya sea
sustancial o accidental. En cambio, la causalidad creadora o causalidad divina
tiene como objeto propio el ser. Es decir, Dios es la Causa Primera del ser de
las cosas. La Causa creadora es trascendente en relación con las causas finitas:
no pertenece al orden de las causas segundas, sino que es su fuente absoluta.
La creación es el acto fundacional del ser de las creaturas a partir de la nada.
La Causa trascendente penetra hasta lo más íntimo de sus criaturas, de manera
que está en ellas sin confundirse con ellas. Este perdurar del acto divino es la
conservación en el ser.
El fundamento real se distingue de lo que en él se funda. Aristóteles puso el
fundamento de lo real en algo que no siendo movido mueve, que es eterno,
sustancia y acto puro (Metafísica, 1072 a 25-26): el Primer Ser mueve a modo
de causa final, porque la causa fundamental no puede encontrarse en una serie
infinita de causas segundas. Tomás de Aquino señaló, además, que la
fundación radical del ser es privativa de Dios, porque sólo Dios es el Ser
subsistente, y una Causa universal y todopoderosa.
Para Tomás de Aquino los entes están dirigidos intrínsecamente a un fin por
su naturaleza (Summa Theologiae, II-II, q. 26, a.1 ad. 2), pero también están
dirigidos de un modo trascendente por el Creador, que les dio la naturaleza. El
fin del Creador, que es Él mismo, es previo al fin intrínseco de la naturaleza.
De esta manera, puede asimilarse la unidad de orden del universo al designio
establecido por la Inteligencia ordenadora del Creador, que posee en acto el
fin del cosmos. Con otras palabras, el Origen del orden de la naturaleza se
encuentra en el acto intelectual creador de Dios (trascendente al cosmos), que
conoce y establece un orden necesario en él. De este modo, el orden estático y
dinámico de perfecciones del mundo responde a la causalidad divina.
Por esta razón, cuando se asume que la acción de Dios en la naturaleza
requiere huecos de indeterminación en las leyes científicas o la existencia de
regiones donde la causalidad no está bien definida, se utiliza una comprensión
de la causalidad un tanto ambigua, que adolece de una distinción precisa entre
la causalidad divina y la causalidad creada. La equivalencia entre la causalidad
divina y la causalidad creada también resulta problemática, pues si el estatus
causal de Dios es reducido al estatus de cualquier otra causa, las acciones
divinas pierden su carácter de providentes. Es difícil comprender cómo una
causa, que es solamente una causa más entre otras, pueda guiar el mundo
creado a su destino final (Silva 2013).

5.3 Designio y azar   ↑
En las antípodas de los investigadores mencionados en la sección anterior se
encuentran otros que atribuyen el colapso de la función de onda a una mera
cuestión de azar. Esta posición también tiene implicaciones teológicas, pues
desafía fuertemente la idea de un designio divino en la naturaleza o de un
propósito divino en la creación. Muchos pensadores materialistas asumen, por
esta razón, como una premisa básica de sus investigaciones, que nuestro
mundo no es el resultado de un propósito divino sino un mero producto del
azar (Monod 1970, Dawkins 1988, Dennett 1995).
Desde la teología se han dado respuestas diversas a este problema. Algunos
teólogos, como los mencionados anteriormente, atribuyen a Dios la
determinación de las posibilidades que el indeterminismo cuántico deja
abiertas de un modo directo. Otros, en cambio, sostienen que tanto las leyes
como el azar integran el plan divino, porque Dios creó el universo como un
proceso auto-organizativo. Para estos últimos, Dios ha dado un propósito al
cosmos, aunque sin determinar la secuencia de los eventos de un modo
directo. “Dios permite en la naturaleza una cierta apertura y flexibilidad, que
se convierte en lo natural, en la base estructural de la flexibilidad de los
organismos conscientes y, a su debido tiempo y más especulativamente,
posiblemente en la libertad del cerebro-humano-en-el-cuerpo-humano, es
decir, de las personas (…) Esto nos ayuda a percibir el mundo natural como
una matriz en la cual la apertura y la flexibilidad y, en la humanidad, incluso
tal vez la libertad puedan emerger de un modo natural” (Peacocke 1995, 281).

5.4 Causalidad hacia abajo   ↑


El holismo del mundo cuántico, fruto del entrelazamiento de los estados
cuánticos, por un lado, y la biología sistémica por otro, también abrieron
perspectivas nuevas a la reflexión sobre el sentido de la causalidad y la acción
divina en el mundo natural.
Los estados cuánticos de los sistemas de muchas partículas no se pueden
expresar como un simple producto de los estados de las partículas
individuales, sino como una superposición de dichos estados, incluyendo un
término de interferencia. Esta propiedad se conoce con el nombre
de entrelazamiento cuántico (Bub 2014). En 1935 Erwin Schrödinger ya había
explicado que, cuando entre dos partículas hubo una interacción física
temporal, ambas se deben describir mediante una única función de onda
(Schrödinger 1935). Pero esta afirmación tiene consecuencias notables:
cuando un sistema cuántico interactúa con otro en un momento cualquiera,
ambos sistemas continúan manteniendo una asombrosa correlación. En otras
palabras, el entrelazamiento entre ellos persiste incluso después de haber sido
separados por grandes distancias (Aspect, Dalibard y Roger 1982). Pero como
la no-localidad también podría entenderse como una acción-a-distancia causal
instantánea (como lo hace la mecánica bohmiana), con el riesgo de violar el
espíritu de la teoría de la relatividad especial, varios autores prefieren asumir
una no-separabilidad holística en la interpretación de la mecánica cuántica
(Redhead 2001).
En la física newtoniana, todo sistema puede ser analizado en partes, cuyos
estados y propiedades determinan las del todo que componen. Los estados
entrelazados de la mecánica cuántica, en cambio, resisten a este análisis,
oponiéndose así al reduccionismo metodológico de la física de Newton
(Healey 2009). Algunos académicos han señalado que el carácter holístico de
la física cuántica “es consistente con una visión de múltiples niveles de la
realidad y con la emergencia de nuevos tipos de eventos en los niveles más
altos de la organización” (Barbour 2000, 89). Esta afirmación no implica
necesariamente un reduccionismo (Gershenson 2013). Hay una fuerte
inclinación natural a asumir que la física de partículas, tal como la describe la
teoría física de campos, subyace a la física atómica. De una manera similar, en
términos generales, la física atómica subyace a la química, y la química a la
bioquímica. Pero es importante destacar que las relaciones inter-teóricas
difieren en los casos mencionados, sin que sea posible proporcionar ejemplos
claros de reducción teórica, como lo sería, por ejemplo, la deducción de una
teoría a partir de otra, junto con una buena elección de las definiciones de los
términos.
La existencia de múltiples niveles de realidad no implicaría un reduccionismo
porque “hay que esperar que los niveles ‘superiores’ contengan mucho (en
términos de estructuras, conceptos o explicaciones) de lo que es distintivo,
recibiendo un alto nivel de ‘autonomía’ de los ‘niveles’ inferiores”
(Butterfield 2001, 113-114). En el nivel microfísico, las unidades constitutivas
de los sistemas son lo que son por su incorporación a la totalidad del sistema.
Este último ejerce restricciones precisas sobre sus componentes (causalidad
hacia abajo), haciendo que las componentes se comporten de un modo diverso
a como lo harían si estuvieran aisladas. Es decir, “además de la causalidad
hacia arriba, hay efectos contextuales por los que los niveles superiores
ejercen influencias cruciales sobre los niveles inferiores, configurando las
condiciones de contorno y de contexto para las acciones de los niveles más
bajos. Esto se relaciona con la emergencia de leyes efectivas de
comportamiento en los niveles superiores, que permiten hablar de la existencia
de entidades de niveles superiores con todo derecho. Ellas juegan un papel
efectivo no sólo en su propio nivel, sino que también influencian los niveles
inferiores configurando el contexto para sus acciones” (Ellis 2012, 1896).
La biología sistémica ofrece una perspectiva similar. Para el reduccionismo
biológico, los sistemas se definen desde un enfoque causal hacia arriba. Pero
el desarrollo biológico coordina de un modo peculiar la diferenciación de las
partes constitutivas del sistema con su contribución al funcionamiento del
organismo. Como la biología del desarrollo considera minuciosamente las
redes de flujo y las relaciones jerárquicas que definen un sistema y el contexto
en el que éste existe, toda causalidad no aleatoria puede ser un resultado del
desarrollo en algún nivel (Bertolaso 2011).
Es decir, al reconocer la existencia de propiedades holísticas no deducibles
desde las partes del organismo, el emergentismo dio una nueva respuesta al
reduccionismo. Para indicar la capacidad selectiva de los organismos
complejos respecto a algunas propiedades de sus partes constitutivas, las
consideraciones emergentistas utilizan la noción de causalidad hacia abajo
(Campbell 1974). Una causalidad hacia abajo –bajo la forma de restricciones
organizacionales o informacionales- parece predominar en los sistemas
maduros, en los que el funcionamiento depende en menor medida de las partes
constitutivas de los niveles inferiores. En resumen, al enfatizar las relaciones
que intervienen en la estructuración del organismo, las perspectivas de la
biología sistémica manifiestan la conveniencia de considerar la compatibilidad
y la mutua dependencia de los dos enfoques causales: hacia arriba y hacia
abajo (Bertolaso 2013).
Algunos teólogos, como Arthur Peacocke, asumieron esta perspectiva para
explicar la acción de Dios en el mundo natural, y destacaron que el modo en el
que opera la causalidad hacia abajo brinda una nueva comprensión de la
interacción entre Dios y la naturaleza, que preserva de alguna manera la
trascendencia divina. “Si Dios interactúa con el ‘mundo’ en este nivel
superviniente de totalidad, entonces Él puede ser causalmente efectivo de un
modo ‘hacia abajo’ sin la derogación de las leyes y regularidades (y de las
impredictibilidades que hemos observado) que operan en la miríada de
subniveles de existencia que constituyen el mundo” (Peacocke 1993, 159).

También podría gustarte