0% encontró este documento útil (0 votos)
12 vistas115 páginas

Lenguaje y Lógica en Ciencias

Cargado por

Berenu87
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
12 vistas115 páginas

Lenguaje y Lógica en Ciencias

Cargado por

Berenu87
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Pens. Científico Resumen para el Primer Parcial 1º Cuat. de 2012 Altillo.

com
CAPÍTULO 1 – Consideraciones sobre el lenguaje
1.1 Lenguaje y teorías científicas

• Aristóteles habla de las ciencias teoréticas (física, matemática, biología), ciencias prácticas (ética, derecho, política) y ciencias productivas
(ingeniería, medicina)
• El positivismo distingue entre: ciencias deductivas (racionales) (matemática, lógica) y ciencias inductivas (empíricas) (física, química, biología).
Las segundas se fundamentan en las primeras.

1.2 Lenguaje y realidad

• El pensamiento primitivo planteaba que existía una conexión natural entre el nombre y la cosa nombrada.
• Platón sostiene que no se puede conocer con lo que ofrecen los sentidos porque todo cambia. Habla de Ideas (entidad absoluta inmutable de
las cosas)(está separado del objeto en sí) (Es la única forma de alcanzar el conocimiento absoluto)
a) las cosas sensibles (sentidos) están en continuo cambio.Entonces
b) la ciencia no puede hacerse de lo que está en continuo cambio
c)la ciencia no puede referirse a las cosas sensibles, sino a entidades que no cambian (Ideas).
Guillermo de Ocklam (monje a quien se le adjudica esta teoría): dice que es absurdo creer que hay un concepto natural (por lo tanto universal)
de las cosas, en poblaciones e individuos tan distintos.• La teoría nominalista afirma que no hay algo anterior a las cosas, sino que son
simples nombres para identificarlas.
Introduce la “navaja de Ocklam”: lo “universal” solo forma parte del intelecto, porque todo lo otro es “individual”.
Se opone a la creencia de que a cada expresión lingüística le corresponde una realidad. -Sólo lo individual es real y lo universal solo existe in
anima-
• Saussure (lingüista suizo) habla de dos elementos: uno material (significante) y otro inteligible (significado). La relación de estos dos
componentes funciona a partir de la aceptación de esta identificación. Para que haya comunicación es necesario que los usuarios compartan
esta convención.

1.3 Uso y mención del lenguaje

Lis es linda. (Se refiere a la persona)• Hay uso del lenguaje cuando nombramos entidades extralingüísticas.
“Lis” es monosílaba. (Se refiere a la palabra)• Hay mención del lenguaje cuando hay objetos lingüísticos.
• Teoría de la jerarquía de lenguajes: consiste en distinguir entre un lenguaje (lenguaje objeto) y el lenguaje de este lenguaje (metalenguaje).
“‘Los cuerpos son pesados’ es verdadero” los cuerpos… (lenguaje objeto) es verdadero (metalenguaje)

1.4 La semiótica

• Es la disciplina que se ocupa de elaborar una teoría general de los signos.


• Es signo todo aquello que tiene la capacidad de reemplazar o sustituir algo.
Hay tres tipos: a) El indicio: mantiene relación causal entre el representante y lo representado. (La caída de las hojas es signo de que llegó el
otoño)
b) El ícono: presenta una relación de semejanza con lo representado. (Una foto, una estatua son íconos)
c) El símbolo: le representado es convencional. (Banderas, semáforos, simbolizan cosas)
• Factores que hacen que algo funcione como signo:
A) Vehículo signífico (señal o coso que actúa como signo)
B) Designatum: significado del signo
C) Intérprete del signo
• Lenguaje: conjunto reglado de símbolos que se utilizan para la comunicación.
• La semiótica está constituida por otras disciplinas que estudian los distintos aspectos del signo.

A) Dimensión sintáctica: se encarga de revisar las relaciones entre los signos y las reglas que los ordenan. (Que tenga coherencia una oración)

B) Dimensión semántica: se ocupa de la relación entre el signo y su significado.


1-Designación: características definitorias que constituyen el criterio de uso del nombre.
2- Extensión: todos aquellos individuos a los que puede aplicarse dicho término.
3- Denotación (puede o no estar): conjunto de esos ejemplares, ubicables en tiempo y espacio.
Los términos sin denotación son aquellos que nombran entidades abstractas, cualidades o cosas ficcionales.
A su vez, la designación y la extensión tienen una relación inversa: en un sistema clasificatorio, a la clase que incluye a otra se la llama género y
a la incluida especie. (“Flor” es género de “magnolia” ) El género tiene mayor extensión (cantidad) y menor designación (características
específicas).

C) Dimensión pragmática: se ocupa del uso que se haga del signo, o sea, la función que cumple para el hablante.
1-Primera función: informativa. Enunciados en los cuales se afirma o niega algo.
2- Segunda función: expresiva. Expresa sentimientos u opiniones.
3- Tercera función: directiva. Comunica órdenes.
• La proposición es una unidad de enunciación. Es el contenido abstracto del enunciado. (“Me gustaría comer algo diferente” “¿No podríamos
comer algo diferente?” son Enunciados. La Proposición es cambiar la comida)
• Teoría de la correspondencia: una proposición es verdadera si describe un estado de cosas REAL. Si describe un estado de cosas posibles, no
es real, es FALSA.
1.5 Nombrar y clasificar Vaguedad y ambigüedad

• Usar un lenguaje es disponer de un sistema clasificatorio que nos permita identificar conjuntos o clases de objetos.
• Vaguedad: es cuando no se puede decidir con exactitud cuál es el límite para la inclusión de individuos en una clase. (Términos como
muchos, frío, joven)
• Ambigüedad: también llamada “polisemia”, es cuando una palabra tiene más de un significado. (Vela, puede ser la de un barco o la que
ilumina)
• Los lenguajes científicos persiguen la univocidad de los términos, y utilizan tres criterios para clasificar:
1- Preservar el mismo criterio (si se clasifica por sexo, no poner una clasificación por edad)
2-Clasificar de forma completa (Abarcar todas las formas conocidas)
3-Las partes deben excluirse mutuamente (Si figura en una, no puede estar en otra)

1.6 La definición

• Definir es limitar el significado de un término. (Es una proposición)


• Reglas de definición
1-No debe ser circular (No usar la misma palabra o familia de palabras)
2-No debe ser demasiado amplia ni demasiado estrecha (Ni muy general ni demasiado específica)
3-No debe ser metafórica
4-No debe ser negativa si puede ser afirmativa (Arroyo: “curso de agua que no es un rio”-Algunas excepciones como “soltero”, “ceguera”)
5-No debe recurrirse a sinónimos (No definir “perro” como “can”)
• Se puede definir (según Aristóteles) por género próximo y diferencia específica (La primera designa a cualquier miembro del género, y la
segunda, expresa la diferencia de esa especie)
• Tipos de definiciones:
-Estipulativas: son las definiciones pactadas para determinado lenguaje (por ejemplo, el científico)
-Persuasiva: no se consideran proposiciones porque emiten un juicio de valor.

(Tomando los componentes del significado) pueden ser:


-Connotativas: cuando designan
-Denotativas: cuando nombran un ejemplar de la clase

CAPÍTULO 2 – Argumentación: el escenario formal

2.1 Las leyes lógicas

• Las leyes lógicas son reglas que regulan el uso de las convenciones del lenguaje.
• En la denominación actual son simples tautologías, fórmulas vacías que pueden no tener coincidencia con la realidad.
• Axiomas: proposiciones que se admiten como punto de partida en un sistema.
• Teoremas: proposiciones deducidas dentro del sistema de reglas.
• Se denomina “ley lógica” a toda forma proposicional que al sustituir sus variables por constantes da por resultado una proposición
verdadera.

2.2 Tautologías, contradicciones, contingencias

• Tautologías: son formas proposicionales que corresponden a proposiciones lógicamente verdaderas, es decir, verdaderas por su estructura
lógica.
• Todas las leyes lógicas son tautológicas.
• La verdad no se juzga por la correspondencia con la realidad, sino por la coherencia y no contradicción con las leyes lógicas.
• Contradicciones: son formas proposicionales que corresponden a proposiciones falsas ya que contradicen alguna ley lógica.
• Toda negación de una tautología es una contradicción.
• Contingencias: son formas proposicionales que corresponden a proposiciones verdaderas o falsas (relacionadas con un referente empírico.

2.3 Los razonamientos. Verdad y validez

• El razonamiento es una unidad de argumentación


• Las proposiciones pueden ser verdaderas o falsas y los razonamientos pueden ser correctos/válidos (si las premisas apoyan la conclusión) o
incorrectos/inválidos (si no la apoyan)
• “Inválido” y “falso” predican cosas distintas.
• Los razonamientos válidos no garantizan la verdad de sus proposiciones, así como la verdad de las conclusiones no prueba la validez del
razonamiento.

2.4 Razonamientos deductivos

• Si los razonamientos son deductivos:


1-Todo lo que se dice en la conclusión está contenido en las premisas
2- La verdad de las premisas garantiza la verdad de la con conclusión
3- Si las premisas son verdaderas la conclusión no puede ser falsa
4-Su validez puede decidirse definitivamente por métodos puramente lógicos
5-La validez depende de la forma lógica del razonamiento y no de su contenido
• En un razonamiento deductivo no se da el caso de premisas verdaderas y conclusión falsa.

2.5 Reglas lógicas

• Las reglas lógicas son formas de razonamiento.


• Cuando interpretamos una regla lógica, obtenemos un razonamiento válido
• Hay 3 reglas lógicas más importantes:

· 1-(MP) Aà B
A
--------
B
Si se afirma el antecedente, se afirma el consecuente

2-(MT) Aà B
-B
--------
-A
Si se niega el consecuente, se niega el antecedente

3-(SH) Aà B
Bà C
--------
AàC
Si se afirma A entonces B y B entonces C, se afirma A entonces C
• No puede haber antecedente verdadero y consecuente falso.
• Falacias:
Falacia de afirmación del consecuente
Falacia de negación del antecedente
• Las leyes lógicas no nos proporcionan conocimiento fáctico . Por eso se dice que sus argumentos son explicativos y no ampliativos.

2.6 ¿Es formal la inducción? El intento de Carnap

• El pensamiento inductivo se basa en suponer.


• INDUCTIVISMO ESTRECHO/INGENUO/VERIFICACIONISMO: Hume
Método: inducción por observación. Observo, luego generalizo.
Justificación: generalización de leyes por inducción. Si por cantidad de miembros de la clase lo tiene, todos lo tienen. La observación más la
contrastación me permite decir que la conclusión es verdadera.
• INDUCTIVISMO SOFISTICADO/AMPLIADO/CONFIRMACIONISMO: Hempel, Carnap
Método: hipotético deductivo
Justificación: Corroboración y refutación probabilística de las hipótesis: conclusiones observacionales verdaderas: Falacia de afirmación del
consecuente.
• REFUTACIONISMO/FALSACIONISMO: Popper
Método: Hipotético deductivo (intenta refutarlas con un contraejemplo, si no es posible, dicha teoría queda corroborada)
Justificación: Refutación deductiva de las hipótesis. Corroboración provisoria si la refutación falla.
• Hay grados de falsabilidad: dependen del grado de generalidad sujeto y grado precisión del predicado.
• NO son falsables: enunciados probabilísticos (protegidos por la probabilidad), enunciados tautológicos (no ofrecen información precisa
acerca del mundo), enunciados que contienen términos sin denotación (ángel, brujo, etc.)

2.7 Analogía

• La inferencia analógica parte de la similaridad de dos o más entidades en algunos aspectos para concluir en la similaridad de esas entidades
en otra propiedad.
• Criterios de evaluación para argumentos analógicos:
1- El número de individuos o entidades entre los que se afirma la analogía es importante.
2- El número de aspectos en consideración también, ya que cuando la cantidad de propiedades comunes es más grande, parecería que la
probabilidad de la conclusión crece.
3-Las propiedades comunes deben tener relación clara con la conclusión.
• El criterio de relevancia es excluyentemente empírico

CAPÍTULO 3- Argumentación: el escenario informal

3.1 Lógica informal y falacias materiales


• Falacia informal:
-Es un argumento no pertinente (razonamiento incorrecto)
- Psicológicamente persuasivo. La fuerza persuasiva es una condición de eficacia que permite explicar por que tantas personas “tragan el
anzuelo” de argumento nítidamente falaces.
-Construido intencionalmente para engañar
• Clasificación de las falacias materiales:
-Falacia de inatinencia: La conclusión no se sigue de las premisas. No depende de la falsedad de las premisas, sino de la deficiente transición a
la conclusión
-Argumentum Ad verecundiam (Argumento de autoridad): La falacia ocurre cuando se apela a la autoridad de un experto para sustentar un
argumento cuyo tema está fuera del ámbito de su especialidad.
- Falacia ad populum: Consiste en reforzar el valor de una afirmación al sostener que “todos los dicen”.
- Argumentum ad ignorantiam: Consiste en dar por verdadera una proposición solo por el hecho de que no ha sido probada su falsedad.
- Argumentum ad hominem (Argumento contra la persona): Consiste en enfrentar a un actor social que formula un razonamiento o
proporciona información, no refutando su discurso sino agraviándolo personalmente. Ej. X es un mentiroso. Por lo tanto, lo que acaba de
afirmar es falso. El ejemplo es falaz porque el carácter de mentiroso del emisor del mensaje no constituye prueba de todo lo que afirma es
falso.
- Post hoc ergo Procter hoc (Después del hecho, por lo tanto, debido al hecho): El argumento consiste en inferir que un acontecimiento es la
causa de otro sobre la base de que el primero ocurrió antes que el segundo. Se demuestra la falacia del razonamiento probando que el efecto
se habría producido aun sin la presencia de la presunta causa, o probando que el efecto se produjo por una causa distinta de la propuesta.
-Falacia de efecto conjunto: Dos acontecimientos que aparecen juntos (conjoined) son evaluados como ligados casualmente, mientras que en
realidad ambos son efectos de una causa común.
-Argumentum ad baculum (Falacia del garrote): Consiste en intentar forzar una conclusión inatinente utilizando como base de sustentación
una amenaza. Sin embargo, no toda amenaza es un argumento de este tipo.
-Argumentum ad misericordiam: Consiste en apelar a la piedad para lograr que se acepte una determinada conclusión. No toda apelación a la
piedad puede considerarse como un argumento falaz. Es necesario evaluar con detenimiento que conclusión se intenta justificar, o que curso
de acción se supone que debemos tomar. Ej.: Si se desea imponer la conclusión de que un acusado del que nos informa el jurado ha tenido una
infancia horrible y es, por ello, inocente, la falacia queda crudamente expuesta
- Ignoratio elenchi (Conclusión irrelevante): Se comete cuando un argumento que pretende establecer una conclusión determinada es utilizado
para probar una conclusión diferente. Ej.: Si un legislador desea argumentar a favor de un proyecto especifico de legislación sobre la vivienda,
y lo hace alegando que todo el mundo debe tener viviendas decentes, comete claramente la falacia expuesta, ya que no está en discusión la
legitimidad de la afirmación que sostiene que todo el mundo debe tener viviendas decentes, sino la pertinencia de las medidas particulares
que el proyecto implica, así como sus ventajas comparativas respectos de otras alternativas legales.

• Falacias de Ambigüedad
-Falacia de equivoco (la falacia del cuarto termino): Puede evaluarse como una variante de la falacia de equivoco la instrumentación falaz de
los términos relativos, esto es, palabras que tienen distinto significado según el contexto. Ej.: “Un tiranosaurio Rex era un animal. Por lo tanto,
un Tiranosaurio Rex pequeño era un animal pequeño”, pequeño es un termino relativo.
- Falacia de composición: La falacia tiene lugar cuando a partir de las propiedades de elementos o individuos se infiere que tales propiedades
son asimismo de las totalidades a las que pertenecen. “Todas las partes de esta máquina son livianas; por lo tanto, esta máquina es liviana”.
- Falacia de división: Comete una falacia de división quien extrae una conclusión transfiriendo de manera irrelevante una propiedad
excluyentemente “colectiva” a su interpretación “distributiva”. Ej.: Esta máquina es pesada; por lo tanto, todas las partes de esta máquina son
pesadas.

3.2 Toulmin, sobre los usos argumentativos

• El objetivo de Toulmin es criticar el “todo argumento significativo puede expresarse en términos formales”. Cuestiona a la lógica formal
como criterio central de análisis y evaluación de argumentos. Toulmin niega que la lógica formal pueda ser aplicada a la evaluación critica de
argumentos reales.
• Un argumento sólido es el que resiste las críticas. Las reglas lógicas, aplicadas a los argumentos, pueden medir la eficacia y el logro del
objetivo propuestos.
• Génesis de la construcción de un argumento:

-Juan Carlos S. es un ciudadano argentino.-


Imaginemos que alguien pone en duda esta afirmación. Es claro que quien emite esta afirmación debería estar en condiciones de justificarla.
La primera forma de justificación debería ser exponer hechos para apoyarla, deberíamos sostener que existe información documentada por lo
cual es posible sostener que:

-Juan Carlos S. nació en Salta, que es una provincia argentina-


Contamos ya con dos elementos centrales de la estructura argumentativa:
La afirmación o conclusión que tratamos de justificar (C). C es aquello que demandamos sea tenido en cuenta, y se supone estamos dispuestos
a fundamentar.
Los elementos probatorios que proporcionamos como base de la afirmación efectuada, es decir de los datos (D).
Lo que se debe proporcionar, entonces, no son nuevos datos, sino proposiciones de diferente tipo: reglas, enunciados generales, etc., que
evidencien como a partir de los datos se transita a la conclusión de manera apropiada y legitima, esto es, proposiciones que funcionen como
puentes de legitimizacion entre datos y conclusión.
Si una persona nació en una provincia argentina, entonces esa persona es ciudadana argentina.
Las proposiciones hipotéticas que autorizan la transición de datos a la conclusión, es decir la garantía (G).

Toulmin se preocupa por señalar que es imprescindible diferenciar datos y garantías. En primer lugar, la conclusión apela directamente a los
datos, mientras que la garantía es explicativa, ya que su objetivo es solo registrar explícitamente la legitimidad de la transición. En segunda
instancia, las garantías son generales, certificando la validez de todos los argumentos del mismo tipo, mientras que los datos son
justificaciones especificas de cada argumento en particular.
En argumentos más complejos, pueden aparecer otros factores que será necesario integrar en la estructura. Si no es suficiente el esquema
tripartito expuesto, resulta imprescindible añadir alguna referencia explícita al grado de “fuerza” que los datos confieren a la conclusión.
Modalizador (M) apoya a la afirmación central
Condiciones de excepción o refutación que establecen en que caso la garantía deja de justificar a la conclusión (E)

Se podría decir que la propuesta de Toulmin es un silogismo en el cual la premisa menor son los datos y la premisa mayor la garantía.
Ante esto Toulmin considera que el esquema de la lógica formal tiende a generar una apariencia de uniformidad entre argumentos
procedentes de campos diversos, etiquetando, además, con el rotulo común de premisa a los diversos elementos que apoyan a la conclusión.
Alega que su “lógica practica” permite hacer transparente la diferencia central entre una “premisa singular” y una “premisa universal”,
diferencia que no tendría que ver solo con la cantidad, sino con la función sustancialmente distinta que cumplen en el argumento.
Una premisa singular transmite información a partir de la cual se extrae la conclusión; una premisa universal, en cambio, no expone
información, sino que ofrece una garantía o justificación de acuerdo con la cual se puede pasar legítimamente del dato a la conclusión.
Las formulas canónicas son susceptibles de formularse en las dos variantes significativas expuestas. Ej.:

-Pedro S. es argentino.
-Ningún argentino es pai umbanda;
Luego, con certeza, Pedro S. no es pai umbanda
El argumento puede interpretarse de dos maneras distintas:
Ej. 1ª) Pedro S. es argentino
La proporción conocida de argentinos que son pai umbanda es cero,
Luego, con certeza, Pedro S. no es pai umbanda
2ª) Pedro S. es argentino
Con total certeza un argentino no es pai umbanda
Luego, con certeza, Pedro S. no es pai umbanda
Toulmin considera que solo la estructura “D, G, luego C” (Ej. 1a) es susceptible de ser analizada en orden a su validez formal, porque los
componentes de la conclusión son manifiestamente los mismos que los de las premisas. Esto es, en términos de la índole de la inferencia, no
habría ampliación en la conclusión, que solo seria explicativa. En cambio, si se interpretara la premisa universal como respaldo (estructura “D,
R, luego C, Ej. 2ª) no sería posible aplicar el criterio de validez formal al argumento.
Toulmin contrasta dos tipos de argumentos:
- Argumentos analíticos (teóricos): La conclusión no agrega nada al material contenido en las premisas; los actores sociales que utilizan
argumentos analíticos intentan fundamentar sus conclusiones en principios universales e inmutables. Son los razonamientos deductivos de la
lógica formal. Independientes del contexto
-Argumentos Sustanciales (prácticos): Proporciona datos o evidencia empírica para apoyar la conclusión del argumento. Los actores sociales
que utilizan argumentos sustanciales fundamentas sus conclusiones en el contexto de una situación particular, antes que en principios
universales y abstractos. Son los argumentos prácticos de la vida social. Dependiente del contexto.
Toulmin afirma que los argumentos teóricos no son útiles para la vida cotidiana. Para comprender la distinción entre estos dos tipos de
argumentos es necesario comprender el concepto Toulmiano de campos argumentativos. Este concepto sostiene que los argumentos
prácticos, a pesar de que se ajustan al esquema básico, varían en algunos aspectos al ser utilizados en campos diferentes. Estos aspectos que
varían son denominados “campo-dependientes”. En cambio, los argumentos teóricos de la lógica formal son independientes tanto del
contexto como del campo en que son utilizados. Por eso muchas veces no se aplican a la vida diaria.
De todas formas Toulmin no propone que desaparezcan los argumentos analíticos sino que juzga que su rango de aplicabilidad es muy
estrecho.

3.3 Perelman y la nueva retorica

• Perelman: sólo se considera racional lo que está conforme a los procedimientos de prueba de la lógica formal. Los razonamientos ajenos al
campo formal escapan a la lógica, y por ende, también a la razón.
• La “nueva retorica” retomaría aquella tradición olvidada que estudiaba a los procesos argumentativos y sus recursos como el arte de
persuadir y convencer.
• Perelman : toda argumentación se desarrolla en función de un auditorio (conjunto de aquellos en quienes el orador quiere influir con su
argumentación)
• Diferencia entre demostración y argumentación:
-En la demostración lógica o matemática, para probar una proposición basta con explicitar los procedimientos con los cuales se llega a ella, en
un sistema ya establecido.
-Cuando se trata de argumentar, (de influir por medio del discurso) no es posible ignorar completamente las condiciones psíquicas y sociales,
sin las cuales la argumentación no tendría objeto ni efecto. Hay un contacto intelectual entre el argumento y el auditorio.
• Distinción entre persuadir y convencer
- Persuasiva es la argumentación que solo pretende servir para un auditorio particular por medio de los sentimientos
-Convincente es la que obtiene la adhesión de “todo ente de razón”.
• Acuerdos entre el orador y el oratorio:

-Acuerdos generales: Es objeto de acuerdo, por ejemplo, que se considerara como hechos objetivos y como sistemas complejos. También
serán objeto de acuerdo las presunciones que funcionan como punto de partida de la argumentación.
- Acuerdos específicos de disciplinas particulares: Tales acuerdos disciplinares constituyen un corpus que se desprende de convenios, tanto
como de la adhesión a textos fundamentales, y caracterizan a ciertos auditorios. Un ejemplo oportuno es la adhesión a una jerga técnica
propia, que se diferencia al máximo del lenguaje ordinario.
- Acuerdos propios de cada discusión: Una de las tácticas frecuentes de esta modalidad consiste en el uso dialéctico de las preguntas y
respuestas. El acuerdo preliminar puede también versar no sobre el temario del debate sino sobre la forma de desarrollar la discusión.
• Esquemas argumentativos:
-Esquemas de enlace: Aquellos esquemas que vinculan elementos distintos y permiten establecer entre ellos una relación de solidaridad.
--Argumentos cuasi lógicos: Se presentan como comparables a razonamientos formales. Perelman establece que esta presentación es ilusoria.
Los argumentos cuasi lógicos no son formales, pero tratan, a través de un proceso de reducción, de aparecer como tales. Hay 3 tipos de
procesos de reducción que consisten en apelar a algunas estructuras lógicas:
La contradicción: pone de manifiesto la incoherencia de un conjunto de proposiciones. Quien se enfrente con un argumento cuasi lógico que
hace uso de un recurso que parece apelar a la contradicción, deberá esforzarse por mostrar que las tesis que el argumento propone conducen
a algún tipo de incompatibilidad
La identidad o reciprocidad: pretende aplicar el mismo tratamiento a dos situaciones que “son pareja”. El carácter cuasi lógico está asociado a
la noción de analogía y simetría. Ej.: “Si para Uds. no es deshonroso venderlo, tampoco es para nosotros comprarlo”.
La transitividad: “extensión” de la famosa propiedad formal al ámbito de los argumentos cuasi lógicos (Los amigos de mis amigos son mis
amigos).

--Argumentos basados en la estructura de lo real: Se apoyan en dimensiones empíricas para sustentar determinadas afirmaciones:
Nexo causal (causa – efecto): Debe permitir argumentaciones de tres tipos:
Nexo Teológico (medios-fines): Es una variante del nexo causal. La diferencia reside en la “valoración” del efecto. Si se desea minimizar un
efecto se lo debe presentar como consecuencia; si se desea aumentar su importancia, debe presentar como un fin.

--Argumentos basados en enlaces que fundamentan la estructura de lo real: Consiste en argumentar a partir del caso particular. A su vez, tal
variante admite tres modalidades posibles:
la argumentación por el ejemplo (permitirá una generalización)
la argumentación por la ilustración (sustentara una regularidad ya establecida)
la argumentación por el modelo (incitara a la imitación)

• Esquemas de disociación
En primer lugar, establece Perelman una diferencia entre dos procedimientos:
-Técnica de ruptura de enlace: Consiste en afirmar que están indebidamente asociados elementos que deberían permanecer separados e
independientes.
-Técnica de disociación: presupondría la unidad primitiva de elementos confundidos en una misma noción, por lo que requiere una revisión
profunda de los datos conceptuales de base.
• Es precisamente en el contexto de los argumentos en interacción que Perelman comienza a discutir lo que resulta de mayor interés: Los
criterios de pertinencia de los argumentos, a través del concepto de fuerza argumentativa. Este concepto tiene dos acepciones:
-Intensidad de adhesión del oyente al argumento (es decir, el resultado del poder persuasivo o la fuerza de convicción)
-Relevancia objetiva de los argumentos en el contexto del debate.
Ambos pueden entrar en colisión con la posible resistencia del oyente, o con una contra-argumentación que se le enfrenta. Por ello, y en
tercer lugar, la fuerza de los argumentos depende, en gran medida, de su firme resistencia a las posibles objeciones.

¿La fuerza argumentativa es un rasgo descriptivo o normativo? La mayoría de las veces el criterio de validez argumentativa resulta de aplicar
técnicas que son eficaces en otro campo. Estas serian la racionalidad formal de la lógica y la matemática. Sin embargo los argumentos no están
en condiciones de pasar la prueba de la racionalidad formal. Por lo tanto, Perelman define que la fuerza argumentativa debe asumir la doble
dimensión descriptiva y normativa, que en la practica se califica de “fuerte” y “débil”.
En conclusión, la fuerza argumentativa se aprecia gracias a las “regla de justicias”: lo que ha sido convincente en cierta situación será
convincente en una situación análoga. Por eso, para dotar de fuerza a la argumentación se requiere un conocimiento profundo del campo
disciplinar. Presupone una previa iniciación en un campo de estudio sistematizado.
• Diferencia entre razonamiento teórico y razonamiento practico:
-Razonamiento teórico: Consiste en realizar una inferencia que extrae una conclusión a partir de premisas.
-Razonamiento práctico: Es aquel que justifica una decisión. Afirma que es lícito hablar de razonamiento práctico solo cuando la decisión
depende de aquel que la toma, de modo que tal decisión no se desprende automáticamente de premisas en función de reglas de inferencia
indiscutibles, con independencia de la intervencion de una voluntad humana.
• La palabra “argumento” es poco objetiva. No se la considera como sinónimo de “razonamiento”.

3.4 Van Eemerent – Gootendorst: La argumentación desde el punto de vista pragma-dialéctico


• Consiste en no abstraer a los argumentos de ninguna de sus dimensiones.
• “La argumentación es una actividad verbal, social y racional que apunta a convencer a un crítico razonable de la aceptabilidad de un punto de
vista adelantando una constelación de una o más proposiciones para justificar este punto de vista”.
• Argumentación
- Percibida como un medio para resolver diferencias de opinión
- Se refiere tanto al proceso argumentativo como a sus resultados
- Se tiene en cuenta el contexto, la situación y otros aspectos pragmáticos.
• Proceso global de argumentación:
1- Exposición del punto de vista de un actor social (protagonista) (a veces puede omitirse).
2- Diferencia de opinión con otro actor (antagonista)
3- Discusión argumentativa
4- Resolución
• Preposición puede ser una descripción de hechos o una predicción (admisible para la lógica formal) o un consejo (no admisible para la lógica
formal, ya que no es ni V ni F).
• El autor indica que una diferencia de opinión se da cuando dos partes no están de acuerdo totalmente con un punto de vista (implica
desacuerdo o simple duda).
– En una discusión crítica, etapas:
a) Confrontación
b) Apertura. Se asignan los roles
c) Argumentación. El protagonista defiende su punto de vista
d) Conclusión
Este es un modelo ideal. Cumple una función heurística.
• Argumentos complejos
El enfoque pragma dialéctico permite el análisis de argumentos más complejos. Hay tres tipos:
1- Argumentación múltiple.
Consiste en defensas alternativas del mismo punto de vista presentadas una después de otra. Las dos defensas no son interdependientes, cada
una es autónoma.
2- Argumentación coordinada.
Los argumentos se combinan y se complementan para formar una defensa pertinente. Implica que cada instancia por separado es débil.
3- Argumentación subordinada
Se suceden distintos argumentos para apoyar al argumento inicial. Cadena de razonamientos en la que cada etapa requiere una
subargumentación para completar por una justificación plena.
• Criterios de pertinencia para la evaluación de argumentos según la concepción pragmadialéctica:
Consistencia
a) Consistencia lógica en los enunciados componentes (ej. No contradicción)
b) Consistencia pragmática: “Te llevo en el auto. No sé manejar”. Son expresiones que no se contradicen pero que guardan entre sí una
incompatibilidad.
c) Consistencia global del argumento, entendida como grado de contribución a la justificación adecuada del punto de vista (aceptabilidad).

• Las falacias son violaciones particulares de una regla; esta regla no es de inferencia lógico deductiva, la regla que se viola es de consenso
comunicacional (recordar que las reglas están concebidas para resolver diferencias de opinión).
Regla 1: Las partes no deben impedirse unas a otras el presentar puntos de vista o ponerlos en duda.
Ambos “contendientes” deben otorgarse mutuamente una absoluta libertad para proponer y criticar puntos de vista.
La primera forma de violar la regla consiste en poner límites a lo que el interlocutor puede expresar. Y una de las tácticas para limitar al otro
consiste en blindar determinados puntos de vista de modo que no puedan ser debatidos en la discusión: “Lo he convocado para informarle
que he decidido realizar una reforma integral del plan de estudios. Podemos discutir algunos detalles de implementacion, pero en los aspectos
principales las decisiones están tomadas.”
La segunda forma de imponer limitaciones consiste en restringir la libertad de acción de la otra parte desechandola como un actor serio del
debate. Tácticas:
-Presionar de manera amenazante al otro actor para inhibir su propuesta ( falacia del garrote)
-Chantaje emocional: falacia de apelación a la piedad.
Consiste en desacreditarlo presentándolo como inmoral, indigno o cualquier otra descalificación personal destinada a convencer a la audiencia
de que no vale la pena escucharlo. Normalmente esta modalidad se explica afirmando que no se ataca personalmente a la otra parte, pero se
duda de que su profesión le permita ser objetiva. (Argumento ad hominem)

Regla 2: Una parte que presenta un punto de vista está obligada a defenderlo si la otra parte le solicita hacerlo
La regla es violada cuando alguien trata de evitar lo que debería considerar su obligación: defender su posición a pedido del antagonista.
Falacia de inversión de la carga de la prueba (Ud. pruebe primero que eso no es así). Es necesario poner el énfasis en que esta perspectiva es
aplicable siempre que pueda asegurarse que lo que el antagonista plantea es una duda que no llega a constituir un punto de vista.
Cuando ambas partes proponen un punto de vista claramente distinto (diferencia de opinión mixta), ambas deben defender el suyo. La
decisión sobre el orden de la defensa tendría que basarse en algún criterio supletorio. Uno de tales criterios, llamado “principio de
presunción”, considera que la carga de la prueba debe quedar del lado del que propone cambiar el satu quo. Un segundo criterio, conocido en
el derecho civil como principio de imparcialidad, sostiene que el punto de vista que es más fácil de defender debería ser defendido primero.
Falacia de evadir la carga de la prueba: Consiste en presentar al punto de vista como algo que no necesita ser probado. Apuntan con agudeza
que los “marcados” de la falacia suelen ser expresiones como “es obvio que…”, “nadie en su sano juicio podría negar que…”. Consiste en dar
por sentado, es decir, en intentar persuadir al otro actor de que el punto de vista ya ha sido probado.

Regla 3: El ataque de una parte contra un punto de vista debe referirse al punto de vista que realmente ha sido presentado por la otra parte.
Esto significa que la regla es violada cuando el punto de vista cuestionado no es el que fuera inicialmente propuesto por el protagonista, ya sea
distorsionando su posición o atribuyendole un punto de vista ficticio que puede ser atacado de manera mas efectiva. La forma mas frecuente
de esta violación se llama falacia del espantapájaros. Expresiones tales como : “Claramente el señor es de la opinión de que…” o “El autor
obviamente supone que…”, suelen iniciar la manufactura del espantapájaros argumentativo.

Regla 4: Una parte solo puede defender su punto de vista presentando una argumentación que esté relacionada con ese punto de vista
La regla proscribe la defensa de un punto de vista realizada a través de la instrumentación de argumentos irrelevantes. La primera violación de
la regla 4 tiene lugar cuando la argumentación no tiene relación con el punto de vista adelantado en la etapa de la confrontación, es decir, el
sujeto propone una argumentación relevante solo para un punto de vista que no es el que esta en el debate.(ignoratio elenchi).

Regla 5: Una parte no puede presenta algo falsamente como si fuera una premisa dejada implícita por la otra parte, ni puede negar una
premisa que el mismo ha dejado implícita
Uno de los trucos consiste en magnificar una premisa implícita supuestamente tacita en el argumento del oponente.
X: - Puede suceder que no le gusten mucho los perros porque tiene un gato.
Y: - De modo que Ud. piensa que todo el que tiene un gato por definición odia a los perros.
La segunda variante falaz expuesta en la regla consiste en que un sujeto no se hace responsable de lo que incluyo como premisa implícita.

Regla 6: Ninguna parte puede presentar falsamente una premisa como si fuera un punto de partida aceptado, ni puede negar una premisa que
representa un punto de partida aceptado.
No es necesario que los contendientes crean efectivamente que las proposiciones de inicio son aceptables, solo es necesario que las acepten
como tales en tanto punto de partida de la discusión, para –más adelante- comprobar su aceptabilidad o demostrar su carácter insostenible.
Mediante la formulación de una proposición polémica enmascarada como una presuposición aceptada: X es adicto a las drogas, se afirma: “No
se comprende como X no intentan luchar contra suadicción”.
Utilizar la pregunta compleja como introducción enmascarada de una premisa no reconocida como tal. En vez de acusar al protagonista de
agresivo se afirma: “¡Vaya!¿A cuántos indefensos castigaste hoy?

Regla 7: Una parte no puede considerar que un punto de vista ha sido defendido concluyentemente si la defensa no se ha llevado a cabo por
medio de un esquema argumentativo apropiado que se haya aplicado correctamente
Solo si el protagonista utiliza un esquema argumentativo apropiado y lo aplica de manera pertinente, la defensa puede evaluarse como
adecuada (exitosa). Esto es, si utiliza un esquema argumentativo inapropiado durante la etapa de la argumentación o lo aplica de manera
incorrecta, viola la regla 7. Los autores juzgan al Argumentum ad populum como una de las modalidades argumentativas falaces que violan la
regla expuesta. La falacia, que los autores llaman falacia populista, se conoce en los trabajos de lógica informal como falacia de apelación a la
mayoría, y consiste en considerar que un punto de vista debería aceptarse porque muchos lo sostienen.
Cada regla anteriormente presentada expone diferentes maneras de violar la regla que prescribe que el esquema argumentativo debe ser
correcto.

Regla 8: En su argumentación las partes solo pueden usar argumentos que sean lógicamente validos o que sean susceptible de ser validado
explicitando una o mas premisas implícitas.
El requisito de validez lógica previene contra la instrumentación de falacias formales (es claro que hasta el momento todas las falacias que
ilustraban violaciones de las reglas fueron informales). Se citan como ejemplos las falacias formales de afirmación del consecuencia y negación
del antecedente.

Regla 9: Una defensa fallida de un punto de vista debe tener como resultado que la parte que lo presento se retracte de el y una defensa
concluyente debe tener como resultado que la otra parte se retracte de sus dudas acerca del punto de vista
La etapa de cierre debe establecer si la diferencia efectivamente se resolvió y a favor de quien.
Falacia de rechazo de retractación de un punto de vista que no fue defendido exitosamente: Si el protagonista, pese a haber sido exitosa la
argumentación de su oponente, persiste tercamente en su postura
Falacia de rechazar la retractación de la critica del punto de vista que fue exitosamente defendido: Si el antagonista, pese a haber sido exitosa
la defensa del protagonista, no se retracta.

Regla 10: Las partes no deben usar formulaciones que resulten insuficientemente claras o confusamente ambiguas y deben interpretar las
formulación de la parte contraria tan cuidadosa y exactamente como les sea posible
La ambigüedad o la vaguedad en términos o construcciones sintácticas en cualquier etapa de la discusión comprometen severamente la
pertinencia del proceso. Anfibología es la falacia que consiste en argumentar a partir de proposiciones cuya formulación es ambigua debido a
su estructura gramatical.

• Aspectos positivos en la teoría de las falacias como violación de reglas:


Utilizar un conjunto de reglas como marco de referencia, aunque solo se trate de acuerdo comunicacionales pragmáticos, proporciona al
análisis y evaluación de la pertinencia argumentativa notable unidad y homogeneidad.
Las reglas generalizan la noción de falacia, de modo que toda maniobra discursiva que contribuya al fracaso parcial o total de la resolución de
la controversia puede entenderse legítimamente como violación de alguna de las reglas propuestas.
Es interesante el reconocimiento del criterio de validez lógica como una de las reglas que deberían ser respetadas. Correctamente vincula la
violación de esta regla con la administración de falacias formales, como la de afirmación del consecuente.

Pens. Científico Resumen de la Materia 2º Cuat. de 2011 Altillo.com

Semiótica: estudio signos


Lógica: estudio estructuras lenguaje
Epistemología: rama filosofía. Ciencia como objeto de estudio
Lenguaje: Conjunto de signos aceptados de manera convencional
Conjunto reglado de símbolos usados de manera convencional
Positivismo: mov. Filosófico. Unidad del saber: relación de fundamentación entre ciencia
deductiva sobre ciencia inductiva
Pensamiento mágico: conexión natural entre nombre y cosa nombrada
DISPUTA DE LOS UNIVERSALES: platón/Aristóteles: argumento desde las ciencias: cosas
sensibles están en continuo cambio, la ciencia no puede hacerse de lo que esta en continuo
cambio, sino mediante entidades no cambiantes: formas/ideas
Platón: el conocimiento absoluto solo se alcanza con la existencia de entidades absolutas (ideas)
TEORIA NOMINALISTA:
Navaja de Ockham: - principio de no contradicción: igual naturaleza no puede estar en
individuos distintos.
- Si 2 teorías en igual de condiciones tienen misma consecuencia: la más simple tiene más
probabilidades de ser correcta.
USO DEL LENGUAJE: Dios es omnipotente (Supposito formalis)
MENCIÓN DEL LENGUAJE: “Dios” es monosílabo (Supposito materialis)

SEMIOTICA: SIGNOS: representación.


Tipos de signos: Indicio/Signos natural: relación casual. Fiebre indicio de enfermedad
Icono: relación de semejanza
Símbolo: conexión convencional
Para que un signo funcione tiene que haber: vehiculo signico: señal/fenómeno
significado signico
Interprete: SI EL INTERPRETE NO LO CONSIDERA SIGNO, ESTE NO SIRVE (MORRIS)
Dimensión de los signos: SINTAXIS: relación signos y reglas que los ordenan
SEMANTICA: relación signo-significado
Designación: características
Extensión: aplicación
Denotación: ejemplares
Términos sin denotación: entes formales (raíz cuadrada), entes de ficción, entidades abstractas,
cualidades/atributos.
Género: Atributo esencial aplicable a muchas especies diferentes.
Especie: Es lo que está clasificado bajo el género y a lo que se atribuye el género esencialmente.
PRAGMATICA: uso signo
Funciones: informativa, expresiva y directiva
Proposiciones: son verdaderas o falsas
Están determinadas por las reglas de formación oracional y por el uso del signo en el juego del
lenguaje
Teorema: proposición dentro de un sistema de reglas
Premisas: afirmaciones de donde sacamos conclusiones
Axioma: Premisa que se considera verdad sin necesidad de demostración previa
Vaguedad: no poder definir con exactitud los limites para incluir individuos en una clase
Ambigüedad: 1 término tiene más de un significado posible

DEFINIR: limitar significado de un término


Definiendum:
Definiens: conjunto de palabras para aclarar significado del definiendum
Reglas: No debe ser circular
Ni muy amplio ni muy estrecho
Ni metáforas ni términos vagos
No puede ser negativa cuando puede ser afirmativa
No debe utilizar sinónimos
Puede ser persuasiva (quiere influir) o connotativa (nombra ejemplares de la clase)

LEYES LOGICAS: reglas regulan uso convenciones del lenguaje


TAUTOLOGIA: proposición verdadera. Si p entonces p
CONTRADICCIÓN: proposición falsa. No se da p y no p
CONTINGENCIA: proposición indeterminada.
VERDAD: se refiere a posibilidades, a la posibilidad de ser verdadera en interpretaciones
eventuales. Las premisas y conclusiones pueden ser verdaderas.
VALIDEZ: propiedad formal de una forma o estructura de razonamiento, imposibilidad de que
las premisas sean verdaderas y la conclusión sea falsa para cualquier interpretación posible bajo
el principio de no contradicción.
REGLAS LOGICAS: MODUS PONENDO PONENS: Dado A y B, si se afirma A se afirma B
MODUS TOLLENDO TOLLENS: Dado A y B, si se niega B se niega A
FALACIAS FORMALES: argumentos inválidos
FALACIA DE AFIRMACIÓN DEL CONSECUENTE: La gente honrada(Si A) está en
libertad(entonces B). Yo estoy en libertad(B), así que soy honrado(entonces A)
FALACIA DE NEGACIÓN DEL ANTECENDENTE Si estudio(Si A) aprobaré(entonces B).
No estudié(no A), entonces suspenderé(entonces no B).

INDUCCIÓN: argumentos en los que se pasa de un enunciado a otro donde el 1er enunciado no
implica al segundo
POR ENUMERACIÓN SIMPLE: A1 es B, A2 es B, An es B. A partir de determinadas
propiedades en una muestra de individuos, se traslada el conocimiento a todos los individuos.
Para sostener esto habría que aceptar el principio de uniformidad de la naturaleza. Solo hay un
grado de probabilidad de que la inducción sea cierta (probabilidad lógica/grado de
confirmación)
ANALOGIA: A y B tienen las propiedades P, Q y R
A tiene también la propiedad S
Es probable que B tenga la propiedad S
FALACIAS INFORMAL: argumento psicológicamente persuasivo construido intencionalmente
para engañar.
FALACIAS MATERIALES: las premisas son inapropiadas porque lo que se dice en ellas no es
pertinente respecto a la conclusión
Falacias de inatinencia: argumentum ad verecundiam/de autoridad (utilizar una figura de
autoridad para confirmar una afirmación, si la figura de autoridad no es experta en la afirmación,
es una falacia)
Falacia ad popolum: todos lo dicen
Argumentum ad ignoratian: Inocente hasta que se demuestre lo contrario
Argumentum ad hominem/contra la persona: x es un mentiroso, por lo tanto lo que ha dicho es
falaz
POST HOC: después de un hecho, por lo tanto debido al hecho
FALACIA DE EFECTO CONJUNTO: 2 acontecimientos que aparecen juntos, regularmente
son evaluados como ligados casualmente, cuando son efectos de misma causa
ARGUMENTUM AD BACULUM/FALACIA DEL GARROTE: forzar una conclusión
utilizando una amenaza.
ARGUMENTUM AD MISERICORDIAM: apelar a la piedad para que se acepte una conclusión
IGNORATIO ELENCHI: utilizar un argumento en una conclusión diferente, haciendo a la
conclusión irrelevante.
FALACIAS DE AMBIGÜEDAD: FALACIA DE EQUIVOCO: aprovecharse del carácter
ambiguo de las palabras
FALACIA DE COMPOSICIÓN: aplicar características de un individuo al conjunto de estos.
(Todas las partes de la maquina son livianas, la maquina es liviana)
FALACIA DE DIVISIÓN: aplicar características a un individuo a partir de su característica
colectiva (la maquina es pesada, todas las partes de la maquina son pesadas)
TOULMIN: Explica desde el punto de vista lógico, la estructura o el esquema al cual responde
un texto argumentativo. (Un argumento sólido es aquel que resiste la crítica)

ESQUEMA BASICO:
D → Por lo tanto C X nació en Salta → Por lo tanto X es ciudadanos
argentino
↓ ↓
Porque G Si naces en Salta sos Argentino

D: Datos
C: Claim/Demanda/Conclusión
G: Garantías

ESQUEMA COMPLEJO
D → Por lo tanto M, C X nació en Salta, prov. Argentina → Por lo tanto
supuestamente → X
↓ ↓ ↓
es ciudadano Arg.
Porque G Al menos que E Porque si naces en Salta sos
Argentino ↓

↓ a menos que
Teniendo en cuenta R Teniendo en cuenta las siguientes
leyes… ↓
X
haya sido nacionalizado

Español
M: “supuestamente”, modera la afirmación central
E: establece en que caso la garantía deja de justificarla conclusión
R: datos de respaldo

SISTEMA AXIOMATICO: conjunto de axiomas que se utilizan, mediante deducciones, para


demostrar teoremas. Conduce a la formulación de una ciencia. Componentes: términos
primitivos (sirven para definir otros términos), definiciones, axiomas (enunciados verdaderos
que NO derivan de otros enunciados), reglas y teoremas.
Pasos para formarlo: 1. Listar todos los términos sin definir
2. Establecer relación de todas las proposiciones para las que no se dan demostración
3. Desarrollar el sistema: deducir las consecuencias lógicas utilizando reglas de inferencia. Las
consecuencias son los teoremas del sistema.
El sistema DEBE ser: Consistente: no se debe poder, desde los axiomas, derivar una formula y
su negación.
Independiente: Ningún axioma debe derivarse de otros o de su conjunto
Completo: Permite derivarse de los axiomas todas las leyes del sistema

TEORIA EMPIRICA: es un conjunto de hipótesis de partida y sus consecuencias lógicas


(Popper, Bunge, Klimovsky)
INDUCTIVISMO ESTRECHO/INGENUO/VERIFICACIONISMO: Hume
Método: inducción por observación. Observo, luego generalizo.
Justificación: generalización de leyes por inducción. Si x cantidad de miembros de la clase lo
tiene, todos lo tienen. La observación más la contrastación me permite decir que la conclusión es
verdadera.
Criticas: argumento circular, aportar más casos no es justificación suficiente.
INDUCTIVISMO SOFISTICADO/AMPLIADO/CONFIRMACIONISMO: Hempel, Carnap
Método: hipotético deductivo
Justificación: Corroboración probabilística de las hipótesis: conclusiones observacionales
verdaderas: Falacia de afirmación del consecuente
Refutación probabilística de las hipótesis: conclusiones observacionales falsas: Modus Tollens
REFUTACIONISMO/FALSACIONISMO: Popper
Método: Hipotético deductivo
Justificación: Refutación deductiva de las hipótesis: Modus Tollens
Corroboración provisoria si la refutación falla
Hipótesis falsables: Aporta informe de riesgo acerca del mundo
Que tenga contenido empírico
Que diga algo acerca del mundo
Que no esté prevenida contra la refutación
Que tenga una probabilidad de ser falsa (“ble”)
Puede resultar falsada o corroborada
Hay grados de falsabilidad: dependen del grado generalidad sujeto y grado precisión del
predicado.
NO son falsables: enunciados probabilísticos (protegidos por la probabilidad), enunciados
tautológicos (no ofrecen información precisa acerca del mundo), enunciados que contienen
términos sin denotación (ángel, brujo, etc.)

TIPOS DE HIPOTESIS: Fundamentales (axiomas/leyes) y auxiliares (premisas adicionales que


deben ser falsables)
Esquema: H y Ha1 y Ha2 y Ha3 entonces CO (consecuencia observacional)
- CO entonces –Ha1 o
- CO entonces –Ha2
Si no se cumple la consecuencia observacional entonces no se cumple alguna de las Ha

EXPLICACIÓN CIENTIFICA: intenta hacer comprensible eventos particulares apelando a


otros hechos particulares de alguna rama de las cs. Fácticas.
EXPLANANDUM: requiere explicación, explicable
EXPLANANAN: proporciona explicación, explica
MODELOS DE EXPLICACIÓN:
Nomológica deductiva (ND): La explicación de un enunciado está integrado por: condiciones
antecedentes (describen las circunstancias particulares en las que se produce el enunciado) y por
las leyes generales (explican el enunciado).
Las condiciones antecedentes y las leyes generales funcionan como premisas de una inferencia
deductiva cuya conclusión es el enunciado:
L1, L2… Ln Todos los metales se dilatan con el calor
C1, C2… Cn Este trozo de hierro es un metal
--------------- Por lo tanto --------
E Este trozo de hierro se dilata con el calor
Según Hempel: el explanans son: leyes falsables con contenido empírico y enunciados
verdaderos y el explanandum deriva del explanans. Para Hempel y Nagel todos los demás
modelos derivan del ND.
Estadística inductiva (EI): En esta explicación las premisas (leyes generales y conclusiones
antecedentes) apoyan a la conclusión con una probabilidad p (numero probabilístico entre 0 y 1).
El explanans no implica al explanandum, solo le otorga cierta probabilidad.
L1, L2…Ln La gran mayoría de las infecciones con estreptococos remiten rápidamente al ser
tratadas con penicilina.
C1, C2… Cn Juana tenía una infección por estreptococos
Juana fue tratada con penicilina
----------------
---------------
E Juana se recupero rápidamente
Genética: Explicar un hecho histórico señalando una sucesión de hechos anteriores,
encadenándolos de modo que integren un proceso que termina en el hecho a explicar. No se
registran todos los hechos, sino sólo los que tienen relevancia causal.
Hempel: Cada eslabón del proceso sería una explicación deductiva o estadística, lo que equivale
a transformar la explicación genética en una secuencia de explicaciones ND o EI.
Brown: Explicación genética puede explicar el hecho en cuestión por sucesos, procesos o
situaciones que “se pueden fechar”, que no se exponen a través de leyes universales ni
generalizaciones estadísticas.
Teleológica: Establece una relación explicativa intenciones-fines.
Ej. ¿Por qué estudian con los alumnos de IPC? Porque tienen la intención de aprobar la materia.
Wright: sostiene que ninguna de estas posiciones describe adecuadamente la explicación
teleológica:
1. en ella se explica un hecho presente por algo que ocurre en el pasado
2. la relación medios-fines o intenciones-fines no es asimilable a la relación causa-efecto.
Retoma la propuesta aristotélica de los silogismos prácticos y lo describe así:
a) la premisa mayor del silogismo menciona algo pretendido o una meta.
b) la premisa menor presenta algún acto o acción conducente al logro de la meta, un medio
dirigido al fin.
c) la conclusión consiste en el empleo de ese medio para alcanzar el fin en cuestión. El
silogismo práctico traducirá la naturaleza de la intencionalidad y la racionalidad teleológica en
las acciones humanas. Esquema:
A se propone dar lugar a p. a) algo pretendido/meta
A considera que no puede dar lugar a p a menos que haga a. b)medio dirigido al fin
Por consiguiente, A se dispone de hacer a . c)empleo de ese medio para alcanzar fin
EXPLICACIÓN Y PREDICCIÓN:
Explicación ND y predicción: en la ND disponemos del explanandum y buscamos leyes
generales que lo implican (explanans), en la predicción anticipamos deductivamente al
explanandum
Explicación estadístico inductiva: Imposibilidad de predicción

La ciencia debe explicar y no describir.


MONISMO METODOLÓGICO: único método aplicable a las cs: el hipotético deductivo.
PLURALISMO METODOLÓGICO: para cada tipo de ciencia fáctica existe un método propio
de justificación de hipótesis/teorías.

CORRIENTE POSITIVISTA: Monismo metodológico, tiende a subsumir el método de las


ciencias sociales al de las naturales y se establece como ideal metodológico las ciencias exactas.
Resalta énfasis en la explicación y predicción. (Monismo metodológico)
CORRIENTE ANTIPOSITIVISTA: Tendencia diversificada y heterogénea. Rechaza el
monismo metodológico y a las ciencias exactas como único regulador. Tiende a sostener un
contraste entre las ciencias que aspiran a generalizaciones sobre fenómenos y las ciencias que
buscan comprender las particularidades. Se la llama hermenéutica. (Plurisimo metodológico)

COMPRENSIÓN EN LAS CIENCIAS SOCIALES


Corriente antipositivista: sostiene que el objetivo de las ciencias naturales es explicar y el de las
ciencias sociales es comprender los fenómenos. La comprensión posee un significado
psicológico, una forma de empatía en la mente sobre el ámbito y objetos de estudio.
Comprender es la capacidad de entender a otro ser humanos en una situación no vivida
personalmente. Tanto el sentido histórico como el temporal, son inevitables para toda
comprensión.
La explicación y la comprensión son complementarias.

POSITIVISMO LOGICO: La concepción heredada es un producto del Positivismo lógico,


escuela que surgió del Círculo de Viena cuales buscaban resolver los problemas filosóficos
propios de las ciencias. La concepción heredada buscaba evitar la introducción de entidades
metafísicas en las ciencias. “Positivismo lógico” se refería a la incorporación de los
descubrimientos de la lógica contemporánea, en especial el simbolismo lógico dado. Dividían a
las proposiciones significativas en proposiciones formales (tautologías) y proposiciones fácticas
(verificables empíricamente). Los positivistas lógicos advierten la imposibilidad de conocer más
allá de la experiencia sensible
Para que una palabra(a) tenga sentido es necesario:
1. Que las notas empíricas de “a” sean conocidas
2. Que haya sido estipulado de qué proposiciones protocolares es derivable “P (a)”
3. Que las condiciones de verdad para “P(a)” hayan sido establecidas
4. Que el método de verificación “P(a)” sea conocido

POPPER: perspectivas falsacionistas: conocimiento empírico es por ensayo y error. Creamos


hipótesis, las sometemos a prueba, inferimos consecuencias observacionales contrastables por la
experiencia, será refutada o corroborada.
Esquema: P1---TT---EE—P2
Racionalismo crítico: admite noción de “grado de corroboración”, es una confrontación entre 2
teorías rivales y la experiencia.
Posición antológica realista: realidad existe independientemente de la capacidad de concebirla
Solipsismo: mundo es una construcción mental. El conocimiento científico es intersubjetivo, la
ciencia es un objeto social y surge a partir de la cooperación y la competición institucionalizada
por los científicos.
LAKATOS: Programa de investigación: Núcleo formado por hipótesis teóricas: base del
programa
Núcleo protegido por cinturón protector de hipótesis auxiliares
Hemistica: sugerencia sobre cómo manejar los enigmas científicos.
Positiva: exigencia de que durante el desarrollo del programa el núcleo no se modifique. Si se
aparta del núcleo se aparta del programa de investigación
Negativa: conjunto de indicaciones sobre como cambiar/desarrollar variables refutables del
programa, como modificar/refinar el cinturón protector
Cuando el programa no puede predecir por un tiempo se torna degenerativo.
Un programa es mejor si es más progresista, llegando a nuevas predicciones satisfactorias.
KUHN: teorías pasan a ser consensos racionales tentativos, los hechos pasan a estar definidos
por su contexto histórico, se abandona la tesis de verosimilitud, la misión de la epistemología
pasa a ser el examen del proceso histórico del conocimiento científico
Estructura de la rev. Científica: 2 modalidades de producción científica: normal (procedimiento
habitual) y no normal (revolucionario).
Paradigma: Etimológicamente: algo que sirve de modelo para cosas del mismo tipo
Para Kuhn: conjunto de supuestos compartidos por una comunidad científica que guían la
investigación normal. LA REVOLUCIÓN CIENTIFICA ES EL CAMBIO DE PARADIGMA
Sentido global: cambio de matriz disciplinar: disciplina: patrimonio común de los que practican
una disciplina
Matriz: conjunto ordenado de elementos de diferente naturaleza.
2 observadores que ven de matrices disciplinares distintas ven cosas distintas, ya que cada uno
recoge datos distintos y el significado de sus experiencias es distinto.
Críticas: Toulmin: Duda de que la ciencia natural se de
Popper: la distinción entre cs. normal y no normal no es aplicable a todas las ciencias
Scheffer: cree que la idea de que la cs. es una empresa irracional es subjetiva
Watkins: dice que si los paradigmas son incomparables, no puede haber competencia entre ellos
Scheffer: dice que no se pueden controlar las afirmaciones de la ciencia
Todos ellos coinciden en que la tesis de Kuhn es indemostrable
Kuhn acepta las críticas pero cree que el progreso científico se debe a una superior capacidad de
una teoría sobre otra para resolver enigmas

CIENTIFISMO/POSITIVISMO/EMPIRISMO LOGICO: los intereses nacionales de naturaleza


económica y social deben orientar la política científica de un país. Política científica orientada al
desarrollo. Ciencia como rectora de la sociedad. Exponente: Bunge: método científico es la
manera más eficaz para explorar el mundo
ANTICIENTIFISMO: Rechaza la preponderancia del conocimiento científico sobre todo tipo de
conocimiento y es la culpable de todos los males

ETICA: disciplina filosófica. Se ocupa de las normas morales que regulan la conducta humana.
Las normas morales determinan lo que es incorrecto y correcto, se relaciona con el concepto de
responsabilidad, la cual puede ser retrospectiva (resultados de lo que ya hicimos) o prospectiva
(prever resultados). La ética aplicada es el análisis filosófico de las normas

CIENCIA BASICA: estudia los problemas que le interesan


CIENCIA APLICADA: problemas de posible interés social
La TECNOLOGÍA es la consecuencia de la ciencia, la tecnología es la rama de la técnica que
puede ser considerada como ciencia aplicada.

POLITICA CIENTIFICA: Acciones del estado para fomentar la investigación científica


POLITICA CIENTIFICA ARGENTINA:
2da mitad del siglo xx: Sarmiento
Siglo XX: institucionalización de las ciencias. Mayor calidad y expansión. Bernardo Houssay
Segunda posguerra: consolidación definitiva de instituciones
Años 60: falta de claridad
Anos 70 a 80: agotamiento del modelo por nuevas tecnologías
Años 90: Acomodamiento, despegue político, social y económico del país

Durante la década del ’90, comienza en la Argentina y América Latina el intento de recuperar el
terreno perdido pero con políticas equivocadas. Por eso no se produjo el cambio estructural
esperado. En nuestros días, se intenta dar nuevo impulso a la investigación científica y
tecnológica orientada a la innovación, fortaleciendo la infraestructura existente a la altura de las
exigencias internacionales.
La inercia de los organismos de investigación, el academicismo universitario nacional, la
desvinculación de ambos con las necesidades sociales y las empresas, a lo que se suma la no
intervención del Estado en estas cuestiones, impiden realizar las modificaciones necesarias.

Pens. Científico Trabajo sobre Globalización del Texto de Agresti 2º Cuat. de 2011 Altillo.com

CUALES SON LAS CARACTERISTICAS DE LA CULTURA GLOBALIZADA:


El proceso de globalización tiene efectos muy profundos a nivel cultural.
Uno de los hechos culturales desatacables es la tendencia a la individualización creciente, y a la
desterritorializacion , es decir que el individuo ,no asociado a un espacio físico determinado y
circunscripto , se convierte en centro de la escena social y económica . Sin embargo,esta
individualización no supone aislamiento ni la desaparición de la tendencia natural del hombre a
la agregación ,sino que dicha agrupación se construye a partir de las preferencias e intereses
individuales, mas alla de la pertenencia a una nación,religión, etnia o clase.
Otro de los aspectos mas significativos se produce a nivel del idioma, donde el ingles se esta
convirtiendo en la lengua universal , siéndolo ya en los negocios y la investigación científica.
Asimismo, manifestaciones masivas de la industria del entretenimiento o de la cultura en
general, donde las que están dirigidas a mercados de habla hispana , imponen el español neutro,
sin modismos particulares de cada país. Y formatos universales para programas de televisión
como Gran Hermano o Bailando por un sueño. Estas industrias del entretenimiento significan
importantes oportunidades económicas para algunas regiones , pues a través de ellas los artistas
pueden exportar su creatividad.
Las nuevas tecnologías de la comunicación contribuyen también a crear lazos y comunidades
mas alla de los vínculos constituidos por la idea de nación. Fácilmente se pueden tejer afinidades
basadas en preferencias, ideas o actividades comunes que están mas alla del hecho de ser o no
connacional . Amistades que se crean en Internet ,donde se intercambian modos de
comunicación, costumbres, lenguajes diferentes provocan también cambios culturales asì como
pueden implicar cuestionamientos de los miembros de comunidades contra el propio estado
nacional, en alianza con personas de otras nacionalidades , por ejemplo en defensa del medio
ambiente. Relacionado con estos avances tecnológicos , el acceso mas igualitario a la
información produce cambios en nuestros decisiones personales, ya que podemos disponer de
conocimientos específicos que ayuden a tomar las mismas, tanto a nivel individual,como
comunitario o político.
Por otro lado, hay cambios culturales , que podrían considerarse negativos, a raíz de la
globalización del miedo, a raíz del terrorismo internacional. Este ha provocado , sentirse
inmerso en un mundo inseguro, no ya un país o región, sino el planeta completo es inseguro,
afectando nuestras costumbres y conductas , al viajar en avión , trenes o subtes, asi como al
hacer turismo a lugares donde se han producido ataques importantes .
Los cambios culturales también puede deberse a los cambios climáticos, ya que con el
recalentamiento gobal, se han transformado costumbres como horarios para exponerse al sol, ,
asì como la necesidad de contar con elementos como aire acondicionado para garantizarnos un
mínimo de bienestar en épocas veraniegas y asumiendo conciencia al respecto de los efectos de
ese suceso, cuidemos los recursos energéticos al máximo,cambiando lámparas por las de bajo
consumo, cuidando el agua que utilizamos, reduciendo al máximo los elementos que puedan
dañar el medio ambiente.

RELACION ENTRE COMUNICACIÓN Y TECNOLOGIA:


Asi como en otras épocas el cambio hacia una comunidad única y convergente se daba por la
tecnología existente en esos momentos, como la electricidad , los aviones , la telefonía o
anteriormente los ferrocarriles , los barcos a vapor , el telégrafo , actualmente el proceso de
globalización actual esta caracterizado por los permanentes y sumamente rapidos avances
teconologicos , sobre todo en lo que tiene que ver con las comunicaciones, inicialmente por el
uso de internet, asì como por otras tecnologías que permiten la conexión en tiempo real de
personas en los lugares mas alejados del mundo, lo cual da la sensación de que el mismo se
“achica”.
Ademas las tecnologías de información digital es de un avance permanente, el uso de internet al
que antes solo podíamos acceder a través de una computadora, ahora es posible desde un
pequeño teléfono celular, el cual en sì mismo ya es también un avance tecnológico
importantísimo en las comunicaciones , ya que permite la conexión desde casi cualquier lugar
del planeta.
El flujo de información digital (teléfonos celulares, mensajes de texto, internet) ha llegado a las
masas del mundo , también en los países pobres, con su consiguiente revolución economica
política y social. Y podrían contribuir a solucionar problemas comunes, el aislamiento la
desigualdad y la pobreza.
EN RELACION A UN MUNDO ECONOMICAMENTE INESTABLE, EXPLIQUE :
CAMBIOS CONYUNTURALES : son aquellos que se producen a corto o mediano plazo , por
una situación puntual y cuando desaparecen (más allá de las secuelas que puedan quedar), se
recomponen las situaciones manteniendo las mismas variables en general que antes del
problema. Las crisis recurrentes y desigualdades en la distribución del ingreso pueden ser hecho
no continuos o que
CAMBIOS ESTRUCTURALES : el proceso de globalización económica, el fin de la economía
planificada centralmente que se produce con la crisis de la URSS EN 1989, el cambio
geográfico del poder económico , a partir del despegue de las economías del sudeste asiático, los
déficits externos de la economía de los EEUU , el envejecimiento poblacional y sus
consecuencias en el financiamiento de los sistemas jubilatorios , cambios productivos
relacionados con lo medioambiental que requeriría una reprogramación de la producción global,
variabilidad de precios de la energía , el deterioro de niveles educativos en países lideres ,
aparición de organizaciones globales de lavado de dinero , delitos de falsificación, contrabando
que afecten derechos de propiedad e intereses de los Estados.

EN EL MARCO DE UN MUNDO SOCIALMENTE INJUSTO , EXPLICAR :


A) LA CUESTION DE LA POBREZA MUNDIAL.
Según la ONU viven en el mundo unos 6.500 millones de personas en estado de pobreza. , es
decir sin alcanzar lo minimo indispensable para satisfacer sus necesidades básicas
(principalmente alimentos)
Abandonada la teoría del derrame que el propio Banco Mundial admite que el crecimiento
económico por si solo no alcanza para reducir la pobreza, se podría sintetizar las causas del
hambre en el planeta por la caída de inversión publica en el sector agrario, el encarecimiento de
materiales y energía, el aumento de los precios de los alimentos por la especulación financiera y
mercantil, el empleo de cosechas en la fabricación de biocombustibles y el aumento de la
población.
Es un problema considerado de tal magnitud, que la ONU y el BANCO MUNDIAL crearan
equipos de emergencia para enfrentar la crisis mundial alimentaria como un desafío sin
precedentes y de proporciones globales.
Por otra parte la cuestión de la pobreza deriva en el problema de la inseguridad , eje de
procupacion de amplios sectores sociales, donde el discurso ,reiterado en los medios de
comunicación masivos, la llamada Doctrina de la Seguridad Ciudadana, sostiene que el pobre es
el “otro a erradicar” ubicando la pobreza en la base misma de la sensación de inseguridad que
viven muchas personas.cuestion que es necesario evitar, para evitar una lucha de todos contra
todos, como en tiempos remotos de nuestra historia humana.
Paliar esta situación con crecimiento inclusivo, que los pobres aumenten su participación en el
mercado de cosumo ,mejoren la calidad y bajando el precio de los productos y servicios a los
que acceden los sectores de menos ingresos y por otro ,aprovechando los recursos tecnológicos ,
inclusive en esos sectores, para reducir las desigualdades sociales.

B) DESCRIBIR COMO SE PRODUCE LA DESIGUAL DISTRIBUCION DE LA


POBREZA :
La pobreza es un problema de distintas magnitudes en el mundo, como explica Guadagni , es
cada vez mas africana y latinoamericana y menos asiática.En la década del 90 el numero
absoluto de pobres aumento en 80 millones , pero en Asia disminuyò 140 millones, aumentando
en 220 millones en el resto del mundo. Tres dados ,presentan con claridad los problemas de la
desigualdad y pobreza : 1.000 millones de analfabetos en el mundo, clave dado el papel de la
educación para combatir la pobreza, 1100 millones no tienen acceso a agua potable y 2 millones
mueren por dia por enfermedades relacionadas con el agua potable. Mientras en Japon la
expectativa de vida es de 82 años, en Zimbawe es de solo 36 años. Africa Subsahariana es la que
presenta la por situación actual y a futuro, en ella viven unos 600 millones de personas pobres.
La pobreza disminuye muy lentamente en America Latina , y crece en Africa, en donde
enfermedades como el Sida o la tuberculosis matan a millones de personas. La crisis económica
global desatada en el 2008 , agravara esto , ya que el desempleo es uno de llos rasgos
dominantes de la misma agravando las desigualdades ,conflictos sociales y las condiciones de
vida de millones de personas.
En cuanto a la actual situación de crisis global al decir de Lendman:” los consumidores de países
ricos están sintiendo ya la crisis en los supermercados, pero los pueblos mas empobrecidos del
mundo están muriéndose de hambre”. Mientras el mundo es mas rico y produce mas alimentos
que en la década pasada, el hambre ha aumentado al subir el precio de los mismos , como causa
de la especulación de sectores dominantes de la economía mundial

MERCADO DE TRABAJO Y GLOBALIZACION


La crisis económica actual según la OIT , podría contabilizar en el mundo 50 millones de
personas desempleadas màs respecto de las cifras del 2007 , lo que provocarìa un que millones
de trabajadores principalmente de las economías en desarrollo podrían descender a niveles de
pobreza extrema. Si bien America Latina dejo de estar entre las zonas mas afectadas del mundo ,
en esto también se nota la profunda desigualdad en relación a quienes pagan el costo mas duro
de la crisis.
Las tasas de desempleo mas altas están en el norte de africa, oriente medio , Europa central y
sodoriental y comunidad de estados independientes , y menores en los países asiáticos.

EXPLICAR LOS PRINCIPALES FOCOS DE CONFLICTO POLITICO MILITARES


Los principales focos de conflicto en el mundo de hoy son:
ISRAEL-PALESTINA – ORIENTE MEDIO EN GENERAL
CACHEMIRA – (INDIA Y PAKISTAN)
TAIWAN ( RECLAMADA POR CHINA
PENINSULA COREANA ( COREA DEL NORTE Y DEL SUR.
Todos estos conflictos involucran países que poseen armas atomicas o de destrucción masiva. O
que las pueden tener a la brevedad.
El temor mas grave es que esas armas caigan en manos del terrorismo global que decidan
usarlos en atentados en grandes ciudades de occidente.

EXPLICAR LAS DOS CUESTIONES QUE HACEN AL MUNDO SOCIALMENTE


INJUSTO:
LA POBREZA Y LA DESIGUALDAD AL ACCESO A BIENES QUE PERMITEN TENER
UNA VIDA DIGNA.
QUE SE RELACIONAN CON TRES FACTORES : ANALFABETISMO, la falta de educación
es uno de los elementos que van a hacer cada vez mas desigual el mundo, ya que hoy el
conocimiento es importantísimo para el desarrollo de la persona y sus posibilidades de
desarrollarse y crecer.
Otro factor es el encarecimiento del costo de los alimentos que genera el hambre en el mundo
Y finalmente la falta de trabajo, con toda su trama de consecuencias, en la perdida de relaciones
sociales , marginalidad , y la distribución injusta de los recursos.

GLOBALIZACION: ES UNA FUERZA DOMINANTE ALREDEDOR DEL MUNDO EN


LAS ULTIMAS DECADAS QUE SIGUE DESARROLLANDOSE EN EL PRESENTE. , ES
VER AL MUNDO CONVERTIDO EN UNA UNIDAD INDIVISA DE ACTIVIDADES
INTERRELACIONADAS Y LIBRES DE FRONTERAS LOCALES , CON EFECTO
POLITICO Y CULTURAL , EN ESPECIAL EN SU FORMA ACTUAL DOMINANTE, DE
UN MERCADO LIBRE Y CARENTE DE CONTROLES.
SUS DOS CARACTERISTICAS MAS SIGNIFICATIVAS SON:
1) LA INTEGRACION ECONOMICA Y FINANCIERA Y LA PLANIFICACION DE LA
PRODUCCION DISTRIBUIDA EN EL MUNDO POR PARTE DE LAS GRANDES
ORGANIZACIONES EMPRESARIAS
2) LA REVOLUCION TECNOLOGICA PERMANENTE.

Pens. Científico Resumen de las Unidades 1 a la 7 2º Cuat. de 2010 Altillo.com

UNIDAD 1

USO Y MENCION DEL LENGUAJE

USO del lenguaje: cuando nombramos entidades extralinguisticas, por ej. cuando afirmamos
“el caballo es blanco”

MENCION, cuando el enunciado se refiere a objetos lingüísticos o a propiedades predicables


del propio lenguaje, hace necesario recurrir al señalamiento de distintos niveles de lenguaje que
pueden estar involucrados y a la noción de METALENGUAJE.

En tales casos se usan comillas para señalar aquellas porciones del lenguaje que resultan
mencionadas.

Para el análisis de los SIGNOS LINGUISTICOS recurrimos al METALENGUAJE.

Ej. “caballo” es una palabra de 3 sílabas


La distinción entre USOY MENCION es fundamental

En la Edad Media dio lugar a la llamada TEORIA DE LAS SUPOSICIONES. Entre éstas hay 2
que son de interés particular:

1) la SUPOSICION FORMAL (SUPPOSITIO FOMARLIS) se decía que una expresión


estaba en suppositio formalis cuando se refería a una entidad, por ej. Dios es omnipotente.

2) La SUPOSICION MATERIAL (SUPPOSITIO MATERIALIS) Una expresión estaba en


suppositio materialis cuando se refería al nombre de la entidad, por ej. Dios es monosílabo. En
nuestra convención “Dios” es monosílabo.

Escolásticos: aunque conocedores de la distinción entre el uso y la mención no adoptaron


ningún indicador en la escritura de los signos. Se fiaban del contexto para descifrar en qué
suppositio eran tomados cada uno de los enunciados.

En nuestra terminología, la distinción entre uso y mención está basada en la llamada TEORIA
DE LA JERARQUIA DEL LENGUAJE, que consiste en distinguir entre un lenguaje
usualmente llamado LENGUAJE OBJETO y el lenguaje de este lenguaje, usualmente llamado
METALENGUAJE. Este es el lenguaje en el cual hablamos acerca del lenguaje objeto.

Por ej. “los cuerpos pesados” es verdadero

“es verdadero “pertenece al un metalenguaje.

“los cuerpos son pesados” es el lenguaje –objeto.

El Lenguaje-objeto es siempre INFERIOR al metalenguaje, pero no en sentido VALORATIVO.


Designa simplemente el lenguaje del cual se habla, y especifica su posición en el universo del
discurso.

Por otro lado el metalenguaje es inferior a otro metalenguaje en que se habla de él.

Por ej. “hombre” es una palabra del idioma castellano, es inferior al metalenguaje de la frase
“hombre” es una palabra del idioma castellano “es verdadero.

Siempre se puede predicar algo más sobre lo ya dicho, por lo que la serie de metalenguajes es
infinita.

Esto, llevado al delirio lo encontramos en un pasaje del libro publicado en 1871 por Lewis
Carroll “A través del espejo y lo que Alicia encontró allí”, donde juega con la idea de que las
cosas y los nombres tienen nombres.

Siempre se puede mencionar el nombre de un nombre sin que haya límite, aunque en
condiciones normales alcanza 2 o 3 niveles.

TEORIA NOMINALISTA – OCKHAM


Afirma que las especies, los géneros y los universales no son realidades anteriores a las cosas,
son simplemente nombres con los que se identifican objetos.

Aplicando el principio de contradicción afirma que es absurdo sostener que el concepto


universal corresponde en la realidad a algo universal, pues si esto sucediese no se podría
entender cómo una misma naturaleza universal o común puede estar toda ella presente en
individuos singulares y distintos.

Principio de economía. Formula conocida como “la NAVAJA DE OCKHAM”, enfatiza que
fuera del alma (in anima) no existe nada que sea estrictamente individual, es decir, del
LENGUAJE, que lo utiliza como SIGNO apto para ser predicado de varios individuos. Este
principio de economía o navaja, se refiere a que los “entes no deben multiplicarse sin necesidad”

Como religioso admite sólo una realidad primera, autosuficiente, necesaria y absoluta, Dios
todopoderoso, creador de todo lo que él no es.

El ejercicio de la razón humana, asentada sobre la base firme de la observación y la experiencia,


queda reducido a descubrir cómo son las cosas y no cómo deberían ser.

Unifica la propuesta del teólogo, el lógico y el epistemólogo.

“En vano se hacen con más cosas lo que se puede hacer con menos”

Se opone a la creencia de que a cada expresión lingüística le corresponde una realidad

Nombres significan (reemplaza) las cosas singulares

Rechaza la naturaleza como base explicativa de nuestro conocimiento universal, sin renunciar a
justificar el conocimiento científico.

Para resolver el problema de la universalización de los conceptos universales, introduce una


novedosa concepción del SIGNO .los conceptos son una creación de la facultad cognoscitiva.
Solo lo individual es REAL y lo GENERAL SOLO EXISTE “IN ANIMA”

Las palabras tienen la propiedad de suponer, estar en el lugar de, o de suplir algo. Teniendo en
cuenta que el significado se identifica con la extensión de su nombre, o sea, con los individuos,
en el caso de los universales, el término supone no un individuo sino un SIGNO MENTAL.

SEMIOTICA:

Es la disciplina que se ocupa de elaborar una teoría general de los signos.

En sentido amplio, los SIGNOS, son representaciones o representantes de distintos tipos de


entidades que pueden o no ser reales. Una antigua definición del signo dice que es ALGO QUE
ESTA EN EL LUGAR DE OTRA COSA.

Es SIGNO todo aquello que tiene la capacidad de reemplazar o sustituir algo.

Charles Sander Pierce (1839-1914) distinguió 3 tipos de signos:


1) EL INDICIO O SIGNO NATURAL: que es lo que mantiene una relación causal
entre el representante y lo representado. Ej. La fiebre es signo de enfermedad.

2) EL ICONO: Es un signo que presenta una relación de semejanza o parecido de algún


tipo con lo representado. Una foto, una estatua ,un mapa o carteles son iconos

3) EL SIMBOLO: es aquel signo donde la conexión entre el signo y lo representado es


arbitrario y convencional. este tipo de signo es muy importante ya que es el que afecta a
los signos lingüísticos y a los lenguajes científicos .de este tipo son los números, las
palabras de nuestro lenguaje, las banderas, luces del semáforo , sirenas de ambulancia y
muchos otros fenómenos que se usan para representar distingos significados.

Estos fenómenos sirven para representar otros en la medida en que hay un uso establecido
convencionalmente. Está asociación es aceptada culturalmente e impuesta por los usos de
los lenguajes.

DEFINICION DE LENGUAJE: ES UN CONJUNTO REGLADO DE SIMBOLOS QUE SE


UTILIZAN PARA LA COMUNICACION.

Oro elemento tomado en cuenta en la semiótica es el proceso por el cual algo funciona como
signo. Para ello es necesario que concurran 3 factores:

a) el vehículo signito, la SEÑAL , fenómeno o cosa que actúa como signo (S)

b) el DESIGNATUM, el significado del signo (D)

c) EL INTERPRETE (I)

Ej. Un perro (I) responde al sonido del silbato (S) que designa la caza de ardillas (D)

Las nociones de signo, significado, interprete se implican mutuamente ya que son solo formas
de referirse al proceso de semiosis, porque algo es un signo si y solo si algún interprete lo
considera como tal (Morris 1971)

No se trata de afirmar que “hay “signos (el humo es signo de fuego) sino que algunos
fenómenos funcionan como signos de otros en la medida en que un interprete es capaz de
asignarle un significado. Si el intérprete le adjudica a ese fenómeno signito una causa natural o
no intencional, se encuentra frente a un SIGNO NATURAL o si piensa que fue creado
intencionalmente para transmitir un mensaje está frente a un SIMBOLO.

Algunos casos pueden ser supuestos para el intérprete. El humo, un grupo, un gesto, un ruido
puede estar el interprete en duda si es intencional o natural. En cambio las palabras, son
claramente SIMBOLOS, en la medida que pertenecen a un lenguaje creado intencionalmente
para transmitir significados usando códigos intencionales.

La semiótica esta constituida por otras disciplinas que estudian los diferentes aspectos o
dimensiones de los signos.

La semiótica puede ser considerada como un metalenguaje, pero los metalenguajes tienen 3
dimensiones de estudio semiótico:
1) DIMENSION SINTACTICA: revisa las relaciones entre signos, reglas que los
ordenan. Adquiere especial importancia en el estudio de lenguajes formales como las
matemáticas o la lógica, donde para que una expresión se admita debe cumplir con las
reglas básicas de la formación de enunciados.

2) DIMENSION SEMANTICA: se ocupa de la relación entre el signo y su significado.


la lógica llama “TERMINOS” a estas unidades de significado que también llamamos
“nombres” o “símbolos”.

Desde esta dimensión, el término tiene:

a) DESIGNACION: es el conjunto de características definitorias que constituyen


el criterio de uso del nombre Ej. Termino animal: se define como “sustancia
animada ,sensible” y hombre , como “sustancia animada, sensible, racional”, lo que
equivale a decir “animal racional”

b) EXTENSION: es la clase compuesta por todos aquellos individuos a los que


puede aplicarse dicho término. Ej. Árbol, constituido por la clase de diferentes
tipos de árboles. Esto se puede agrupar a su vez según algún criterio. Cuando una
clase no es existencialmente vacía, cuando esta constituida por individuos
ubicables en espacio y tiempo, la extensión coincide con la DENOTACION, por
ej. En el caso de árbol, pero no en el de número o fig. geométrica, porque nombran
entidades formales que no tienen denotación

c) DENOTACION: es el conjunto de los ejemplares de la clase localizables en


espacio y tiempo. Por ej. Definir la “clase de alumnos universitarios menores de 10
años “ puede enunciarse su designación y su extensión en subclases
(varones ,mujeres etc.) aunque al no haber ejemplares reales que satisfagan los
requisitos de la designación, no tiene DENOTACION , o sea, representa esa clase
un conjunto vacío.

El desconocer estos distintos aspectos del significado puede dar lugar a argumentos falaces (ej.
del Ángel) en estos casos la existencia o denotación de un termino requiere de otro tipo de
pruebas que exceden el campo del lenguaje.

Esta distinción nos permite utilizar lenguajes formales, que desde el punto de vista semántica,
no comprometen el plano de la realidad, aunque si involucran nociones de verdadero y falso que
se deciden según reglas dentro de un sistema y no con referencia a lo real.

En el caso de las ciencias formales, ordenadas según sus propios sistemas axiomáticos, la
referencia extalinguìstica carece de importancia, por lo tanto, sus signos no tienen denotación
mientas que en el caso de las ciencias facticas, revisten gran importancia las distintas
interpretaciones semánticas de los signos. Y la ubicación de las entidades a las que se refiere en
el plano de la realidad.

SON TERMINOS SIN DENOTACION LOS QUE NOMBRAN:

A) ENTRES FORMALES (TRIANGULO, RAIZ CUADRADA, Nª PRIMO)


B) ENTES DE FICCION ( CENTAURO, HADA, PERSONAJES DE COMICS)

C) ENTIDADES ABSTRACTAS (LA JUSTICIA, LA LIBERTAD)

D) ATRIBUTOS O CUALIDADES (GRANDE ,JOVEN , ROJO)

Entre designación y extensión hay una relación inversa: en un sistema clasificatorio, de


inclusión de una clase en otras, la clase que incluye a otra se la llama GENERO y a la incluida
ESPECIE.

GENERO. Tiene mayor extensión (nro. de ejemplares) que la especie pero menor designación
(notas definitorias)

ESPECIE: tiene menor extensión y mayor designación, ya que requiere toda la designación del
género más sus propias notas específicas. Ej. hay menos manzanas que frutas y menos tigres
que animales.

Cualquier término que sea especie de otro comprende una parte de ese todo llamado género, sin
necesidad de contar ejemplares.

Esta distinción entre género y especie servirá luego para definir términos y establecer su
ubicación dentro del sistema clasificatorio del lenguaje. Es una “inclusión lógica” no una
inclusión “real”, que se reconoce cuando una entidad está dentro de otra.

3) DIMENSION PRAGMATICA: se ocupa del uso que se haga del signo, intenta
delimitar la función que cumple el lenguaje para el hablante.

FUNCIONES:

a) TRANSMITIR INFORMACION:

FUNCION: REFERENCIAL

DECLARATIVA

INFORMATIVA.

Las usamos cuando afirmamos o negamos algo.

ENUNCIADOS QUE PUEDEN LLAMARSE PROPOSICIONES

b) EXPRESAR ESTADOS DE ANIMO, EMOCIONES, OPINIONES O


JUICIOS DE VALOR: metáforas, lenguaje poético son los mas claros ej. del
“LENGUAJE EXPRESIVO”

NO PREDICAN VERDAD O FALSEDAD

c) FUNCION DIRECTIVA: las que comunican órdenes ,pedidos, ruegos,

PUEDEN SER VERDADEROS O FALSOS, CUMPLIDAS O NO


(COPI: FUNCIONES: → EXPRESIVA: manifiesta estado de ánimo del que habla o escribe

→ DIRECTIVA: manifiesta la voluntad o deseo del que habla o


escribe

→INFORMATIVA: afirma o niega algo que sucede y dice cómo es el


mundo en algún aspecto. Predica V. o F

RESPUESTA DE LA PROFESORA: Para poder establecer cuál es la función “principal” de un


enunciado ya que en uno mismo pueden estar implicadas las 3 funciones, es importante tener en
cuenta el elemento semántico , que refiere al sentido, que a su vez enfatiza el aspecto
pragmático . EL PARA QUE DIGO LO QUE DIGO. El aspecto directivo busca una respuesta
por parte del interlocutor. Y para que sea expresiva debe contener un elemento semántico, una
palabra, que muestres la sensación subjetiva del que habla.)

LAS ULTIMAS DOS SON EXPRESIONES DEL LENGUAJE PERO NO SON


CONSIDERADAS COMO UNA PROPOSICION.

Todo acto del habla es resultado de diversas funciones del lenguaje, donde un acto
proposicional (establecer una referencia y una predicación) es un factor entre otros que
intervienen en la comunicación.

Una comunicación periodística (función informativa) por ej. puede utilizar expresiones que
tienden a persuadir al lector para tomar una posición determinada.

Las funciones del lenguaje no se ejercen de modo puro, aunque ello no invalida la distinción
entre funciones.

En el conocimiento científico debe ser posible determinar la V. O F. de sus enunciados, por lo


tanto, se identifica como el conocimiento acerca del valor de verdad de ciertas proposiciones.

LA PROPOSICION ES UNA UNIDAD DE ENUNCIACION DE LA QUE SE PUEDE


PREDICAR QUE ES VERDADERA O FALSA.

Algunos autores consideran sinónimo “enunciado” y “proposición”, pero otros consideran a la


proposición como el contenido abstracto de un enunciado, por lo tanto diferentes enunciados
pueden exponer una misma proposición.

Para Wittgenstein, el hecho que un enunciado exprese una proposición depende del uso que
tenga en cada caso.

Para eso “DAR CON EL DIGNIFICADO, NO ES DAR CON UNA COSA SINO CON EL
USO”, para ello debemos poder probar empíricamente que ese enunciado es VERDERO O
FALSO, para que sea una proposición.

Este criterio es llamado “TEORIA DE LA CORRESPONDENCIA”, una proposición es


verdadera si describe un estado de cosas real.
Aristóteles, en el siglo III a C, afirmó que la verdad consiste en decir de lo que es, que es o de lo
que no es, que no es, y viceversa con la falsedad.

A lo largo de la filosofía, esto recibió todo tipo de objeciones, por las dificultades para
determinar la verdad de las proposiciones referidas a hechos pasados, futuros, o entidades
inexistentes, a cosas que no estamos en condiciones de conocer.

NOMBRAR Y CLASIFICAR. VAGUEDAD Y AMBIGUEDAD:

Usar el lenguaje es disponer de un sistema clasificatorio que nos permita identificar conjuntos o
clases de objetos.

Pero distintos lenguajes clasifican el mundo de distintos modos sin que ninguna clasificación sea
“verdadera” respecto de otra.

En el caso de los lenguajes ordinarios, tal operación se realiza con altos niveles de
AMBIGUEDAD Y VAGUEDAD

VAGUEDAD:

CUANDO NO PODEMOS DECIDIR CON EXACTITUD CUALES SON LOS LIMITES


PARA LA INCLUSION DE LOS INDIVIDUOS EN UNA CLASE. . Términos como
muchos, frío, rebelde, joven, son VAGOS, porque sugieren diferentes aplicaciones según de qué
se trate. Un “deportista joven “no es identificable con la misma edad de un “científico joven
“por ej.

Wittgenstein recurre al concepto de “aires de familia”, para señalar el tipo de parecido o


semejanza que permite agrupar a distintos individuos dentro de una clase. Ej. los juegos,
actividad que implica practica con diferentes elementos o sin ellos y a todos los agrupamos
olvidando esas diferencias, lo que puede redundar en la vaguedad del significado

AMBIGUEDAD:

SE PRESENTA CUANDO UNA MISMA PALABRA TIENE MAS DE UNA


DESIGNACION. El diccionario expone las diferentes acepciones que puede tener una palabra
según el contexto, en que se aplique, (ej. “masa” para la física o para el arte culinario)

VAGUEDAD y AMBIGUEDAD, no deben ser obstáculos en los lenguajes comunes, ya que el


uso resuelve la cuestión y permite el uso poético o humorístico en el lenguaje

LOS LENGUAJES CIENTIFICOS PERSIGUEN LA UNIVOCIDAD DE LOS


TERMINOS. Intentan delimitar en lo posible los casos de aplicaciones VAGAS o múltiples.

Para ello se proponen CRITERIOS PARA CLASIFICAR, en condiciones ideales:

1) es necesario preservar siempre el mismo criterio,( si clasificamos


invertebrados/vertebrados , es incorrecto introducir el concepto de ovíparo que pertenece
a otro criterio)

2) la clasificación debe ser completa ( si clasificamos animales por modo de


reproducción, deben figurar todos los modos conocidos )
3) las partes deben excluirse mutuamente (si clasificamos en verteb/invert. No incluir
como 3er clase mamíferos, porque esta incluida en vertebrados)

A pesar de este sistema de clasificación la existencia de entidades que no responden a alguna de


ellas, pone a prueba el mismo. Ej. el descubrimiento del ornitorrinco, mamífero y ovíparo, no
entraba en ninguna categoría existente, obligó a crear luego de años de discusión científica en
una nueva categoría (Ej. de H. Eco 1999)

LA DEFINICION

Los discursos científicos se diferencian del lenguaje común en que sus usos lingüísticos buscan
superar limitaciones de la vaguedad y la ambigüedad, y para ello recurren a definiciones
precisas.

DEFINIR, ES ANTE TODO, LIMITAR EL SIGNIFICADO DE UN TÉRMINO, lo que no


implica realizar afirmación alguna acerca de la realidad

DEFINIENDUM es lo que hace “mención” del nombre a definir, que se señala entre comillas.

Y el DEFINIENS es la DEFINICION propiamente dicha. Es un conjunto de palabras que se


utilizan para aclarar el significado del definiendum

O sea, al definir, aclaramos el significado de un término y no de una cosa.

La definición por género próximo y diferencia específica: las clases con miembros pueden
tener a éstos divididos en subclases. Con referencia a estas divisiones suelen usarse los términos
“genero” y “especie”: la clase cuyos miembros se dividen en subclases es el género y las
diversas subclases son las especies. Puesto que una clase es una colección de entidades que
tienen alguna propiedad común también los miembros de determinado género tendrán alguna
propiedad común. Este género puede ser dividido en dif. Especies o subclases, tales que todos
los miembros de una subclase tengan alguna otra propiedad en común no compartida con ningún
miembro de cualquier otra subclase. Auque todos los miembros de todas las especies de un
genero determinado tienen alguna propiedad en común, los miembros de cualquier de todas las
especies de un genero determinado tienen alguna propiedad en común, los miembros de
cualquier especie comparten alguna otra propiedad, que los diferencia de los miembros de toda
otra especie. La característica que sirve para distinguirlos es la diferencia específica. (COPI)

REGLAS DE LA DEFINICION:

1) NO DEBE SER CIRCULAR: No se debe definir una palabra usando la misma


palabra u otra de la misma familia ( ej. impresora: artefacto que sirve para imprimir)

2) NO DEBE SER DEMASIADO AMPLIA NI DEMASIADO ESTRECHA: La


extensión del definiendum debe ser igual a la del definiens (Ej. perro= animal mamífero
(demasiado amplia ) , animal cuadrúpedo, mamífero, domestico, de corta vida en relación
a los humanos ( demasiado estrecha )
3) NO DEBE SER METAFORICA. No debe estar formulada en términos ambiguos o
excesivamente vagos ( ej. los ojos son el espejo del alma)

4) NO DEBE SER NEGATIVA CUANDO PUEDE SER AFIRMATIVA: salvo


aquello casos donde la expresión misma parece obligar a una definición negativa
(inconsciente, soltero, ceguera, etc.)

5) NO DEBE RECURRIRSE A SINONIMOS. (ej. perro = can) el defecto en esto


radica en que no se especifica ni genero ni especie, sino que se expresa otro nombre con
significado equivalente.

Aristóteles: posición esencialista: la definición por “genero próximo y diferencia especifica” (ej.
Tesoro: cosa valiosa. Cosa es genero y valiosa la diferencia para Lewis Carroll -1988)

Desde el punto de vista pragmático, las definiciones son proposiciones tautológicas donde
definiendum y definiens son equivalentes (ej. decir perro y decir animal que ladra es
equivalente)

Los diccionarios dan DEFINICIONES LEXICOGRAFICAS, de términos que ya tienen un


uso en el lenguaje común, con el propósito de eliminar ambigüedad y enriquecer el vocabulario.
La definición es un informe que puede o no ser veraz respecto del uso establecido en la
comunidad de hablantes (ej. las diferentes significados de las palabras en las distintas
comunidades hispanoparlantes)

Aún cuando el lenguaje de uso corriente permite dar significados nuevos a las palabras, si se
pretende dar una definición lexicografita se debe dar primero información verídica acerca de las
convenciones, los usos establecidos en la comunidad de hablantes.

El uso de los lenguajes naturales, supone una práctica una destreza para reconocer significados y
las clases anómalas de aplicación de los términos, lo que posibilita insertar el significado dentro
de un sistema de géneros y especies. Esto implica también un conocimiento de las reglas
sociales ligadas al uso de un lenguaje.

No es posible usar un lenguaje, sin dominar una forma de vida (Wittgenstein)

LENGUAJE CIENTIFICO, es diferente ya que el significado de los términos y la posibilidad


de definirlos se propone dentro de un lenguaje propio, técnico o formal, donde los signos tienen
definiciones precisas, apareciendo la conveniencia del uso de DEFINICIONES
ESTIPULATIVAS, esto es definiciones que estipulan un significado para un uso especifico
dentro de un sistema formal y solo tiene aceptación dentro de él.

DEFINICION PERSUASIVA: Es cuando la definición cumple una función expresiva o


directiva, su propósito es influir sobre la conducta de los demás. No son consideradas
proposiciones si transmiten juicios de valor (ej. democracia: modo más justo de organización
política a diferencia de democracia: forma de gobierno donde se eligen gobernantes por
votaciones libres. En la 1era hay valoración y en la 2da información) acerca de la inserción de
una especie dentro de su género.
El ideal de un lenguaje neutro y transparente para la conformación de teorías científicas, es
un DESIDERATUM, destinado a construir un lenguaje proposicional, en el que tengan sentido
las propiedades de V y F.

DEFINICION CONNOTATIVA: Cuando establece la connotación, designación o intención


de un nombre (lago: accidente geográfico de determinadas características)

DEFINICION DENOTATIVA: Cuando nombra ejemplares de la clase (lago: NAHUEL


HUAPI, VIEDMA, ARGENTINO) En el caso que la clase no tenga ejemplares para denotar, de
todos modos se pueden nombrar “parte” de la extensión (ej. nº par, 2, 4,6)

UNIDAD 2

Las nociones de razonamiento, argumentación e inferencia se usan a menudo como


equivalentes. En todos los casos se trata de ACTOS DEL HABLA.

Algunas de las afirmaciones “se siguen”,” reciben apoyo” se infieren” “se extraen justificación”
de otras.

PREMISAS: SON LAS AFIRMACIONES DE LAS QUE SE EXTRAEN


JUSTIFICACIONES

CONCLUSION: AFIRMACION QUE “SE SIGUEN”, “SE JUSTIFICAN” O “SE


INFIEREN” DE LAS PREMISAS

LAS LEYES LOGICAS

Son reglas del lenguaje

Dado que el lenguaje es un conjunto de convenciones, de símbolos por medio de los cuales
hablamos acerca de lo real, se concluye que las

LEYES LOGICAS SON REGLAS QUE REGULAN EL USO DEL LENGUAJE

No hay conflicto entre lógica y realidad, pero tampoco identificación de la una con la otra o
derivación de una partiendo de la otra. De hecho no hay una lógica, sino muchas. La adopción
de una de ellas depende de su capacidad para operar sobre ciertos aspectos de lo real.

Las operaciones lógicas y en particular las LEYES LOGICAS se aplican al orden de la realidad
o a los diferentes órdenes de la misma, de modo parecido a un mapa que nos orienta. Este nos da
datos de lo real pero no nos dice que la realidad ES, sino sólo CÒMO poder estructurarla.

Por eso podemos hablar lógicamente acerca de lo real sin por ello suponer ni que imponemos
(por convención o por necesidad) nuestro pensar lógico a la realidad, ni que nos limitamos a
reflejar pasivamente las estructuras de ésta realidad.
Aristóteles fundador de la lógica o su primer gran sistematizador, aún cuando no usó esa
palabra, en un conjunto de escritos sobre este tema lo tituló ORGANON, instrumento, ya que se
consideraba a la lógica primer instrumento en manos de la ciencia y una introducción a
cualquier disciplina científica. Llamó PRINCIPIOS LOGICOS a sus reglas o leyes. Consideró
que no necesitaban demostración y deberían admitirse como verdades evidentes. Estos
principios serían la base del pensamiento y su violación anularía la posibilidad de estructurar el
lenguaje.

LEYES LOGICAS, actualmente son SIMPLES TAUTOLOGIAS (TAUTOS, en griego


significa “LO MISMO”). No se puede hablar de su coincidencia con lo real, pues SON
FORMULAS ENTERAMENTE VACIAS.

En su concepción actual, ESTAS LEYES SE ADMITEN COMO LAS LEYES MAS


GENERALES DE LA LOGICA.

EN LA LÓGICA SIMBOLICA, NO SE ADMITE EL CRITERIO DE EVIDENCIA.

No hay proposiciones verdaderas porque su verdad “se hace patente al pensamiento” o se


manifiesta de por sí. En cambio HAY PROPOSICIONES QUE SE ADMITEN COMO PUNTO
DE PARTIDA DE UN SISTEMA LLAMADAS AXIOMAS. AL SER ADMITIDAS COMO
PUNTO DE PARTIDA NO SE DISCUTE SU VERDAD.

Y LAS PROPOSICIONES QUE SE DEDUCEN DENTRO DE UN SISTEMA DE REGLAS


SE LLAMAN TEOREMAS

LAS LEYES LOGICAS SON LAS SIGUIENTES:

LEY DE IDENTIDAD:

Admite varias formulaciones:

“toda proposición es equivalente a sí misma”

“toda clase de objetos es igual a sí misma”

“si p, entonces p” p ‫ﬤ‬p “si llueve entonces llueve”

“toda tautología es una proposición verdadera”

LEY DE NO CONTRADICCION:

Se puede formular como:

“no es demostrable una fórmula y su negación”

“si una fórmula es verdadera, su negación es falsa y recíprocamente”

“una proposición no puede ser V y F “


“no se da p y no p” “- (p • - q) “

“no es posible que llueva y no llueva”

“toda contradicción es una proposición falsa”

LEY DEL TERCERO EXCLUIDO:

Se formulan indistintamente como:

“dadas dos proposiciones, si una es la negación de la otra, entonces una de ambas debe ser V y
la otra F”

“dadas p y no p, entonces o bien p es V, o bien lo es no p “

“p o no p” “p v – p “

“llueve o no llueve”

“toda proposición es V o F “

UNA LEY LOGICA:


*
ES UNA FORMULA QUE INTERPRETADA DA COMO
RESULTADO UNA PROPOSICION VERDADERA
*
TODA FORMA PROPOSICIONAL TAL QUE AL SUSTITUIR
SUS VARIABLES POR CONSTANTES, DA POR RESULTADO UNA
PROPOSICION VERDADERA

TODAS LAS TAUTOLOGIAS SON LEYES LOGICAS, ya que son enunciados verdaderos en
virtud de su estructura lógica, independientemente de qué signifique “p”.

Desde la perspectiva contemporánea, no hay leyes lógicas de más importancia que otras.

Para deslindar el problema de la puesta a prueba de los enunciados, ya que pueden o no afectar
el campo de constatación empírica, las leyes lógicas nos permiten diferenciar:

TAUTOLOGIAS:

FORMAS PROPOSICIONALES QUE CORRESPONDEN A PROPOSICIONES


LOGICAMENTE VERDADERAS, es decir, VERDADERA POR SU ESTRUCTURA
LOGICA.

TODAS LAS LEYES LOGICAS SON TAUTOLOGIAS. La verdad se juzga no por la


correspondencia con la realidad sino por la coherencia, no contradicción y consistencia con las
leyes lógicas.

Por estar vacías de contenido empírico, por no hacer ninguna afirmación acerca del mundo, son
útiles para los lenguajes formales, y por ella para las ciencias formales. Su respuesta es
formalmente Verdadera, bajo las condiciones de no contradicción, identidad y 3º excluido.
Ej. “p v – p”

“este año me recibo o no me recibo”

CONTRADICCIONES:

FORMAS PROPOSICIONALES QUE CORRESPONDEN A PROPOSICIONES


LOGICAMENTE FALSAS, por su forma lógica, YA QUE VIOLAN O NIEGAN ALGUNA
LEY LOGICA.

Toda negación de una tautología es una CONTRADICCION.

Cualquier enunciado que implique una negación de alguna ley lógica e necesariamente Falsa.

En ciencias formales toda proposición falsa es una contradicción.

Ej. “p • - p”

“este año me recibo de médico y no me recibo “

“2 + 2 = 5”

CONTINGENCIAS:

FORMAS PROPOSICIONALES QUE CORRESPONDEN A PROPOSICIONES


LOGICAMENTE INDETERMINADAS, es decir, PROPOSICIONES QUE PUEDEN SER V O
F, CON RELACION A ALGUN REFERENTE EMPIRICO. Sin que el análisis de su estructura
nos permita decirlo, ya que la verdad se decide por métodos extralingüísticos, y su valor de
verdad puede cambiar.

Ej. “p ‫ ﬤ‬q”

“si como helado entonces engordo”

“el sol gira alrededor de la tierra”

No todos los enunciados son obviamente tautologías, contradicciones o contingencias, algunas


necesitan un método para saberlo. Ej. Ley de Pierce: el enunciado” [(p ‫ ﬤ‬q) ‫ ﬤ‬p] ‫ ﬤ‬p” es una
tautología, aunque hace falta para reconocerla algún calculo lógico.

El campo de estudio de la lógica por eso, es el de planificar métodos formales, cálculos, que
permitan deslindar estos casos donde se necesita decidir si las proposiciones son V O F lógicas o
exceden este campo para hacer afirmaciones empíricas.

LOS RAZONAMIENTOS: VERDAD Y VALIDEZ.

RAZONAMIENTOS: unidad de argumentación

Un argumento es correcto o válido si efectivamente las premisas apoyan la conclusión y es


incorrecto o inválido si no lo hacen.
LA PREMISAS Y LA CONCLUSION PUEDEN SER V O F, PERO EL ARGUMENTO
MISMO NO.

PROPOSICIONES →VERDADERAS O FALSAS

RAZONAMIENTOS →VALIDOS O INVALIDOS /CORRECTOS O INCORRECTOS

INVALIDO Y FALSO→PREDICAN COSAS DIFERENTES

RAZONAMIENTOS INVALIDOS:

ADMITEN CUALQUIER RELACIÓN ENTRE V Y F DE LAS PREMISAS Y


CONCLUSION, YA QUE LA CONCLUSION “NO SE SIGUE DE LAS PREMISAS”

Ej. “algunos hombres son mortales, por lo tanto todos los hombres son mortales”

“llueve y hace frío, por lo tanto, no voy a mar del Plata”

RAZONAMIENTOS VALIDOS:

NO PUEDE DARSE CUALQUIER COMBINACION DE V O F DE PREMISAS Y


CONCLUSION

· ALGUNOS RAZONAMIENTOS VALIDOS PUEDEN TENER PREMISAS Y


CONCLUSION V.

Ej. “si es un tigre, es mamífero

si es mamífero tiene pulmones

si es tigre tiene pulmones

· PUEDE HABER UN RAZONAMIENTO VALIDO CON PREMISAS V Y F Y


CONCLUSION F

Ej. si es araña tiene 8 patas

Si tiene más de 8 patas tiene alas

Si es araña tiene alas

· NO PUEDE HABER RAZONAMIENTO VALIDO CON PREMISAS


VERDADERAS Y CONCLUSION FALSA. ES LA UNICA COMBINACION
EXCLUIDA, ya que la validez del razonamiento garantiza que la conclusión “conserve” la
verdad si las premisas son efectivamente verdaderas.

LOS RAZONAMIENTOS VALIDOS NO GARANTIZAN LA VERDAD DE SUS


PROPOSICIONES ASI COMO LA VERDAD DE LAS CONCLUSIONES NO PRUEBAN
LA VALIDEZ DEL RAZONAMIENTO.
Para distinguir las nociones de VERDAD Y VALIDEZ, el énfasis debe estar en que determinar
la corrección o incorrección de los razonamientos, es atribución de la lógica., que cuenta para
ello con reglas especificas.

Pero corroborar la VERDAD o FALSEDAD de los enunciados (premisas o conclusión)


requiere corroboración empírica que está fuera del campo de la lógica.

RAZONAMIENTOS DEDUCTIVOS:

Su validez la estudia la lógica deductiva. Tiene reglas

· todo lo que se dice en una conclusión está en las premisas

· la verdad de las premisas garantiza la verdad de la conclusión

· Si las premisas son verdaderas ,la conclusión no puede ser falsa

· Su validez puede decidirse definitivamente por métodos puramente lógicos

· La validez depende de la forma lógica del razonamiento y no de su contenido

Se usa para verificación de antemano de teorías científicas. Su corrección depende de ciertas


expresiones lógicas como: “todos”,”algunos”, “y” “o”,”si…entonces “,”no”, etc. que tienen
precisas definiciones en la sintaxis del lenguaje formal.

UN RAZONAMIENTO DEDUCTIVO NO PERMITE QUE DE PREMISAS


VERDADERAS HAYA CONCLUSION FALSA

REGLAS LOGICAS

Son formas de razonamiento cuyas variables, al ser sustituidas por constantes, dan por resultado
un razonamiento “VALIDO”.

Así como al sustituir las variables de las leyes lógicas por enunciados, se obtiene siempre una
proposición verdadera, cuando interpretamos una regla lógica, obtenemos un
RAZONAMIENTO VALIDO.

Aunque las reglas lógicas son numerosas, algunas de ellas son de uso frecuente, en las
transformaciones sintácticas. Su conocimiento permite verificar rápidamente muchos
razonamientos sin necesidad de recurrir a otros métodos de cálculo lógico.
POR TRATARSE TODAS DE RAZONAMIENTOS DEDUCTIVOS, NO PUEDE
SUCEDER QUE AL SUSTITUIR VARIABLES LÓGICAS POR PROPOSICIONES
OBTENGAMOS UN RAZONAMIENTO ENTRE PREMISAS VERDADERAS Y
CONCLUSIÓN FALSA

ENTRE LAS REGLAS LOGICAS MÁS IMPORTANTES SE ENCUENTRA:

1) MODUS PONENDO PONENS ( MP)

A ‫ﬤ‬B

A_____

DADO UN ANTECEDENTE Y UN CONSECUENTE, SI SE AFIRMA EL


ANTECEDENTE, ENTONCES SE AFIRMA EL CONSECUENTE.

2) MODUS TOLLENDO TOLLENS ( MT)

A ‫ﬤ‬B

- B____

-A

DADO UN ANTECEDENTE Y UN CONSECUENTE, SI SE NIEGA EL


CONSECUENTE, ENTONCES SE NIEGA EL ANTECEDENTE

3) SILOGISMO HIPOTETICO (SH)

A ‫ﬤ‬B
B ‫ﬤ‬C

A ‫ﬤ‬C

SI SE AFIRMA A ENTONCES B Y B ENTONCES C, SE AFIRMA A ENTONCES C

Estas tres reglas expresan el significado de la conectiva lógica llamada “CONDICIONAL “,


simbolizada con el símbolo “‫”ﬤ‬.

Esta conectiva es importante en los discursos científicos porque sirve para formalizar hipótesis,
ya que permite enlazar una proposición llamada antecedente con otra llamada consecuente

Una proposición condicional es V en todos los casos de V o F de p o q, excepto cuando el


antecedente es V y el consecuente es F.

El condicional no es ninguna conexión real entre el antecedente y el consecuente, sino que


afirma que no se da el caso de que el antecedente sea V y el consecuente sea F.

La V del consecuente en cambio no implica la V del antecedente.

El antecedente (p) es condición suficiente para afirmar el consecuente (q)

Ej. “si es argentino es americano “ p ‫ﬤ‬q

“Pedro es americano” A ‫ﬤ‬q

“Pedro es argentino” A ‫ﬤ‬p

No se puede ser argentino sin ser americano, pero si ser americano sin ser argentino. A menudo
se confunde esta conectiva con el llamado “BICONDICIONAL” QUE EXPRESA “SI Y SOLO
SI… ENTONCES”

y se simboliza “p ≡ q”

En este caso hay identidad entre antecedente y consecuente, donde p implica q y q implica p

“si y solo si se tiene asistencia perfecta, se cobra el incentivo”

Confundir el CONDICIONAL con el BICONDICIONAL, supone incurrir en FALACIAS


FALACIAS FORMALES

Se presentan en los argumentos que se parecen a reglas lógicas pero son inválidas.

Las más importantes para el caso de la epistemología, son la:

FALACIA DE AFIRMACION DEL CONSECUENTE

Por ej.

Si Juan es argentino entonces es americano

Juan es americano______________________

Juan es argentino

FALACIA DE NEGACION DEL ANTECEDENTE

PUEDE HACER CASOS DE PREMISAS VERDADERAS Y CONCLUSION FALSA

Si Juan es argentino entonces es americano

Juan no es argentino___________________

Juan no es americano

En todo razonamiento deductivo, la conclusión no dice nada que no haya estado implícito en
las premisas. Lo que hace el argumento, justamente es hacer esto explícito. Estos
argumentos son explicativos o explicitativos, pero no ampliativos (es decir no se puede
ampliar, agregar nada que no esté en las premisas)

Las reglas lógicas no nos proporcionan conocimiento fáctico, información sobre el mundo, pero
son de la mayor importancia para la ciencia, ya que permiten “demostrar” (probar
conclusivamente la verdad) enunciados de las ciencias formales y apoyar la contrastación de
hipótesis en el caso de las ciencias fácticas.
INDUCCION- CARNAP

Los argumentos deductivos son sólo explicativos, no dan información nueva sobre el mundo. Si
ellos fueran el único tipo de argumento posible, no habría modo de justificar
argumentativamente la información nueva, como la involucrada en las teorías de las ciencias
fácticas y en muchas situaciones de la vida cotidiana.

En contextos problemáticos poco estructurados, parecen operar con mayor frecuencia


PROCESOS INDUCTIVOS O HEURISTICOS:

Se denomina ARGUMENTOS INDUCTIVOS a todos los argumentos en los que se transita


desde un enunciado (o conjunto de ellos) a otro, de modo que el primer enunciado (o la
conjunción de enunciados) no “IMPLICA” al segundo (Strawson 1969)

El caso en el que el segundo es un enunciado GENERAL constituye la forma de razonamiento


inductivo mas frecuentemente expuesta, si bien no la única.

Diferencia entre ARGUMENTO INDUCTIVO Y DEDUCTIVO:

INDUCTIVO:

Ej.” todos los A “hasta ahora observados” son B

Por lo tanto, todos los A son B

“todos los mamíferos hasta ahora observados tienen pelo”

Por lo tanto, todos los mamíferos tienen pelo

El tipo de inferencia aquí expuesta se denomina”INDUCCION POR ENUMERACION


SIMPLE” que consiste en el examen casuístico de instancias confirmadoras expuestas a través
de premisas particulares.

Inductivamente pueden parecer muy cercanos ambos enunciados, pero entre ambos esquemas
hay un abismo lógico. El primer “TODOS “no es cuantificador universal de la lógica de primer
orden, solo representa una suma de enunciados particulares sobre una subclase. En términos
estadísticos, el “salto” consiste en que a partir del reconocimiento empírico de la presencia de
una determinada propiedad en una muestra de individuos, se traslada ese reconocimiento a la
totalidad de la población.
En términos lógicos, de una secuencia “incompleta” de premisas particulares,” se infiere “la
conclusión universal.

Desde la lógica formal estándar, la generalización no es pertinente y la conclusión no es válida


lógicamente.

En la consecuencia lógico-semántica se constata la capacidad del argumento, para preservar la


verdad.

Por el contrario, aunque la inducción incluya solo premisas verdaderas, puede conducir a una
conclusión falsa.

Aumentar incesantemente la constatación casuística en modo alguno “blinda” al argumento de


la posibilidad del contraejemplo.

Esta es la diferencia entre argumento demostrativo (deductivo) y argumento no – demostrativo


(inducción)

Stawson afirma: por supuesto que los razonamientos inductivos no son deductivamente validos,
si lo fueran serían razonamientos deductivos. La evaluación de la solidez del razonamiento
inductivo debe realizarse de acuerdo con normas inductivas.

Cuáles serían esas normas?

EN UN RAZONAMIENTO INDUCTIVO, LAS PREMISAS SOLO “RESPALDAN” A LA


CONCLUSION, PRESTAN UN “APOYO PARCIAL”. PROPORCIONAN ALGUNA
“EVIDENCIA “A FAVOR DE LA CONCLUSION

Esta prudencia anticipó las críticas sobre la legitimidad de estos argumentos inductivo, no solo
como método de validación epistémica, sino por la legitimidad global de cualquier argumento
de índole inductiva.

HUME, siglo XVIII, mayor crítico de esto, el “reto escéptico respecto de la justificación de
procedimientos inductivos supone rechazar el poder probatorio de “cualquier “forma de
inferencia ampliativa. Este “salto” que determina una rotunda ventaja comparativa de la
inducción respecto de la inferencia deductiva (argumento meramente expicitativo) críticamente
constituyo el certificado de ilegitimidad: la información nueva en la conclusión de un argumento
inductivo la convierte en “independiente”, por ende, invalida como transición legítima. Desde
este punto de vista, para tomar en cuenta el argumento inductivo, debería aceptarse que la
“muestra (en términos estadísticos “es semejante al resto de la población y lo seguirá siendo “.
Ahora ¿cómo se justifica tal principio?

La defensa de los más importantes inductivistas del siglo XX, (los EMPIRSTAS LOGICOS)
comienza por reconocer que las únicas inferencias justificadas son las deductivas. Las
inferencias “ampliativas “, como la inducción, no son justificativas, al menos si por ello se
entiende una prueba plena, un apoyo total de las premisas a la conclusión.

LO QUE CARACTERIZA A LA INDUCCION ES QUE LAS PREDICCIONES NUNCA SE


GARANTIZAN TOTALMENTE, SINO QUE POSEEN UN “GRADO MAS O MENOS ALTO
DE CONFIRMACION “, entendido como “PROBABILIDAD “.

CARNAP: realizó ciclópeo intento por desarrollar una teoría formal y cuantitativa del
“GRADO DE CONFIRMACION “o “PROBABILIDAD LOGICA “, ya que el concepto de
grado de confirmación de Hempel era exclusivamente cualitativo.

Hasta 1950 la concepción del argumentar inductivo (sobre todo en el contexto del empirismo
lógico) era defendida a partir del concepto de “grado de confirmación” por 3 alternativas:

 Una perspectiva “subjetiva” del grado de confirmación como incremento de la


probabilidad (alta o baja )
 Una probabilidad comparativa ( “ e confirma mas que e ‘ )
 Una interpretación del grado de confirmación a la luz de la concepción estadística de la
probabilidad

Ninguna de estas opciones conforma a Carnap ,aunque reconoce a la probabilidad estadística


una razonable utilidad en ciertos contextos , considera que las 2 primeras alternativas no
constituyen una explicación rigurosa

Su primer propósito será dar precisión a los conceptos construyendo una teoría de las relaciones
lógicas entre una hipótesis y cualquier plexo de conocimiento que pueda ser evidencia
confirmadora de ella.Sostiene que el problema de la inducción es esencialmente el de la relación
lógica entre una hipótesis y alguna evidencia confirmatoria , pretende por tanto dar una
interpretación clara y precisa del grado de confirmación construyendo una lógica inductiva
donde la lógica de probabilidad sea central .

Centrado primero en la cuestión epistemológica de la justificación teórica: en lugar de


conclusión, hablará de “HIPOTESIS “. Y en vez de premisas, se referirà a “ENUNCIADOS
“, que exponen la base evidencial que la apoya. Con este cambio terminológico Carnap
acepta explícitamente el punto de vista de Einstein y de Popper, ya que reconoce que en la
ciencia empírica no se pude formular un conjunto de reglas inductivas que permita pasar
automáticamente de los hechos a las teorías.

Considera que no es posible una aplicaciòn mecànica de reglas que lleve de informes
observacionales a una teorìa general que explique esos fenòmenos observados. No puede haber
una màquina inductiva que "invente" nuevas teorìas , pero si puede haberla con un propòsito
màs modesto: dadas ciertas observaciones e ( base evidencial) y una hipòtesis h , deberìa ser
posible determinar por procedimientos mecànicos, la probabilidad lògica o grado de
confirmaciòn de h sobre la base de e .

La inducciòn como paso argumentativo de lo particular a lo general es una simplificaciòn


equivocada.
La función lógica inductiva no consistiría en inferir generalizaciones sino que su tarea
comienza cuando “ya se dispone “ de una hipótesis explicativa de fenómenos dados , de
modo que la LOGICA INDUCTIVA “SOLO” DEBE INDICAR EN QUÈ MEDIDA
( GRADO DE CONFIRMACION ) LA HIPOTESIS ES APOYADA POR LOS DATOS
EMPIRICOS DISPONIBLES.

"Esto es que las hipòtesis no pueden considerarse probadamente verdaderas, pero pueden
considerarse parcialmente probadas o confirmadas por la base evidencial “hasta un cierto
grado “. ESTE GRADO ES EQUIVALENTE A LA PROBABILIDAD LOGICA, medible
de 0 a 1. REALIZAR INFERENCIAS INDUCTIVAS NO ES OTRA COSA QUE
ASIGNAR UN VALOR DE PROBABILIDAD A UN PAR ORDENADO, ES UNA
FUNCION NUMERICA QUE ASIGNA UN Nº REAL ENTRE 0 Y 1

Lakatos→para Carnap, realizar inferencias inductivas no es otra cosa que asignar un valor de
probabilidad a un par ordenado ‹h, e ›. Así la función de confirmación (c-function) es una
función numérica que asigna un número real entre 0 y 1 a un par de enunciados.

Para Carnap la relación de confirmación inductiva es una relación lógica, “confirmar


inductivamente “es semejante a “implicar deductivamente “.que ambas sean relaciones
lógicas significa simplemente que no son empíricas, lo cual permitiría que se pudiera
establecer mecánicamente el grado de confirmación de una hipótesis general sin depender de
procedimientos empíricos (a diferencia de la estimación de probabilidad estadística, que
depende de relevamiento muestrales).

Sostiene Carnap que el concepto lógico de probabilidad es la base para todas las inferencias
inductivas, o sea , para todas las inferencias que tienen que ver con la necesidad deductiva,
afirmando que si se construye una teoría satisfactoria de la probabilidad lógica ,daría al
menos una clara base racional para el antes controvertido procedimiento de la inferencia
inductiva.

Para entender la probabilidad lógica se convierte a la “lógica” inductiva en “formal”,


exponiendo un diferencia entre probabilidad “estadística” y probabilidad “lógica “(formal).

El valor de probabilidad estadística son enunciados empíricos expresados “en” el lenguaje de


la ciencia, se basan en investigaciones empíricas.es decir que los enunciados acerca de
probabilidades estadísticas no pueden ser demostrados mediante la lógica, sino que se basan
en investigaciones empíricas. Una hipótesis probabilística que sostenga un enunciado, es el
resultado de una investigación empírica basada en muestras representativas de la población
bajo estudio. La probabilidad estadística se da “dentro de la ciencia”, mientras que la
probabilidad lógica se da aun “nivel externo” a la ciencia, en enunciados acerca de la
ciencia, es decir, en un nivel metateórico.

Carnap→si un científico afirma que se puede confiar en una ley para realizar cierta
predicción, el lógico inductivo debería preguntarle en qué medida, sobre la base de los
elementos disponibles, esta bien establecida la ley. Para que el científico dé respuesta a esto,
deberá, para no exponer una probabilidad estadística, recurrir a un agregado, saltando al
metalenguaje, es decir supone hablar desde la lógica inductiva sobre una relación lógica
entre enunciados de la ciencia.
Otro problema es cómo se mediría numéricamente el grado de confirmación, lo que condujo
a varias discusiones en torno a la posibilidad real de que un enunciado científico presente
la evidencia total que proporciona apoyo a la hipótesis.

Popper →mas persistente crítico de la inducción siglo XX, se opone a cualquier intento de
justificación probabilística del apoyo evidencial de hipótesis científicas argumentando que
cuando el grado de apoyo de una proposición por otras no es total (lo que sólo proporciona la
deducción) no se puede medir el apoyo parcial con una función probabilística. Sostiene que:

a) Si es un propósito científico el alto contenido , entonces no es un propósito científico la


alta probabilidad y

b) Si perseguimos un alto grado de confirmación (o corroboración) necesitamos un alto


contenido, y por ende, una baja probabilidad.

Se niega a aceptar cualquier forma de inducción.

Mas allá de las criticas de Popper, se reconoce que la “justificación probabilística ha seguido
firmemente instalada en el contexto de la teoría de la inducción.

La inducción por tanto, es una transición de una o más premisas a una conclusión que no es
su consecuencia lógica. El argumento presentado, afirma la conclusión como “probable” a
partir de un apoyo parcial pero “fuerte “de las premisas. Su inconveniente mayor es que al
formular un razonamientote ésta índole, está “cautivo” por la información “hasta ahora”
disponible (es decir por las premisas expuestas)

Esta es una nítida característica diferencial respecto de la implicación lógica. NINGUNA


INFORMACIÒN AÑADIDA, puede modificar la pertinencia de un argumento deductivo,
cuya validez opaca la incorporación de nuevas premisas.

Pero en la inducción un argumento inductivo evaluado como sólido no pasa a ser


automáticamente malo porque la experiencia aporte malos contraejemplos que hagan falsa la
conclusión, y es su riesgo también.

En la teoría de la inducción, una hipótesis probabilística no permite realizar predicciones


individuales precisas, aunque fuera posible cuantificarla.

W.Salmon. llama FALACIA DE ESTADISTICA INSUFICENTE: una hipótesis que es


realizada con escasos enunciados basados en insuficientes casos probabilístico.

También aparece una FALACIA DE ESTADISTICA SESGADA: porque la hipótesis se


confirmó con un número insuficientemente variado de casos, aunque fuera una muestra
numéricamente representativa.
ANALOGIA: La inferencia analógica parte de una similitud conocida de dos o más elementos
en algunos aspectos o propiedades, para concluir que también deberían compartir la similitud en
otro.

La conclusión, en el mejor de los casos, podría establecerse como probable, ya que de una
propiedad sólo se tiene información de que la posee un individuo.

Algunos consideran este tipo de argumentos como razonamientos probables semejantes a los
argumentos inductivos. Otros lo analizan como un tipo de razonamiento inductivo que, en vez
de sumar elementos, suma propiedades.

Sin embargo cuando Copi, debe reconocer criterios de evaluación para argumentos analógicos
comienza por sostener que el número de individuos o entidades entre los que se afirma la
analogía es importante. Podemos albergar dudas sobre esta condición sobre algunos ejemplos,
donde la conclusión no pretende generalizar, sino establecer una conclusión ampliativa para un
solo individuo. Por otra parte, el mismo Copi proporciona como ejemplos paradigmáticos casos
de dos (o poco más de dos) elementos.

Es indudable que la segunda condición es mucho más importante: el número de aspectos o


propiedades en consideración. Si la cantidad de propiedades comunes es grande, parecería que
la probabilidad de la conclusión crece.

El 3er requisito es, sin duda, el más significativo. Las propiedades consignadas deben tener
una clara relación con la conclusión. Hasta tal punto que, como a advierte Copi, una sola
analogía atinente es más importante que un plexo de analogías irrelevantes respecto de la
propiedad establecida como común en la conclusión.

Ahora bien, como suele suceder con los argumentos inductivos, este último y decisivo criterio
de relevancia es EXCLUYENTEMENTE EMPIRICO. Parece claro que se trata de una cierta
relación causal entre las diferentes propiedades en análisis que habría que determinar a través
de una investigación empírica. Por ejemplo, establecer que la propiedad presente en la
conclusión es efecto de las consignadas en las premisas, o que todas las propiedades están
inmersas en una cadena causal, de modo que responden a una eventual causa común. No se
puede anticipar nada a priori. Habrá que analizar particularmente cada caso.

El ejemplo:”me dijeron que X tiene Sida. Y está trabajando en la misma cátedra, fueron
compañeros de estudios, escribieron un libro juntos... en fin, es muy probable que Y se enferme
de Sida en cualquier momento”, cuyo esquema sería

A y b tiene las propiedades P, Q y R

A tiene, además, la propiedad S

Luego, es probable que b tenga también la propiedad S


Bien, se puede ver que este ejemplo, no resiste un análisis severo: ilustra triunfalmente a una
conocida FALACIA ANALÒGICA (“FALSA ANALOGÌA POR ASPECTOS
IRRELEVANTES”). Es posible discutir si las propiedades en cuestión son o no suficientes,
pero es evidente que no existe atinencia entre los aspectos consignados y la propiedad “contraer
Sida”. Si se sumaran nuevos aspectos inatinentes (“amar la música de Bach”,” ser hincha de
River”, etc.) el conjunto total no agregaría una medida de probabilidad comparable a una
sola propiedad atinente respecto de la conclusión, propiedad ausente en el ejemplo presentado.

En conclusión: el RAZONAMIENTO POR ANALOGIA, COMO LA INDUCCION, ES UN


RAZONAMIENTO NO DEDUCTIVO. LA INFERENCIA ANALOGICA PARTE DE LA
SIMILARIDAD DE DOS O MAS ENTIDADES EN ALGUNOS ASPECTOS PARA
CONCLUIR LA SIMILARIDAD DE ESAS ENTIDADES EN OTRA PROPIEDAD.

Ej.

La Tierra, Marte, Júpiter y Venus giran alrededor del sol en órbitas elípticas, son de forma casi
esférica y brillan con luz refleja

La Tierra, Marte y Júpiter, además rotan alrededor de un eje

Por lo tanto, Venus probablemente rota alrededor de un eje

Como en todo razonamiento no deductivo, la analogía no aporta pruebas concluyentes. Como la


inducción, constituye un razonamiento del que se puede afirmar que las premisas proporcionan a
la conclusión un apoyo evidencial parcial. Apoyo parcial que puede entenderse asimismo en
términos de mayor o menor probabilidad. Pero aunque no proporcione prueba, es inevitable que
no sólo usemos analogías en nuestro uso cotidiano del lenguaje sino que la ciencia- en su
dimensión productora de nuevas ideas e hipótesis -la emplee frecuentemente.

A menudo se establecen analogías entre el cerebro y una computadora o entre el corazón y una
bomba hidráulica y estas analogías son útiles. A lo largo de la historia se utilizaron distintas
analogías para entender algún aspecto incomprensible de la realidad a partir de algo
comprensible. El átomo como un sistema solar en miniatura, el ojo como una cámara
fotográfica, el universo como un reloj en la época de Newton .En el ámbito de las ciencias
sociales, es oportuno mencionar la caracterización de la sociedad como un organismo vivo, en el
que tienen sentido las nociones de “cuerpo social”, “célula básica de la sociedad”, “salud”,
“enfermedad”, “supervivencia del más apto”.

¿Qué puede esperarse de estos razonamientos?

Estas inferencias pretenden que las premisas apoyen o justifiquen la conclusión con cierto grado
de probabilidad de modo que el apoyo siempre es parcial. La disciplina que se ocupa de
establecer la corrección de los razonamientos inductivos es la lógica inductiva y ésta (como
hemos visto) es mucho más compleja y problemática que la lógica deductiva, la que se ocupa
solamente de transformaciones sintácticas de enunciados, al punto que para algunos autores la
lógica inductiva sólo conduce al fracaso.

La polémica entre sus defensores y detractores animó, en gran medida, los debates
epistemológicos en el siglo XX, tema que es notable en las teorías del inductivismo y el
refutacionismo.
LOGICA INFORMAL – FALACIAS MATERIALES:

Sobre la LOGICA INFORMAL, hay grandes discrepancias que no existen en la lógica


formal. No hay unanimidad sobre su comienzo histórico. Para algunos nació en la filosofía
griega, con las refutaciones sofísticas de Aristóteles .Otros, siglo XX, 2da mitad con los
aportes de Copi y Hamblin. En ambos casos se reduce principalmente al estudio, análisis y
evaluación de los argumentos incorrectos formulados en el lenguaje ordinario (no reductibles
a falacias formales) es decir, al estudio de las falacias MATERIALES.

En otros casos, se considera a la lógica informal no restringida al análisis de estas falacias


sino abierta a la evaluación más amplia y flexible de los diversos tipos de argumentos
formulados en el lenguaje ordinario.

Que tipo de disciplina es la lógica informal?

Tiene diversas perspectivas desde análisis semióticos (predominantemente pragmáticos)


hasta muy básicas nociones de psicología de la comunicación persuasiva.

Según su vinculación con la lógica formal deductiva, esta es como un “fondo” o “stock” de
nociones básicas sobre las que se construyen los análisis informales.

Las características de la noción de FALACIA INFORMAL:

· Una falacia informal es UN ARGUMENTO NO PERTINENT

· PSICOLOGICAMENTE PERSUASIVO

· CONSTRUIDO INTENCIONALMENTE PARA ENGAÑAR

Sobre la pertinencia “formal “de un argumento, solo interesa el primer tipo: la consecuencia
lógica es indiferente tanto a los efectos psicológicos según el receptor del argumento como a las
intenciones del emisor.

Ya aquí surge un problema, es una falacia informal, un argumento?


Algunos piensan que no, pero aquí se lo toma así para diferenciar lo de otros recursos
persuasivos no argumentativos (como los usados en publicidad “lava más blanco que el
blanco”)

Sobre la segunda, las falacias informales no tienen atenencia lógica pero posee atenencia
psicológica. La fuerza persuasiva es una condición de eficiencia que permite explicar porqué
tantas personas “tragan “argumentos nítidamente falaces.

La tercera, la intencionalidad engañosa es aún más problemática. Ya inferir intenciones de


actores sociales es una tarea sumamente compleja y controversial. Y en el caso de discursos
argumentativos, la intención tiene además el problema de que se debe “inferir” la misma sin
posibilidad de interrogar a testigos, victimas ni al perpetrador de la falacia.

Una clasificación habitual de las falacias materiales, permite agruparlas en dos categorías:

A) FALACIAS DE INATINENCIA ( O DE INATINGENCIA) :

Tienen como características comunes que LAS PREMISAS NO SON ATINENTES PARA
ESTABLECER LA CONCLUCION, QUE “NO SE SIGUE” DE ELLAS. LA MAYORIA
SE LAS CONOCE CON NOMBRES LATINOS.

La inatinencia NO DEPENDE DE LA FALSEDAD DE LAS PREMISAS SINO DE LA


DEFICIENTE TRANSICION A LA CONCLUSION.

Es más, en general, parten de premisas verdaderas (aunque no atinentes) lo que constituye a


conferirles cierto impacto psicológico que es la fuente de su poder persuasivo.

LAS FALACIAS MATERIALES UN INDUDABLE CARACER DEPENDIENTE EN SU


GRAN MAYORIA (SINO LA TOTALIDAD)

Son ejemplo de estas falacias, las siguientes:

1) ARGUMENTUM AD VERECUNDIAM: ARGUMENTO DE AUTORIDAD


(aunque no todos los argumentos de autoridad son falacias de este tipo) CONSISTE EN
CONSIDERAR COMO PREMISA JUSTIFICATORIA UNA APELACION A LA
AUTORIDAD DE ALGUIEN QUE SOSTENTGA LA CONCLUSION QUE SE DESEA
IMPONER. La manera real de identificarla es por la NOCION DE EXPERTO.
Copi la define como “una reconocida autoridad en el campo especial de su competencia”.
Así no sería falaz un argumento respaldado por un experto, siempre que sea en un área
profesional o teórica de la que no es experto. Tales falacias son comunes en publicidad.

Las más comunes en la historia cultural occidental son las que apelan a cuestiones
morales o espirituales. (ej. la inquisición debe ser justificada por haber sido apoyada por
hombre del más elevado espíritu)

Hamblin, intenta “formalizar” un argumento de autoridad así construido:

x es una autoridad en afirmaciones de tipo T

x sostiene S, que es una afirmación de tipo T

Por lo tanto, S es verdadero.

Esto daría un buen soporte a la conclusión. La eventual falsedad de la primer premisa no


compromete la pertinencia del razonamiento. Esto se basa en la “confianza en la
infalibilidad del experto” , que convierte a la argumentación de Hamblin en
ENTIMEMATICA, al estar implìcita una premisa de la forma “SIEMPRE” que una
autoridad en autoridad en afirmaciones de tipo T realiza una afirmación T , realiza una
afirmación verdadera. Sin esto, el entimema (silogismo en el que se ha suprimido alguna
de las premisas o la conclusión, por considerarse obvias o implícitas en el enunciado,
llamado también silogismo truncado) quedaría incompleto y debería considerárselo
invalido.

Copi afirma que si LA “EXPERTISE” (experto) es pertinente, puede dar mayor peso a
una opinión, aunque no demuestre lo que sostiene tiende indudablemente a confirmarlo.
De este modo este razonamiento por experto dependería de una prueba previa, como
argumento de “refuerzo”

Walton reconoce que muchos argumentos ad verecundiam, pueden considerase


pertinentes. Gran parte de los argumentos que aceptamos son sobre las base de la
autoridad (la del médico, el juez, etc.)

No es lo mismo un argumento expuesto por un experto que un “argumento de autoridad”


expuesto por un experto (ej. del médico forense enojado). Esto se evalúa en la calidad de
la información proporcionada y la razonabilidad o plausibilidad del argumento. Otra
forma de este de argumentos de expertos, son el uso de “encuestas” en ciencias sociales.

Parte de las dificultades se pueden resolver si se convierte la premisa implícita en una


hipótesis probabilística: “siempre que una autoridad en afirmaciones tipo T realiza una
afirmación T, realiza una afirmación verdadera” por “siempre que una autoridad en
afirmaciones tipo T realiza una afirmación T, es altamente probable que realice una
afirmación verdadera” lo que convierte en un razonamiento probable, tal que es esperable
apoyo parcial de las premisas a la conclusión.
2) FALACIA AD POPULUM : Incurre en ella alguien que quiere reforzar el valor de
una afirmación al sostener “todos lo dicen” o “muchas personas lo sostienen”

3) ARGUMENTUM AD IGNORATIAM: consiste en dar por verdadero una


proposición por el sólo hecho de que no ha sido probada su falsedad.

Ej. “hay fantasmas porque nadie ha probado que no los hay”

“hay fantasmas” es una hipótesis que para Copi debería descartarse por la imposibilidad
de demostrarse. Para Popper, haría que mantenerla como situación problemática,
preservar la provisional idea de que “es razonable”, tomar la ausencia de prueba (con una
investigación pertinente) como una prueba positiva de que no se ha producido.

El famoso principio legal “toda persona es inocente hasta que se demuestre su


culpabilidad”, que puede considerarse como una falacia de ignorancia, aunque por
razones “morales” de preservación de derechos individuales se considere plausible el
argumento.

4) ARGUMENTUM AD HOMINEM: ARGUMENTO CONTRA LA PERSONA:


Consiste en enfrentar a un actor social que formula un razonamiento o proporciona
información, no refutando su discurso sino agraviándolo personalmente. La trampa es, en
general, clara porque las características negativas de una persona carecen de relevancia
lógica para invalidar su discurso. Se trata de intentar forzar una transferencia automática
de la persona al lenguaje, desacreditando al emisor para abolir su mensaje. una vez más el
impacto psicológico logra tornar persuasiva una asimilación racionalmente justificable.
Así es indudable que el ejemplo es falaz porque el carácter de mentiroso del emisor no
constituye prueba de que todo lo que afirma es falso. Son argumentos contra el hombre ,
pero parece haber buenas razones para considerarlo aceptable como razonamiento
inductivo por enumeración simple, con una prudente estimación probabilística en su
conclusión

5) PRESUNCION DE FALTA DE CREDIBILIDAD: un argumento ad hominem,


puede tener un efecto razonable de cambiar la carga de la prueba: la persona que ha
mentido sistemáticamente permite alimentar una suerte de supuesto de “mendacidad” que
constituiría una falacia, pero si concluye en una “duda razonable” y la demanda de prueba
independiente, podría evaluarse como aceptable.
6) FALACIAS CAUSALES: la mas analizada,y discutida es la que los latinos llamaban
“POST HOC ERGO PROPTER HOC “ , “DESPUES DEL HECHO, POR LO TANTO
DEBIDO AL HECHO “

Copi: se considerara erróneo todo razonamiento que trata de establecer una conexión
causal erróneamente como ejemplo de falacia de falsa causa .El error está vinculado a las
dificultades filosóficas de la noción de causalidad.

Hume: un hecho sigue a otro pero nunca podemos observar ningún vínculo entre ambas.
Parecen asociados pero nunca conectados.acepta que los hombres tienen la idea de que
existe una conexión necesaria entre causa y efecto, y esa idea forma parte de lo que
entienden por conexión causal, lo que niega es que tal conexión exista “fuera de la
mente”, es decir, la conexión necesaria es establecida a partir de hábitos de expectativa,
acostumbrados a que ciertos cambios aparecen frecuentemente juntos. Por esto él
considera que la atribución de causalidad depende de lo que llama “habitual transición de
la imaginación”

Desde entonces se considera que todos los enunciados generales son conexiones
necesarias deben entenderse como generalizaciones empíricas, es decir, “inducciones”
por lo que la admisión de argumentaciones causales debería reposar sobre la previa
aceptación de la legitimidad de la argumentación inductiva.

Las falacias causales consisten en “inferir” que un acontecimiento es la causa de otro


sobre la base de que el primero ocurrió antes que el segundo. En estos términos cualquier
argumento causal debería evaluarse como falaz, por la “dificultad de reconocimiento “de
la conexión necesaria.

La mayoría de los argumentos causales (débiles o fuertes) en la interacción social, son


mucho menos simples de analizar, lo que vuelve a colocar en primer plano el problema de
los eventuales criterios de diferenciación y los consecuentes criterios de evaluación.

La falacia Post Hoc no sólo es fuertemente contexto-dependiente sino que para su


determinación precisa necesita de disponer de información clave, lo que relativiza el
carácter falaz del argumento.

Ej. un empleado obsecuente le informó a mi jefe mi crítica. Algunos días más tarde me
despidió. Por lo tanto la infidelidad del empleado es la causa de mi despido

FALACIA DE EFECTO-CONJUNTO: también llamada “conversión de la conjunción en


relación causal” puede considerarse un tipo especial de Falacia Post Hoc.

Sería este tipo de falacia cuando dos acontecimientos que aparecen juntos, regularmente
son evaluados como ligados causalmente, cuando en realidad ambos son efectos de una
causa común.

Ej. los empleados de una oficina evidencia irritación y baja motivación, se cometería esta
falacia si se infiere sin una indagación severa que la baja motivación es la causa de la
irritabilidad, cuando en rigor ambos pueden ser efecto de una misma causa: insatisfacción
salarial por ej.
Como en otros casos la dificultad de evaluar el argumento está ligada a la falta de
información o información incompleta.

Varios argumentos AD, poseen el denominador común de usar apelaciones


“emocionales” como “truco” principal

ARGUMENTO AD BACULUM (ARGUMENTO DEL GARROTE)

Consiste en intentar forzar una conclusión inatinente usando como base de sustentación
una amenaza velada. En todos los ejemplos, de este tipo de falacia, aparece la utilización
del recurso persuasivo de intimidar al interlocutor, pero no queda claro que el discurso
sea un argumento.

ARGUMENTO AD MISERICORDIAM

Consiste en apelar a la piedad para lograr que se acepte una determinada conclusión
(suele ser usado en alegatos judiciales, donde se deja de lado los hechos y trata de lograr
absolución por piedad de los miembros del jurado) .como en la mayoría de las falacias no
formales, no toda apelación a la piedad puede considerarse como un argumento falaz. Se
necesita evaluar con detenimiento qué conclusión se intenta justificar o qué curso de
acción se supone que debemos tomar.

Copi, siguiendo a Hamblin, sostiene que en un litigio de discurso político, la proposición


es presentada como una guía para la acción, por lo que en lo que concierne a la acción, no
es tan claro que la piedad y otras emociones sean irrelevantes.

FALACIA IGNORATIO ELENCHI (CONCLUSION IRRELEVANTE)

Se comete cuando un argumento que pretende establecer una conclusión determinada es


usado para probar una conclusión diferente. Ej. el legislador que para argumentar por una
ley sobre vivienda, alega que todo el mundo tiene derecho a viviendas decentes, comete
esta falacia, ya que no está en discusión ese derecho sino la pertinencia de las medidas
que el proyecto implica

7) FALACIAS DE AMBIGUEDAD:

a) FALACIA DE EQUIVOCO (LA FALACIA DEL 4TO TERMINO)

Es la falacia más incuestionable. Una variante de esto es la instrumentación falaz de los


términos relativos (pequeño, gordo…) o sea palabras que tienen diferentes significados
según el contexto.
b) FALACIA DE COMPOSICION

Cohen y Nagel afirman que la falacia tiene lugar cuando a partir e las propiedades de
elementos o individuos se infiere que tales propiedades son asimismo de las totalidades a las
que pertenecen.

Ej. los soldados del regimiento son “fuertes”, entonces el regimiento es “fuerte”.

Premisa V, conclusión F, porque la ambigüedad está en el uso de una palabra que no


significa lo mismo en ambos casos. El uso ambiguo de términos relativos, por en otros casos
la ambigüedad dependería de las proposiciones tomadas como un todo, lo que en cada caso
requeriría un examen especifico que no es transparente.

c) FALACIA DE DIVISION :

Su mecanismo de producción es inverso al de composición y las dificultades de evaluación


son básicamente las mismas. Comete esta falacia quien extrae una conclusión transfiriendo
de manera irrelevante una proposición excluyentemente “colectiva” a su interpretación
distributiva.

Ej. . esta máquina es pesada por lo tanto las partes de esta maquina son pesadas.

CONCLUSION FINAL:

NO EXISTEN EN LA LOGICA INFORMAL ESTANDAR PROCEDIMIENTOS


MECANIZABLES PARA, A PARTIR DE LA CARACTERIZACION DE CADA
FALACIA, EVALUAR CADA ARGUMENTO PARTICULAR: SOLO UN ANALISIS
CONTEXTUAL ESPECIFICO DETERMINARA CUAL RAZONAMIENTO SERÀ
FALAZ Y CUAL ACEPTABLE POR TANTO “IDENTIFICAR “ UN
ARGUMENTO COMO AD HOMINEM, POST HOC., ETC, NO ES SUFICIENTE
PARA DECRETARLO FALAZ.

CADA CLASIFICACION EXIGE CRITERIOS EVALUATORIOS SUPLETORIOS QUE


VARIAN EN “CADA “PROFERIMIENTO DE “CADA” ARGUMENTO SOSPECHOSO.

TOULMIN:
2002- ·The uses of argument”, su propósito básico es criticar la lógica formal como criterio
central de análisis y evaluación de argumentos, la evaluación de los argumentos formulados en
el lenguaje ordinario.

A partir de esta obra TOULMIN establece un contraste entre dos tipos de argumentos:

1) ARGUMENTOS ANALITICOS (luego llamados TEORICOS) La conclusión de un


argumento analítico no agrega nada al material contenido en las premisas. Los actores sociales
que usan argumentos analíticos intentan fundamentar sus conclusiones en principios universales
e inmutables.

Son los razonamientos deductivos de la lógica formal, es “context free “(independiente del
contexto)

Justifica la conclusión de modo inequívoco y absoluto.

2) ARGUMENTOS SUSTANCIALES (luego llamados PRACTICOS) proporciona datos o


evidencia empírica para apoyar la conclusión del argumento. Los actores sociales que utilizan
estos argumentos fundamentan sus conclusiones en el contexto de una situación particular, antes
que en principios universales y abstractos.

Son los argumentos prácticos de la vida social.

Son “context –dependent” (dependiente del contexto)

Solo ofrecen un apoyo probabilística.

Uno de los aspectos fundamentales de la teoría de Toulmin es el concepto de “CAMPOS


ARGUMENTATIVOS”

Estos argumentos prácticos, en términos generales, se ajustaría siempre al esquema básico que el
caracteriza, varía en algunos aspectos al ser utilizados en campos diferentes. Tales aspectos son
“campo-dependientes”

Afirma que los argumentos teóricos de la lógica formal son no sólo independientes del contexto
sino también del campo específico en el que se presentan (razonamiento matemático)

En tanto los argumentos analíticos son frecuentemente irrelevantes o ineficaces en el mundo de


la racionalidad practica, son altamente impersonales, mientras que el actor social comprometido
en la formulación de un argumento sustancial es extremadamente importante en el mundo
practico.

Considera que el rango de aplicabilidad de los argumentos analíticos es mucho más estrecho que
lo que consideran los lógicos.

Se considera su enfoque como una propuesta pragmática, con dimensiones no suficientemente


analizadas en el modelo que luego serían solucionadas por teorías mas recientes.
Toulmin toma distancia del planteo de la lógica formal, cuando parte de una analogía jurídica:
los argumentos son comparables a las demandas judiciales y esta lógica que apunta a la
“práctica “argumentativa sería una suerte de “jurisprudencia generalizada”

ESQUEMA BASICO DE UN ARGUMENTO

Los elementos centrales de una estructura argumentativa son:

a) La afirmación o conclusión que tratamos de justificar ( C ) Toulmin usa el sustantivo “claim” traducido
como demanda o petición. “C” es aquello que demandamos sea tenido en cuenta y – se supone – estamos
dispuestos a fundamentar.

b) Los elementos probatorios que proporcionamos como base de la afirmación efectuada, es decir los datos
( D ) que él llamó “bases” ,“fundamentos” o “razones “

c) proposiciones hipotéticas que autorizan la transición de los datos a la conclusión ( G ) él las llama
“autorización “o “documento justificativo”. el verbo correspondiente puede leerse como “certificar” o
“justificar”.

EL ESQUEMA SERIA EL SIGUIENTE:

D -------------→ POR LO TANTO C

PORQUE G
Ej. Juan Carlos nació en Salta---------------→por lo tanto Juan Carlos es ciudadano

que es una pcia. argentina │ argentino

porque

Si una persona nació en una pcia. argentina

entonces esa persona es ciudadana argentina

La conclusión apela directamente a los datos. Garantía explicativa con el objetivo de registrar
explícitamente la legitimidad de la transición

Las garantías son generales, los datos son específicos para cada argumento particular.

Este esquema es “básico” ya que en argumentos más complejos pueden aparecer otros factores
que agregarían a la estructura.

Hay casos donde este esquema tripartito es insuficiente y es necesario agregar alguna referencia
explícita al grado de “fuerza” que los datos confieren a la conclusión .Incluir un “modalizador”
o “calificador modal” que matice la afirmación central ( M ) así como condiciones de excepción
o refutación que establecen en qué caso la garantía deja de justificar la conclusión ( E )

Sería entonces el esquema:

D-----------------→POR LO TANTO M, C

│ │
PORQUE G A MENOS QUE E

Ej.

Juan Carlos nació en Salta por lo tanto Juan Carlos es


que es una prov. Argentina-----------→ supuestamente,-------→ ciudadano argentino

│ │

Porque a menos que

│ │

Si una persona nació en haya sido naturalizado

una pcia. argentina, entonces español (candiense, venezolano, etc)

esa persona es generalmente

ciudadana argentina

Finalmente, si la propia garantía es puesta en duda, pueden introducirse “datos de respaldo”


(R)

“sostén” apoyo, soporte o refuerzo

El esquema sería entonces:

[……………]

Teniendo en cuenta

Las sig. Leyes y provisiones legales

El esquema básico corresponde a un esquema silogístico en el que la premisa menor es un


enunciado particular , ya que según Toulmin prefiere analizar argumentos con conclusiones
individuales, ya que son los que en mayor grado se encuentran en discursos “naturales”: intentos
de justificar una afirmación individual “garantizada “ por una proposición general.

El cambio que introduce es que la premisa mayor la llama “garantía “y a la menor “datos”.

UNIDAD 3

LAS CIENCIAS FORMALES:

COHEN Y NAGEL (1968) advierten que “una demostración es una prueba lógica, no supone
una prueba empírica ni afirma ni niega nada acerca de la verdad fáctica de las premisas o
conclusión involucradas”

En lógica, aritmética, matemática, la verdad de las proposiciones no se “demuestra” mediante


ningún método experimental. En estos casos, una prueba lógica, es un “señalamiento” de las
implicancias entre un conjunto de proposiciones llamadas AXIOMAS y (que no se demuestran)
y otras proposiciones llamadas TEOREMAS (que sí se demuestran).

Desde este punto de vista, puramente lógico, una “demostración “puede verse como un
argumento cuyas premisas son los axiomas o postulados y la conclusión, la conjunción de todos
los teoremas deducidos.

Esta cuestión lógica tiene que ver con la validez de la inferencia y afecta al plano sintáctico, a la
dimensión de ciertas reglas dentro del lenguaje, y no a la V O F empírica de las proposiciones.
A diferencia de las proposiciones de las ciencias fácticas, solo los “vacíos” TEOREMAS
DEDUCIDOS DE LOS AXIOMAS SON VERDADEROS, pero no dicen nada acerca del
mundo.

La aplicabilidad de las ciencias formales a la realidad es objeto de discusión filosófica. Popper


cree que el que cualquiera de los cálculos de aritmética es aplicable a cualquier realidad es
insostenible. Su aplicación no es real sino aparente.

La concepción clásica sobre la metodología de las ciencias formales se encuentra ya en


Aristóteles cuando destaca los 3 supuestos fundamentales de las ciencias demostrativas: el
supuesto de deductibilidad, el de evidencia y el de realidad. Por otro lado, deberá partir de los
indemostrables o axiomas para demostrar las otras verdades de esa ciencia mediante el empleo
de reglas.

El supuesto de evidencia exige que los axiomas sean de tal naturaleza que se los pueda aceptar
como Verdaderos sin demostración. La evidencia debe alcanzar también a los términos
primitivos, de manera que su claridad permita aceptarlos sin definición.

Las definiciones, por su parte, son las encargadas de declarar unívocamente el ser de las cosas y
por ello serían Verdaderas.

Estos dos supuestos junto al de realidad se admiten puesto que para Aristóteles, “ciencia” es
siempre “ciencia de la realidad”

El prototipo de esta “presentación axiomática “ son los Elementos de la Geometría de Euclides,


que datan aproximadamente del año 300 a C , obra que durante más de 2 mil años fue
considerada como el modelo de las ciencias matemáticas y como el espejo de la exactitud
científica . En este libro, la geometría, que hasta entonces era una reunión de reglas empíricas
para medir o dividir figuras, se convierte en ciencia deductiva: el conocimiento empírico pasa a
ser conocimiento formal. Además de los axiomas, Euclides emplea postulados, sumando otras
reglas de “inferencia” a las reglas de la silogística aristotélica.

Euclides comienza por definir algunos términos:

Punto es lo que no tiene parte, Línea es una longitud sin anchura,

Proporciona un grupo de postulados y un grupo de axiomas.

Los postulados son:

1. desde cualquier punto a otro se puede trazar una recta

2. toda recta limitada puede prolongarse indefinidamente en la misma dirección.

Etc.

Entre los axiomas:

“cosas iguales a una misma cosa, son iguales entre sí”

“si a cosas iguales se les agregan cosas iguales, las sumas son iguales”
AXIOMAS→CARÁCTER GENERAL

POSTULADOS→CONSIDERADOS PUNTOS DE PARTIDA ESPECIFICOS DE CADA


CIENCIA

AMBOS SON CONSIDERADOS VERDADES EVIDENTES QUE NO TIENEN NI


NECESITAN DEMOSTRACION. SOBRE LA BASE DE ELLOS DEMUESTRA UN
CONJUNTO DE PROPOSICIONES.

ESTAS, DEMOSTRADAS, SON LOS TEOREMAS

Entre los postulados de Euclides, los primeros 4 expresan nociones más o menos evidentes para
la intuición. En cambio el 5to. , conocido como POSTULADO DE LAS PARALELAS ( si una
recta , al cortas otras 2, forma de un mismo lado ángulos internos menores que son rectos, esas 2
rectas prolongadas indefinidamente se cortan del lado en que están los ángulos menores que 2
rectos) carece de este tipo de evidencia y resulta más complicado entender .

Durante el siglo XIX y principios del XX, desarrollos revolucionarios en las matemáticas
pusieron en crisis los presupuestos de la ciencia demostrativa, especialmente los supuestos de
evidencia y realidad.

Saccheri sustituyo el Postulado de las Paralelas, por otros supuestos contrarios y después trato
de deducir la contradicción entre estos nuevos supuestos y los postulados de Euclides.

GEOMETRIAS NO EUCLIDEANAS→CONSIDERAN QUE NO ES VALIDO EL 5TO.


POSTULADO.

Estas representadas por Gauss, Lobachevsky, Bolyai, y Reinman, abrieron nuevos caminos para
el desarrollo de los sistemas axiomáticos.

Una revolución parecida ocurre en el campo de la lógica, con trabajos de Boole y De Morgan a
mediados del siglo XIX, constituyendo estímulos para que diferentes disciplinas incorporaran
desarrollos cada vez más generales.

Teoría de los conjuntos de Cantor y la Lógica de Frege, aportaron el máximo de generalización


permisible para la época y permitieron caracterizar una nueva concepción de ciencias formales

Whitehead y Russell en los Principia Mathematica, completan la tarea revolucionaria a


principios del siglo XX.

En esta concepción contemporánea, la visión clásica de las ciencias deductivas es reemplazada


por otra donde la matemática se presenta como una jerarquía de estructuras caracterizadas por
ciertas propiedades formales definidas axiomáticamente.
La convicción de que los axiomas pueden establecerse en virtud de su auto evidencia, resultó
drásticamente desmentida.

Por el contrario, gradualmente se fue reconociendo que el trabajo de un matemático es derivar


teoremas a partir de hipótesis, postulados y axiomas y no decidir si estos puntos de partida son
realmente verdaderos.

El matemático, el único problema que debe afrontar es si las conclusiones a las que arriba son
consecuencias lógicas necesarias de las hipótesis de partida.

El carácter formal de la lógica, se revela en el hecho de que ésta disciplina, se ocupa únicamente
de estructuras formales y de las relaciones entre tales estructuras (la deductibilidad, por ej.)

Una lógica puede ser formal sin ser todavía formalizada. Se halla formalizada cuando se
enumeran en ella todos los signos no definidos, se especifica en qué condiciones una fórmula
dada pertenece al sistema, se enumeran axiomas usados como premisas y reglas de inferencia
consideradas aceptables, etc.

Formal y formalizado es diferente de formalismo (movimiento impulsado por Hilbert en los


años 20 en matemática)

SISTEMAS AXIOMATICOS:

Sus componentes son:

1. LOS TERMINOS PRIMITIVOS

2. LAS DEFINICIONES

3. LOS AXIOMAS

4. REGLAS (RAZONAMIENTOS DEDUCTIVOS)

5. TEOREMAS

TERMINOS PRIMITIVOS:

NO SE DEFINEN PERO SIRVEN PARA DEFINIR OTROS TERMINOS

Un intento de definir todos los términos conduciría a un círculo vicioso (diccionario: existir=ser;
ser=existir; existir=existir)
Para evitar esto en un sistema axiomático se seleccionan ciertos conceptos primitivos o sin
definición y se definen a partir de ellos todas las demás nociones necesarias.

1er paso→para construir un sistema axiomático es proporcionar una lista de todos los términos
sin

definición . Por practicidad, conviene disponer de pocos de estos términos, sin


reducirlos a

un mínimo para no tener complicaciones innecesarias.

2do.paso→es establecer una relación de todas las proposiciones para las que no se dan
demostraciones.

Estas proposiciones son LOS AXIOMAS DEL SISTEMA.

Al igual que los términos es necesario, partir de enunciados que no necesiten


demostración

para evitar el regreso al infinito o círculo vicioso.

AXIOMAS: ENUNCIADOS VERDADEROS SIN QUE SU VERDAD SE DERIVE DE


OTROS

ENUNCIADOS. SE BUSCA SIEMPRE PARTIR DEL MENOR NRO.POSIBLE

Los primeros sistemas axiomáticos eran arbitrarios y recargados. Los actuales evidencian
sencillez y economía de recursos.

3er paso→es “desarrollar” al sistema. Esto es deducir las consecuencias lógicas mediante el
empleo de

Reglas de inferencia que, en todos los casos, son razonamientos deductivos.

Estas consecuencias son los TEOREMAS DEL SISTEMA.

TEOREMA: ULTIMO PASO DE UNA DEMOSTRACION

Una demostración es un conjunto finito de enunciados donde cada uno de ellos es un axioma o
es una consecuencia lógica de otros enunciados anteriores en virtud de una regla de inferencia.

Dado que los axiomas se admiten como enunciados verdaderos y las reglas de inferencia son
razonamientos deductivos, es decir inferencias que transmiten la verdad entre premisas y
conclusión, LOS TEOREMAS SON ENUNCIADOS VERDADEROS.
La presencia inevitable en todo sistema axiomático de términos sin definición y proposiciones
sin demostración es lo que Russell señala en su famoso aforismo:”en matemáticas nunca se sabe
de qué se está hablando ni si lo que se dice es verdad”

Tarski →habla del proceso de retroceso infinito, “regresus in infinitum” para establecer que
pasaría si quisieran aclarar cada una de las expresiones que utilizan. Para evitar esto describe la
formación de sistemas axiomáticos.

En la perspectiva contemporánea, existe bastante libertad para la elección de axiomas. Los


fundamentos de elección, no tienen nada de evidente. A veces solo por una conveniencia
pragmática y hasta estética, donde la sencillez y la economía de axiomas se consideran un rasgo
de elegancia y eficiencia.

PROPIEDADES DE LOS SISTEMAS AXIOMATICOS

El sistema de axiomas se elije por una cuestión de conveniencia, no es necesario que sean
evidentes, elementales o escasos.

El sistema axiomático sí debe ser:

1) CONSISTENTE: UN SISTEMA ES CONSISTENTE SI, DESE LOS AXIOMAS,


NO SE PUEDE DERIVAR UNA FORMULA Y SU NEGACION.

NO SE ADMITEN CONTRADICCIONES, porque sino se admitiría cualquier enunciado

Un sistema inconsistente, carece de utilidad, pues todas las formulas de allí derivadas
podrían ser consideradas teoremas, incluso aquellas que se contradijeran.

Prueba de inconsistencia: derivar una formula y su negación con teoremas. Si no se logra


esto el sistema no necesariamente es consistente.

2) INDEPENDIENTE: LOS AXIOMAS DEBEN SER INDEPENDIENTES ENTRE SI.

Ningún axioma debe derivarse de otros o del conjunto de axiomas.

Si no hay independencia en los axiomas, no se sabe si son proposiciones diferentes o


dicen lo mismo de otro modo.
Si se logra deducir un axioma de otro se prueba que el sistema es redundante y no
independiente y si no se lo logra, no prueba que los axiomas sean independientes.

Es importante respetar este requisito, porque sino se multiplicarían innecesariamente la


cantidad de axiomas y no habría un criterio de demarcación entre axioma y teorema.

Cualquier teorema podría ser elevado a categoría de axioma. Este tipo de impugnación es
frecuente al criticar sistemas axiomáticos. No se considera un defecto grave, sino mas
bien, un defecto de belleza (Moreno ,1981)

El mismo requisito rige para los términos, es decir, no deberá considerarse término
primitivo a aquel que contenga expresiones que puedan definirse.

3) COMPLETO: ESTO PERMITE DERIVAR DE LOS AXIOMAS TODAS LAS


LEYES DEL SISTEMA.

En un sistema completo, el agregado de una ley no derivable hace inconsistente el sistema

Tarski →llama INCONSISTENTE a una disciplina deductiva cuando no hay en ella 2


enunciados que se contradigan mutuamente ; cuando de 2 enunciados contradictorios en ella al
menos uno no puede demostrarse .

Llamará COMPLETA E INTEGRA cuando de 2 proposiciones formuladas con ayuda exclusiva


de expresiones de ésta y de las disciplinas precedentes y contradictorias entre sí, al menos una
de ambas puede demostrarse.

Falta de contradicción y completa, se refiere a la disciplina tanto como al sistema de axiomas


que lo fundamenta.

Estos requisitos fueron revisados durante el siglo XX.

La metodología de las ciencias formales es hoy una ciencia deductiva, ella misma se ocupa de
investigar y analizar las teorías deductivas en lógicas y en matemáticas , los signos que las
componen , las relaciones semánticas que se establecen entre esas expresiones , el estudio de las
probabilidades de estas estructuras.

En estos casos, la semiótica con el deslinde de sus dimensiones sintácticas, semánticas y


pragmáticas, aporta un andamiaje conceptual útil para esta disciplina.

Aportes de científicos como Godel y Church, ponen en evidencia que aún entre todo lo
demostrable, no todo es calculable, mientras que la semántica nos previene contra el uso espurio
y dogmatico del concepto de” verdad”
INTERPRETACION Y MODELO DE LOS SISTEMAS AXIOMATICOS

El método axiomático es un poderoso instrumento de abstracción. El carácter ciego y mecánico


de las demostraciones permite que puedan ser realizadas por maquinas.

Los sistemas axiomáticos actuales son sistemas formalizados, lo que permite que un mismo
sistema axiomático pueda tener varias interpretaciones.

Cada” interpretación” de un modelo axiomático se denomina UN MODELO

Se dice que “interpreta” un concepto primitivo cuando se le atribuye un sentido y se obtiene un


“modelo” de un sistema axiomático cada vez que uno de tales conceptos se ha interpretado de
manera que son ciertas las proposiciones que resultan de los axiomas. Para afirmar que una
interpretación, constituye un MODELO, debemos disponer de un criterio para determinar la
veracidad de proposiciones particulares formadas por las interpretaciones de los postulados.

Si se aceptan como ciertos los teoremas de la aritmética ordinaria, un sistema axiomático (el de
los números reales) puede servir de modelo para otro sistema axiomático.

Diremos que este sistema es tan compatible como el sistema de los números reales

Si dos MODELOS corresponden a un mismo sistema axiomático, se dice que son


ISOMORFOS.

Y si son ISOMORFOS, se admite que tendrán las mismas propiedades formales.

EJEMPLO DE LA TUTORIA

Modelo:
Un modelo es cuando se interpreta un sistema axiomático de forma que todos sus axiomas sean
verdaderos
Puede haber varias INTERPRETACIONES ( varios modelos que parten de el mismo Sistema
Axiomático).
Tenemos un sistema axiomático que dice:
Axioma 1: A*B
Axioma 2: B*C
Axioma 3: A*C

"A", "B" y "C" son términos primitivos


Ahora los INTERPRETAMOS y decimos:
"A": Juan
"B": Pedro
"C": José
"*": ser hermano de...
Entonces reemplazamos:
Ax1: Juan es hermano de Pedro
Ax2: Pedro es hermano de José
Ax3: Juan es hermano de José
TEOREMA resultante: Juan José y Pedro son hermanos.
Tenemos un MODELO VALIDO.

UNIDAD 4:

INDUCTIVISMO:

El prestigio adquirido por las ciencias naturales (física, biología, química se debe) en parte a la
contribución exitosa a la tecnología así como a la posibilidad de reemplazar explicaciones
mágicas o mitológicas por explicaciones que sigan algún criterio de racionalidad

Los logros alcanzados por la epistemología(rama de la filosofía cuyo objeto de estudio es


el conocimiento científico, se ocupa de problemas tales como las circunstancias históricas,
psicológicas y sociológicas que llevan a su obtención, y los criterios por los cuales se lo justifica
o invalida) actual ,son en parte deudores del INDUCTIVISMO, perspectiva que identifica a las
ciencias como una forma de conocimiento que alcanza un alto grado de objetividad, neutralidad
y progreso.

Para el inductivismo, la observación cuidadosa y desprejuiciada esta en el comienzo de todo


proceso cognitivo.

El paradigma (un modelo o patrón en cualquier disciplina científica u otro


contexto epistemológico) de los enunciados basados en la observación y la experimentación
como “científicos” en oposición a los basados en la autoridad, emoción, especulación, tradición
o prejuicios, surge a partir de la revolución científica de los S. XVI y XVII , alcanzando su
síntesis perfecta en Newton y posteriormente se extendió al resto de los campos científicos.

En un sentido más amplio, el inductivismo engloba todas las corrientes que sostienen la sig.
Tesis:

1) Solamente es fecundo el conocimiento de los hechos

2) La certeza está dada por las ciencias experimentales

3) El contacto con la experiencia y la renuncia a cualquier forma de a priori es la manera de


evitar el verbalismo y el error.

La inducción es el razonamiento donde las premisas contienen información acerca


de algunos miembros de la clase y sobre esa base, se arriba a una generalización acerca
de toda la clase o una predicción acerca de un miembro no examinado de la clase. La
experiencia y la observación es el lugar seguro desde donde captar la realidad.

PRECURSORES: BACON – MILL

El esquema “tradicional” del Inductivismo es:

1) OBSERVACION Y REGISTRO DE LOS HECHOS


2) ANALISIS Y CLASIFICACION DE ESTOS

3) DERIVACION INDUCTIVA DE GENERALIZACIONES. ESTABLECIMIENTO DE


ENUNCIADOS GENERALES A PARTIR DE LAS OBSERVACIONES PARTICULARES

4) CONTRASTACION EMPIRICA DE LAS CONCLUSIONES.

INDUCTIVISMO “ESTRECHO”

A este esquema HEMPEL , en 1966, lo denomina CONCEPCION INDUCTIVISTA


“ESTRECHA “, DE LA INVESTIGACION CIENTIFICA

HUME: S.XVII. Para él la justificación es inadecuada ya que el argumento que permitiría


justificar la inducción mostrando casos exitosos de aplicación es circular. Rechaza la
justificación de cualquier forma de inferencia ampliativa, así como creencias acerca del futuro
sobre la base del pasado, incluso si provienen de información verdadera.

Para aceptar la inducción debería aceptarse UN PRINCIPIO DE UNIFORMIDAD DE LA


NATURALEZA, que dijera: “los casos de los que no hemos tenido experiencia son semejantes a
los casos de los que hemos tenido experiencia”. La demostración de este principio no puede ser
formal ya que en este plano se rige por la no contradicción y NO es contradictorio pensar que
en la naturaleza pueda haber novedades o cambios

A pesar de ello confiamos en la regularidad de ciertos fenómenos.

La justificación de la inducción tampoco podría provenir del campo de la experiencia. El


argumento que sigue incurre en circularidad:

El principio de la inducción funciono en la teoría 1.

El principio de la inducción funciono en la teoría 2

El principio de la inducción funciono en la teoría 3

El principio de la inducción funciona siempre.

Es decir usaría una inferencia inductiva para justificar el principio de la inducción.

Hume considera que hay una INCLINACIÓN PSICOLOGICA a creer en el principio de la


inducción, lo que niega es que esta creencia tenga una fundamentación racional.

Las únicas inferencias justificativas son las demostrativas, las informaciones ampliativas, por
definición, no son justificativas.

El argumento de Hume muestra no solo que no se puede justificar que todas las inferencias
ampliativas con premisas V tienen conclusiones V, sino que no podemos justificar eso de
ninguna de ellas.

INDUCTIVISMO SOFISTICADO:
CARNAP Y HEMPLE: Autores de la versión más SOFISTICADA del inductivismo,
identificado como CONFIRMACIONISMO

Todos encontraron problemas al llevar hasta las últimas consecuencias, ya que como dijo Hume,
el inductivismo es inconsecuente, al no poder fundamentar el principio mismo de la inducción
que sostiene que la “naturaleza es constante”, y al tratar de probar esto se cae en círculo vicioso.

Frente a este problema los autores, encontraron un nuevo modo de justificación, refugiándose en
el CALCULO DE PROBABILIDADES Y EN UNA LOGICA CONFIRMACIONISTA.

Al tener las predicciones un grado más o menos alto de probabilidad se suplanta la pretensión de
verificación por la confirmación.

REICHENBAR no coincide con Hume en la necesidad de renunciar a busca la justificación,


planteando la cuestión sobre otras bases, asimilándola a la conducta del apostador: apuesta sobre
la base de probabilidades que asigna a cada jugada. No hay apuesta V o F, sino más o menos
probable de cumplirse. Lo mismo considera de la inducción.

Para él, Hume demostró la imposibilidad “ontológica” (las entidades que existen o no) del
principio de la inducción.

Su propuesta en cambio, parte de la necesidad de una prueba epistemológica, a partir de la


siguiente tesis: LA POSIBILIDAD DE PREDICCIONES PRESUPONE LA POSIBILIDAD DE
UNA CLASIFICACION DE LOS ACONTECIMIENTOS TAL QUE EL PROCEDIMIENTO
DE INDUCCION REPETIDA CONDUZCA AL ÉXITO”

Lo esencial es no buscar soluciones definitivas, sino que somete cada uno de los resultados al
control experimental permanente. Así puede considerar el conjunto de los métodos científicos
como una vasta red de inducciones donde unas corrigen a otras.

El conjunto de las ciencias representa una apuesta más favorable que una prueba individual. No
niega que si la ciencia alcanza el éxito o no, no depende de muchas circunstancias que no se
pueden garantizar de antemano.

CARNAP: Coincide con Reichenbach en que la búsqueda de un método que permita pasar, sin
error, de los hechos a la ley, es una empresa imposible y que la lógica inductiva, al igual que la
deductiva no puede garantizar la verdad material de la conclusión de un razonamiento.

El método científico no debería proporcionar reglas que permitan enunciar leyes sino establecer
(una vez formulada una hipótesis) EN QUE MEDIDA ESTA JUSTIFICADA

Desarrolló un método general para definir “EL GRADO DE CONFIRMACION DE UNA


HIPOTESIS”, expresado en ese mismo lenguaje. Esboza una lógica inductiva analítica con la
esperanza de alcanzar un nivel comparable al que lograron Frege y Russell para la lógica
deductiva.

Así como la lógica deductiva sirve para fundamentar la matemática, LA LOGICA INDUCTIVA
PERMITIRIA FUNDAMENTAR LA ESTADISTICA. A partir del ello desarrollaron un largo
programa técnico que duró varias décadas, donde se construyeron lenguajes artificiales tan
limitados que no pudieron satisfacer los requisitos de las generalizaciones universales
METODO HIPOTETICO-DEDUCTIVO:

EL METODO HIPOTETICO DEDUCTIVO, ES EL METODO DE LA FUNDAMENTACION


DE LAS GENERALIZACIONES TEORICAS, ADOPTADAS COMO HIPOTESIS, CON
AYUDA DE LA DEDUCCION DE CONSECUENCIAS EMPIRICAS COMPROBADAS.

Consiste en tratar de contrastar las hipótesis (proposición o predicción a verificar) mediante


consecuencias observacionales y así establecer concluyentemente la falsedad de una
proposición, pero no su verdad. Las teorías se mantendrán si son corroboradas y se descartaran
si resultan refutadas a partir de la falsedad de alguna de sus consecuencias observacionales.

PASOS DEL METODO H-D

Se presenta en este método la siguiente secuencia:

1) HIPOTESIS FUNDAMENTALES o DE PARTIDA: que intentan responder a un problema

2) HIPOTESIS DERIVADAS ,deducidas de las anteriores

3) CONSECUENCIAS OBSERVACIONALES, enunciadas del más bajo nivel de generalidad, que se


extraen deductivamente de las hipótesis fundamentales y de las derivadas. Se confrontan con la experiencia,
se someten a prueba empírica. De allí resultará la REFUTACION ( si resulta un enunciado FALSO )

O la CORROBORACION (si la contrastación resultó favorable)

POR TANTO SE DA UN PROCESO DEDUCTIVO DE GENERALIZACIÓN


DECRECIENTE DE LOS ENUNCIADOS.

TODO ENUNCIADO ES VERDADERO O FALSO

VERIFICACION: PRUEBA DE QUE UN ENUNCIADO ES VERDDERO

REFUTACION: PRUEBA DE QUE UN ENUNCIADO ES FALSO

Suponiendo que sea posible tanto verificar como refutar enunciados observacionales, ¿puede
inferirse de las hipótesis de donde fueron deducidos?

Aquí surge la ASIMETRIA entre verificación y refutación de hipótesis

El Modus Tollens es la regla lógica que permite ejemplificar el caso de refutación de una
hipótesis, ya que permite afirmar si un enunciado observacional resultara falso, es falsa la
hipótesis de donde se derivo.

H ) C.O.

-CO_____

-H
Si la consecuencia observacional fuera verdadera podríamos construir el siguiente esquema

H ) C.O.

CO___

Este esquema corresponde a la FALACIA DE AFIRMACION DEL CONSECUENTE, de modo


que podrían ser verdaderas las premisas y falsa la conclusión. Por lo tanto NO VERIFICA la
hipótesis, que puede considerarse corroborada o confirmada, según el punto de vista
epistemológico que se adopte.

La deducción de consecuencias observacionales verdaderas no permite inferir que la hipótesis


sea verdadera, aunque desde la perspectiva inductivista puede decirse que la HIPOTESIS HA
SIDO CONFIRMADA.

SI SE REITERAN LOS EXPERIMENTOS Y SE OBTIENE UN GRAN NUMERO DE


CONSECUENCIAS OBSERVACIONALES VERDERAS , podría afirmarse por
inducción que la hipótesis ES PROBABLEMENTE VERDDERA, es decir, que EXISTE
UN ALTO GRADO DE PROBABILIDAD Y QUE ESA PROBABILIDAD PUEDE
MEDIRSE.

Esta es la postura CONFIRMACIONISTA a la que adhieren CARNAP Y HEMPEL

REFUTACIONISMO - FALSACIONISMO

Liderada por Karl POPPER, ha dado gran importancia a la ASIMETRIA ENTRE


VERIFICACION Y REFUTACION, produciendo una interpretación distinta de esta situación,
partiendo del rechazo a la inducción como método científico y al inductivismo en cualquiera de
sus versiones.

No participó del Círculo de Viena, pero compartía con el movimiento neopositivista la


convicción de que ninguna actividad filosófica que se separe de la ciencia puede producir
resultados validos, resaltando la necesidad de demarcar límites de ciencia y metafísica.

A pesar de las coincidencias, se oponía al inductivismo como método de la ciencia y al


principio de verificación como demarcación entre ciencia y metafísica.

PROPONIA QUE LA CIENCIA SE CARACTERIZARA POR EL METODO


HIPOTETICO-DEDUCTIVO ,CONSIDERANDO LA FALSABILIDAD EL CAMINO
PARA SEGREGAR A LA CIENCIA DE LA METAFISICA.

Para él una hipótesis “disparatada” se distingue de una “científica” en que ésta puede ser
CONTROLADA, CONFRONTADA CON LA EXPERIENCIA Y POR TANTO FALSADA
POR ELLA.

Desde el punto de vista lógico, ningún número finito de casos a favor de una generalización
empírica es suficiente para formular una ley (ej. Todos los cuervos son negros...)
Al intentar confirmar una hipótesis y caer en falacia de afirmación del consecuente, lo que hay
que hacer es buscar, con absoluto respaldo lógico, la REFUTACION O FALSACION de las
hipótesis, con la estructura del Modus Tollens.

La hipótesis debe sistemáticamente intentar refutarse y si resiste tales intentos, hay razones para
aceptarla PROVISIONALMENTE.

Las hipótesis propuestas para responder un problema deben correr el riesgo de ser falsas y para
ello, en principio deben ser FALSABLES.

HIPOTESIS FALSABLES: es tal cuando aporta un informe de riesgo acerca del mundo, es
decir que tenga contenido empírico, que diga algo acerca del mundo y no esté prevenido contra
la refutación, o sea que corra el “riesgo” de que esta pueda suceder en cualquier momento.

En primer término, es necesario que la HIPOTESIS SEA FALSABLE, es decir que tenga la
posibilidad de ser falsa. La terminación “ble” indica posibilidad, por lo que no se debe
confundir falsable con falsada.

Una hipótesis falsable, en el proceso de contrastación empírica, puede resultar falsada o


corroborada (ej. La teoría geocéntrica, es falsable y resulto falsada por la historia de la
astronomía y la heliocéntrica también falsable, pero fue corroborada)

Existen GRADOS DE FALSABILIDAD:

Dependen del grado de generalidad de su sujeto y del grado de precisión de su predicado.

Sera mas falsable cuando el sujeto sea más universal respecto a otra y su predicado más preciso,
ya que el enunciado universal ofrece mayores oportunidades para la refutación y al ser mas
“preciso” su predicado también facilita la refutación. (ej. “Todos los planetas tienen atmosfera”
es mas falsable que “la tierra tiene atmosfera”, así como “todos los planetas tienen atmosfera
donde está presente el oxigeno” es mas falsable que “todos los planetas tienen atmosfera”)

NO SON FALSABLES: porque no tienen contenido empírico:

· ENUNCIADOS PROBABILISTICOS (porque la probabilidad los protege contra la


refutación)

· ENUNCIADOS TAUTOLOGICOS (porque no ofrecen ninguna información precisa acerca


del mundo, solo expresan la ley del 3ero excluido : p v –p )

· ENUNCIADOS QUE CONTIENEN TERMINOS SIN DENOTACION (ANGEL,BRUJA)

· ENUNCIADOS PROBLEMATICOS (“QUIZA MAÑANA TE CONTESTE EL MAIL”)

En estos dos últimos casos ningún estado de cosas, permite afirmar que el enunciado es
falso.

TIPOS DE HIPOTESIS: FUNDAMENTAL, AUXILIAR Y AD-HOC


Cuando se intenta derivar consecuencias observacionales a partir de hipótesis fundamentales, es
necesario hacer uso de suposiciones adicionales

HIPOTESIS FUNDAMENTALES: por si solas en general no son suficientes requieren que se


las ponga en conjunción con otras que tienen un carácter instrumental o auxiliar llamadas

HIPOTESIS AUXILIARES: Cumplen el papel de premisas adicionales, que deben cumplir 2


requisitos:1) ser falsables

2) ser contrastadas con anterioridad y/o con independencia de la hipótesis


fundamental (ej. Hipótesis “mañana te mando un mail” puede tener como hipótesis auxiliar
“mañana estoy vivo” “mañana funciona el servidor” de tal modo que si la hipótesis resulta
refutada, pueda desviarse la falsacion a alguna hipótesis auxiliar que no se cumplió)

El esquema sería H y Ha1 y Ha2 y Ha3 ) C.O

En el esquema podría resultar que si se presenta –C.O (no se cumple la Consecuencia


Observacional) puede deducirse –Ha1 o –Ha2 (no se cumplen algunas de las Hipótesis
Auxiliares involucradas)

Si un enunciado que se presenta cumpliendo este papel de premisa adicional NO CUMPLE


ESTAS DOS CONDICIONES, se dirá que se trata de una HIPOTESIS AD-HOC, que ocupan
un lugar importante en el desarrollo de las teorías. (ej., entre las premisas adicionales figura
“mañana no seré capturado por seres extraterrestres”, es un enunciado irrefutable destinado a
“blindar” la hipótesis principal para salvarla de la falsacion)

Puede ser una conjetura audaz, algo que se especula que debería ocurrir para que se cumpla lo
que afirma la hipótesis principal. Algunas teorías científicas importantes fueron hipótesis ad-hoc
en el inicio de una investigación.

REFUTACIONISMO SOFISTICADO: LAKATOS

A la pregunta del falsacionismo ingenuo ¿es falsable? ¿ha sido falsada? el


REGUTACIONISMO SOFISTICADO pregunta “la teoría propuesta ¿es un sustituto viable de
aquella que desafía? ¿es más falsable que su rival?

LAKATOS. El problema metodológico no se centra en la falsacion de teorías, sino en los


criterios de evaluación de teorías rivales.

Para el REFUTACIONISMO SOFISTICADO: una teoría es “CIENTIFICA” solo si tiene más


contenido empírico corroborado que su rival. La tesis central de esta teoría estriba en que una
TEORIA NUNCA PUEDE SER FALSADA POR LA OBSERVACION NI POR
EXPERIMENTO ALGUNO PERO SI POR OTRA TEORIA: NINGUN
EXPERIMENTO,INFORME EXPERIMENTAL , ENUNCIADO OBSERVACIONAL O
HIPOTESIS FALSADORA, de bajo nivel corroborada puede originar por sí mismo la falsacion.
No hay falsacion sin la emergencia de una teoría mejor.

Intenta sintetizar el falsacionismo popperiano incorporando elementos de la teoría de los


paradigmas de Kuhn, así como la idea de cambio de teorías como cambio de paradigmas. Pero a
diferencia de Kuhn, Larkatos no renuncia a proponer un criterio de elección racional entre
teorías rivales. Para él una teoría, en tanto conjetura, puede ser reemplazada por otra, pero no
por cualquiera entre tantas que proliferan en momentos de crisis, sino por aquella que en lo
principal, incluya los mismos elementos, pero luego la supere al realizar predicciones exitosas.

UNIDAD 5

La palabra “explicación” tiene un uso habitual (narración, adiestramiento en procedimientos,


explicación de significados, elucidación conceptual, distinción conceptual) tiene un uso técnico
en el lenguaje científico y epistemológico diferente.

Esta polisemia (una misma palabra que tiene varias acepciones) parcial es frecuente en el
lenguaje corriente, en la ciencia si es una cuestión grave, donde se debe tratar de generar
univocidad, como precisión lingüística y conceptual.

En ciencia se debe diferenciar entre DESCRIBIR Y EXPLICAR

DESCRIBIR= responder la pregunta de CÓMO es algo

EXPLICAR=responder a la pregunta de PORQUE algo es como es

Ej. Censo, “describe” la realidad social, un sociólogo a partir de ello “explicaría” el porqué por
ej. se deteriora la calidad de vida por la mayor tasa de natalidad.

EXPLICACION CIENTIFICA: ES UN INTENTO POR HACER COMPRENSIBLE O


INTELIGIBLE EVENTOS PARTICULARES O HECHOS GENERALES APELANDO A
“OTROS” HECHOS PARTICULARES O GENERALES DE ALGUNA RAMA DE LAS
CIENCIAS FACTICAS.

EXPLANANDUM…… aquello que requiere una explicación, lo explicable

EXPLANANS ………...aquello que proporciona la explicación, lo que explica

Analizar el concepto de explicación supone no sólo caracterizar con precisión el explanandum y


el explanans, sino también la índole de la RELACION EXPLICATIVA entre ambas.

MODELOS DE EXPLICACION CIENTIFICA

1) EXPLICACION NOMOLOGICA-DEDUCTIVA: ( N D)
La explicación (explanans) de un enunciado E (explanandum) está integrada por dos tipos de
enunciados:

a) las condiciones antecedentes (C1,C2…Cn), que describen las circunstancias


particulares iniciales en las que se produce E

b) las leyes generales (L1,L2…Ln) que explican E

Así C y L funcionan como PREMISAS, de una inferencia deductiva, cuya conclusión es E

Su esquema es, entonces:

L1,L2….. Ln explanans (lo que explica)

C1,C2…..Cn_____________________________________

E exlanandum (lo explicado)

Ej. Todos los metales se dilatan con el calor

Este trozo de hierro es un metal

Por lo tanto_________________________

Este trozo de hierro se dilata con el calor

Para Hempel una explicación nomologica-deductiva debe cumplir las siguientes


CONDICIONES DE ADECUACION:

*El explanandum debe ser consecuencia lógica del explanans

*El explanans debe contener leyes generales (de las que se deriva el explanandum)

*El explanans debe tener contenido empírico

*los enunciados que componen el explanans deben ser verdaderos (verdad como
correspondencia = coincidencia con un estado real de cosas. Mientras que los anteriores hacen a
la consistencia deductiva (e.e. su carácter lógico, no material) Recuerde que se trata de
"explicar" algo que sucede en lo "real".)

Los tres primeros requisitos son de carácter lógico y el cuarto de índole empírico.

Hempel y Nagel: este tipo de explicación es la fundamental, al punto que las otras formas de
explicación serán pertinentes en la medida en que se aproximen a ella (la estadística) o que se
puedan reducir a ella (la teleológica y la genética)

2) EXPLICACION ESTADISTICA-INDUCTIVA : ( E I ) :
Su estructura es muy semejante a la explicación deductiva:

L1,L2….Ln

C1,C2….Cn

Se diferencia en dos aspectos:

a) Las leyes no son leyes generales de universalidad estricta sino generalizaciones estadísticas

b) La doble línea indica que las premisas apoyan a la conclusión con una
probabilidad p (numero probabilístico comprendido entre 0 y 1)

La conclusión se deduce de las premisas: el explanans no implica lógicamente al explanandum,


solo le otorga cierta probabilidad

La línea simple representa implicación lógica , la doble representa una relación de sustento
inductivo tal que el valor numérico particular de la variable p constituye la “fuerza” de ese
apoyo , que puede reemplazarse por una estimación mas vaga, con expresiones como “muy
probable” ,poco probable” ,o “apoyo inductivo fuerte” , “apoyo inductivo débil”

Ej. La gran mayoría de las infecc con estreptococos remiten rápidamente con penicilina

Juana tenía una infección con estreptococo

Juana recibió un tratamiento con penicilina

P=0,9

Juana se recuperó rápidamente

HEMPEL considera a la explicación deductiva como fundamental porque está asociada al hecho
de que la relación de implicación lógica entre premisas y conclusión maximiza el valor
predictivo de la explicación, pero la relevancia de la explicación inductiva depende de que una
muy alta probabilidad de acaecimiento de E la “acerque “a la validez deductiva.

3) EXPLICACION GENETICA:

Tipo de explicación que se presenta con cierta regularidad en la historiografía y en la sociología


de la historia.

Consiste en explicar un hecho histórico señalando una sucesión de hechos anteriores,


encadenándolos de modo que integren un proceso que termina en el hecho de explicar. Se
registran no “todos “los hechos previos, sino los de relevancia causal en el desarrollo del
proceso
Hemple: cancelo la autonomía de esta explicación reduciéndola a las explicaciones legaliformes:
“cada” eslabón del proceso sería una explicación deductiva o estadística, lo que equivale a
transformar la explicación genética en una secuencia de explicaciones ND o EI.

Brown, considera en cambio que la explicación genética puede explicar el hecho en cuestión
por sucesos, procesos o situaciones de distinta naturaleza que no se exponen a través de leyes
universales o generalizaciones estadísticas sino por medio de enunciados particulares que
describen hechos y situaciones específicos que se pueden “fechar”

Winch: la explicación histórica no es la aplicación de generalizaciones y teorías a casos


particulares sino la búsqueda de relaciones particulares internas.

4) EXPLICACION TELEOLOGICA

Su modelo más reciente establece una relación explicativa “intenciones –fines” (ej. ¿“porque
estudian los alumnos de IPC? porque tienen que aprobar la materia”)

Según la PROPUESTA DE BRAITHWAITE –HEMPEL Y NAGEL

Su versión implica sostener al menos 3 afirmaciones:

a) La explicación teleológica consiste en explicar un hecho presente por lo que


ocurrirá en el futuro.

b) Es legitimo entender el fin en el sentido aristotélico de “causa final” con lo que la


relación medio-fines se vuelve relación causal

c) La explicación teleológica puede, de este modo, reducirse a una explicación


legaliforme.

Pero según los estudios de Von Wright permiten concluir que ninguna de tales posiciones
describe adecuadamente la índole de la explicación teleológica.

Primero en ella no se explica un hecho presente por lo que ocurrirá en el futuro, sino por algo
que ocurre en el presente, o sea, por la implementación de los medios-fines a partir de las
“intenciones”

2 – la relación medios-fines o “intenciones-fines” no es asimilable a la relación causa-efecto.


Aun dejando de lado la “causa final” invirtiendo la relación, procurando entender el fin como
“efecto deseado” y los medios o intenciones como causa , no parece pertinente reconocer como
causal una relación en la que la supuesta causa a veces genera su “efecto”( fin) y otras no, ya
que no siempre logramos nuestros propósitos o intenciones

Él retoma la propuesta aristotélica de los SILOGISMOS PRACTICOS, para dar cuenta de la


explicación teleológica.

Los describe: a) la premisa mayor del silogismo menciona algo pretendido o una meta
b) la premisa menor presenta algún acto o acción conducente al logro de la meta,
es decir un medio dirigido al fin.

c) la conclusión consiste en el empleo de ese medio para alcanzar el fin en cuestión.

El silogismo práctico traduciría la naturaleza de la intencionalidad y la racionalidad teleológica


en las acciones humanas.

Esquema:

A se propone dar lugar a p

A considera que no puede dar lugar a p a menos que haga a

Por consiguiente, A se dispone a hacer a

Por lo tanto, al sostener que A se dispone a hacer algo, que “pone en marcha” efectivamente una
acción, el explanandum es una acción

Entonces el silogismo practico no es evaluable en términos de validez lógica ya que la V de las


premisas no garantiza la V de la conclusión (el sujeto intencional puede se, cambiar de idea, y
por lo tanto no iniciar la acción)

DIMENSION EXPLICATIVA Y PREDICTIVA

En términos general la corriente hempeliana consideraba que ene l tipo ND la explicación y


la predicción, tienen la misma estructura lógica, aunque con dos matices diferenciales.

1) EXPLICACION ND Y PREDICCION: ESTRUCTURA HOMOGENEA.

a)En la explicación disponemos del explanandum y buscamos leyes generales que lo implican
(explanans) mientras que en la predicción anticipamos deductivamente al explanandum

b) Obviamente la predicción se proyecta al futuro, predecimos hechos que aún no han


sucedido.la identidad de estructura permitiría entender a la explicación deductiva como
HOMOGENEA, respecto de la predicción: la relevancia y la fecundidad explicativa se traslada a
la predicción: si identifico un fundamento nomologico de la explicación actual, podría afirmar
que, en el futuro, siempre que se dé el explanans se dará el explanandum.

2) EXPLICACION ESTADISTICO-INDUCTIVA: IMPOSIBILIDAD DE PREDICCION.

Esa estructura homogénea de la expl. ND y la predicción no se da en la estadística porque es a


posteriori, porque se explica un hecho luego de ocurrido y no puede predecirse en un sentido
estricto. No podemos predecir estadísticamente casos individuales por abrumadora que sea la
mayoría de los casos estudiados.

PROBLEMAS DE LA EXPLICACION Y PREDICCION EN LAS CS. SOCIALES.


Esta tesis de Hempel y Popper sobre la identidad estructural explicación-predicción es difícil de
sostener en explicaciones y predicciones sociales.

Antes que predicciones legalijormes se dan por ej. “pronósticos condicionados” donde la
aparición del evento pronosticado depende de la aparición aun pendiente de condiciones
antecedentes.

Lenk puso el énfasis en los “pronósticos tecnológicos” vinculados con condiciones


influenciables por los actores sociales.

Tales pronósticos no se presentan como conclusiones singulares de argumentos, incluyen


variables temporales y tienen la estructura de un enunciado condicional que expresa
“dependencia” respecto de una situación “construible”

La conclusión parece ser que la identidad estructural es poco significativa en las cs. sociales.

Reflexionar en qué medida la extrema complejidad de la acción humana admite perspectivas


explicativas alternativas aun, respecto de los mismos hechos. El pluralismo metodológico de las
cs.sociales obedece a la misma exigencia.

En ciencia, las condiciones de pertinencia teórica, explicativa y predictiva, tienen siempre que
ver con las mismas dimensiones: relevancia, fecundidad explicativa y por ultimo simplicidad.

MONISMO Y PLURALISMO METODOLOGICO

LA TENSION ENTRE EXPLICACION Y COMPRENSION, cuestión de metodológica de las


ciencias fácticas comienza a presentarse como problemática hacia mediados y fines del siglo
XIX y principios del XX, por consideraciones realizadas por Droysen y Dilthey.

Hasta entonces se entendía que el método de justificación, modelo en las ciencias fácticas, era el
correspondiente a las ciencias naturales (el inductivista y posteriormente en el s XX el
hipotético-deductivo) y así las ciencias sociales se subsumían bajo dicho modelo. Esta
concepción en líneas generales, se la conoce bajo la denominación de MONISMO
METODOLOGICO.

Esta es la corriente epistemológica que sostiene que existe un único método aplicable a las
ciencias, naturales como sociales, afirmando el monopolio del método hipotético deductivo o
del dialectico. En tal sentido toda posición monista es reduccionista, ya que reduce la posibilidad
al uso de esas posibilidades.

PLURALISMO METODOLOGICO: corriente epistemológica que sostiene que para cada tipo
de ciencia fáctica, es decir para las naturales, y para las sociales existe un método propio de
justificación de hipótesis o teorías para cada una de ellas. En el primer caso podrá ser
inductivista o el hipotético –deductivo y en el segundo, será el intencional, el genético, etc.
LA TENSION ENTRE EXPLICACION Y COMPRENSION- DOC. CATEDRA
BERALDI

El problema de la explicación en las ciencias sociales.

1. El “problema” de la explicación en las ciencias fácticas

Hempel: los dos tipos de explicación científica, el modelo nomologico-deductivo y el modelo


estadístico-inductivo, sirven de soporte al modelo de explicación característicamente histórico.

Defiende que la explicación histórica aspira a demostrar que los hechos no ocurren al azar, sino
en vista de ciertos antecedentes o condiciones simultaneas y el no poder formular leyes grales en
las explicaciones históricas es por la excesiva complejidad de tales leyes y la insuficiente
imprecisión con que las conocemos. Así las explicaciones históricas son esbozos de explicación.

Popper: representante tb. Del modelo nomologico-deductivo, afirma que la razón de que las
leyes no sean formuladas en las explicaciones históricas es que son demasiado triviales para
merecer mención y que las dan por implícitamente supuestas.

La cuestión acerca de si la ciencia y particularmente las ciencias sociales deben explicar o


describir no está zanjada.

Von Wright: analiza las diferencias de los métodos explicativos entre las ciencias humanas y las
naturales. Desde lo metodológico, se suelen señalar 2 actitudes con relación al problema del
método, monismo metodológico y pluralismo metodológico.

Hempel, en la base de la discusión hay 2 factores que estimulan la investig. Científica:

1 – el deseo persistente del hombre por mejorar su posición estratégica en el mundo por medio
de metidos confiables de predicción y control de los acontecimientos

2 – insaciable curiosidad intelectual del hombre

1.1. Origen de la controversia:

La dicotomía tiene sus raíces en la historia de las ideas, relacionada con el problema de si la
construcción teórica es intrínsecamente igual en las cs. Naturales que en las sociales, humanas o
del espíritu.

Von Wright: el problema parte de las dos tradiciones científicas: la aristotélica y la galileana que
se remonta a Platón. La primera se vincula a los esfuerzos humanos por “comprender” las cosas
“teleológicamente”, comprender las cosas como tendientes a un fin. Y la 2da. Por “explicarlas
causalmente. Y estas dos tradiciones difieren en el planteamiento de las condiciones de
satisfacer por una explicación científica.

En las historia de las ideas, de las ciencias, hay dos corrientes epistemológicas fuetes: la
positivista y la antipositivista: la positivista: representada por Comte y Mill, queda vinculada a
la tradición galileana por su monismo metodológico y el antipositivista, representado por
Dilthey y Weber , representa una tendencia mucho más diversificada y heterogénea ,rechazando
el monismo metod. Y rehusándose a establecer el patrón metod. a las ciencias naturales exactas
como idea regulador único y supremo de la comprensión racional de la realidad, para lo que von
Wright usa el nombre de HERMENEUTICA ,vinculada a la tradición aristotélica.

1.2. El problema del metido y el reduccionismo:

Positivismo: sostiene la unidad de método, subordinando el método de las cs.sociales al de las


naturales, e ideal metodológico las cs. Físico-matemáticas, poniendo énfasis en la explicación y
predicción. La explicación es causal y no teleológica (que son acientíficas)

Antipositivismo: sostiene contraste entre las cs. Como la física, química o fisiología, que aspiran
a generalizaciones sobre fenómenos reproducibles y las cs. Como la historia, que buscan
“comprender” las peculiaridades individuales y únicas de sus objetos, impugnando enfoque
positivista de la explicación. Cs. Sociales o humanas, para Dilthey, no pueden buscar la
comprensión de la vida por categorías externas a ella, sino por categorías intrínsecas, derivadas
de ella misma, por lo que no deben explicar, sino comprender y no lo pueden hacer por métodos
de las cs. Naturales sino mediante los propios. Para “explicar” (comprender) la vida no sirve
categorías como leyes lógicas o razonamientos deductivos o inductivos, que son construcciones
formales u objetivaciones hechas por el hombre, y no son “la vida”. Las categorías propias de la
vida, Dilthey las llama “vivencias” y son, lo que nos ocurre y lo que nos ocurre históricamente.
Son acontecimientos de la vida, el querer, el sentir y el representar.la comprensión en las
“ciencias del espíritu” se da porque la vida se exterioriza en textos, que dan cuenta de las
vivencias del que lo escribió y entonces, nos permiten comprender, además del texto, a su autor.

2.- La “comprensión” en las ciencias sociales.

Corriente antipositivista: objetivo de las cs. Naturales es “explicar” y el de la historia y las cs.
Sociales es “comprender “los fenómenos que ocurren en su ámbito.

Broysen : introdujo la dicotomía metodológica y acuño los nombres de explicación y


comprensión y luego desarrolladas por Dilthey, que uso el término “ciencias del espíritu” por
ciencias humanas o sociales.

Uso cotidiano: sin distinción aguda entre explicar y comprender: cualquier tipo de explicación
proporciona una comprensión de las cosas. Comprensión cuenta además con una connotación
psicológica de la que carece la “explicación”

Simmel : la comprensión, como método característico de las cs. Del espíritu es una forma de
empatía y recreación en la mente el científico de la atmosfera espiritual, pensamientos y
motivos de sus objetos de estudio.

Von Wright :la comprensión está ligada tb. a la “intencionalidad” de un modo que la explicación
no lo está. Esta dimensión intencional es la que juega un papel relevante en la discusión
metodológica mas reciente a través de la hermenéutica.

El gran objetivo de Dilthey consistió en desarrollar una metodología apropiada para el


“entendimiento” de las obras humanas, eludiendo el reduccionismo y mecanicismo de las cs.
Natuarales, ya que la vida debe ser entendida a partir de la propia experiencia de la vida.
Es centra para el esta distinción entre las cs.nat.y sociales. Las primeras descansan en el
concepto de “fuerza” propuesta por la física y matemáticas. Las cs.sociales, en cambio se
apoyan en el concepto de “sentido “y en la historia. Así el concepto clave de las cs. del espíritu
es el “entendimiento” y la “comprensión” .

Comte, representante en la sociología del positivismo.

Weber, inclinado hacia lo opuesto al positivismo, mas sólidamente, apareciendo la


“comprensión” como uno de los elementos de su concepción del método científico. No
significaba una identificación completa con el sujeto investigado, sino que es la capacidad de
cualquier ser humano de entender al otro ser humano en una situación, aunque él no haya vivido
exactamente esa situación. Algo parecido al “ponerse en el lugar del otro”, para comprender una
actitud, una acción, etc.

El sentido propio de comprensión o entendimiento se halla en un contexto que se extiende entre


el pasado y el futuro. Historicidad y temporalidad, son dimensiones inherentes e inevitables de
toda comprensión .hay que tender un puente entre el pasado y el presente para comprender el
pensamiento, acción o actitud de otro ajeno en tiempo. El todo recibe su sentido de las partes y
estas solo pueden comprenderse en relación con el todo, formándose un circulo hermenéutico
(GAdamer)

El sentido es histórico, dinámico y contextual, es siempre parte de una determinada situación.la


interpretación siempre remite a la situación en la cual se halla el intérprete, lo que no significa
que sea subjetivo y nos lleve al relativismo. El sentido es una percepción de una relación real
dentro de un nexo anterior a la separación sujeto-objeto en el pensamiento.

Antipositivistas, tratan de substituir las nociones científicas de explicación, predicción y control


por las interpretativas de comprensión, significado y acción.

Von Wright , sostiene quela a metodología de las cs. humanas gradualmente atrajo la atención
de filósofos analíticos (positivistas y neopositivistas que pretendían excluir por completo la
metafísica de las cs.) y que esta filosofía se vio inmersa en la lucha entre la metodología
positivista y antipositivista.

En los años 60, reino una coincidencia gral en cuanto al que el modelo explicativo causal
suministraba un marco de referencia idóneo para el estudio de los fenómenos sociales, pero
hacia los 80, la alternativa interpretativa, el modelo de la comprensión, comenzó a ganar adeptos
en países anglosajones. Filósofos analíticos, reflejaban este interés, por el concepto de “acción”
vinculado a la “intencionalidad”.

Así, W.Dray, expresa que las explicaciones de la historia son científicas y racionales a
diferencia de Hempel, aunque no son ciencia de leyes generales. Sostiene que la historia explica
y mostrando que una acción fue el proceder adecuado teniendo en cuenta los antecedentes,
abordando la pregunta ¿cómo fue posible? Y no la de ¿por qué? .Von Wright indicara que este
giro del “porque” al “como” lo sitúa cerca de la hermenéutica.

Así von Wright busca un puente entre “explicación” y “comprensión”, sosteniendo que Hempel
y Dilthey, no son incompatibles sino complementarios. Influenciado por L.Vittegenstein y la
filosofía neowittegensteniana y tb. por la hermenéutica, postula que la filosofía analítica es afín
a la hermenéutica a partir de los conceptos de significado, intencionalidad, interpretación y
comprensión y por compartir, además, la preocupación por la metodología y filosofía de la
ciencia. Sostiene que la “comprensión” en el lenguaje de la filosofía hermenéutica debería
diferenciarse de la empatía, ya que es una categoría antes semántica que psicológica.

Así von Wright indica que las explicaciones causales con típicamente cuasi-
teleologicas:susceptibles de formulación en términos teleológicos pero cuya validez depende de
la efectividad de conexiones nómicas(leyes) por lo que suelen responder sobre ¿Cómo es ¿ o
¿Cómo llega a ser posible algo?y tienen un lugar predominante en las ciencias humanas ,
permitiendo comprender lo que algo es o la razón por la que ocurre.asi los acontecimientos
resultantes de acciones básicas ,tienen lugar cuando las investimos de intencionalidad.

2.1. El modelo Comprensivista de von Wright

De acuerdo a lo antes dicho, la noción de causalidad vale con más facilidad para el ámbito de los
fenómenos naturales que en el de los humanos. Pero, von Wright sostiene que si rastreamos el
concepto de “causalidad”, veremos que se origina en nuestro conocimiento inmediato, íntimo,
de la acción humana, proviene de una proyección de nuestras propias acciones sobre el mundo
natural. Nosotros, cultural o históricamente, experimentamos la acción y la noción de causa
surge por una especie de proyección de nuestras propias acciones al mundo natural. Así, si
nosotros no actuáramos, no tendríamos el concepto de causa.

En lugar de pensar que yo soy la causa por la cual, supongamos,”x” murió por mi acción o esta
fue la causa de la muerte de “x”, la causalidad en la naturaleza deriva del “saber que yo puedo”
matar a una persona. O sea invierte e orden con respecto a la idea que previamente uno podía
tener.

Busca mostrar que la conducta humana es algo completamente distinto de los hechos que nos
encontramos en el mundo natural y hasta formula hipótesis de cómo en el ámbito humano puede
haber procesos causales de tipo retroactivo, en los que el efecto es anterior a la causa. Es
primaria causalmente, no temporalmente.

Por ej. El hecho de mover el brazo: primero está la decisión de hacerlo, segundo, el proceso
cerebral y tercero la acción, pero temporalmente, primero está el proceso cerebral y segundo la
acción.

Esta cuestión está emparentada con la “intencionalidad” y la “responsabilidad “. Un ser humano


es responsable de su acción, y solo podrá serlo si la decisión la toma él.

Un concepto fundamental es el concepto de “acción”, su caracterización consiste en la


producción de cambios que no hubieran tenido lugar de no haber mediado nuestra intervención.
Pero la acción es tanto la acción propiamente dicha, como la omisión, que es una acción
negativa.

Por lo tanto, es totalmente distinta la explicación, porque en el caso de las acciones no voy a
buscar leyes, y en los fenómenos naturales no puedo adjudicarles intención, ni decisión ni
responsabilidad. , por lo que lo más adecuado para “comprender” las acciones humanas no es el
esquema de Hempel (leyes) sino el de Aristóteles (interpretación) que es el se conoce como
silogismo pràctico, sobre las explicaciones intencionales, ya visto.
En el modelo de” explicación comprensivista” de von Wright , el concepto de causalidad supone
de la libertad, ya que únicamente a través de la idea de hacer cosas se llega a “comprender” las
ideas de causa y efecto.

2.2. El Modelo Pragmático de van Fraassen:

Este modelo está vinculado fundamentalmente con el contexto, y aunque este epistemólogo no
se vincule directamente con el comprensivismo, se observan semejanzas con esa posición
metodología.

Van Fraassen, considera los problemas epistemológicos mas allá, no exclusivamente desde el
punto de vista del análisis de las relaciones lógicas y conceptuales (dimensión sintáctica y
semántica) sino tomando en cuenta lo denominado dimensión pragmática, que toma en cuenta
los usuarios o las circunstancias en las cuales se usan las expresiones.

Con Dilthey el sentido era contextual y la interpretación siempre se remite a la situación en la


que está el intérprete. El círculo hermenéutico tiene otra importante consecuencia, no existe
realmente punto de partido verdadero para el entendimiento, lo que significa que no es posible
concebir un entendimiento carente de presupuestos. Todo acto de entendimiento, de
“comprensión” tiene lugar en el interior de un determinado contexto u horizonte. Lo que es
igualmente valido para las explicaciones científicas, que siempre requieren un marco de
referencia. Así solo comprendemos solo por referencia a nuestra experiencia.

Van Fraassen considera inútil explicaciones sin tener en cuenta su contexto, ya que una
explicación puede ser perfectamente válida para un contexto y estar fuera de lugar en otro.

Lo que sostiene es que una pregunta, en primer lugar, siempre se refiere a un tópico y el tópico
será el explanandum. Y la propia suposición de que el explanandum es verdadero depende de
una cuestión contextual.

Por otro lado, van Fraaseen sostiene que puede haber distintas respuestas e incluso totalmente
distintas, a la misma pregunta de ¿Por qué? , toda validas, cada una en relación con un contexto,
lo cual no quiere decir que cualquier respuesta en cualquier contexto sea legítima. Es decir que
sólo puede haber explicaciones validas alternativas.

Indica que puede explicarse el hecho A a partir del hecho B o puede hacerlo al revés, explicar B
a partir de A, contradiciendo a Hempel respecto a que la explicación era unidireccional, es decir
que va de las leyes a las consecuencias y no al revés. Pero, en este caso, si uno acepta un
determinado contexto determinado, es perfectamente legítima una explicación y no lo es la otra.

Punto importante de van Fraassen, es que es completamente equivocado pensar que las
explicaciones constituyen uno de los objetivos esenciales de las ciencias, ya que una explicación
no puede ser juzgada como correcta o no sobre la base de las caract. que Hempel había tomado
en cuenta, relativizando así el concepto de explicación

A modo de conclusión:

Punto crítico son los conceptos de método y objetividad propios de la ciencia moderna.

Actualmente desde la epistemología comprensivista se destacan lo sig. Aportes de:


1) A.SCHÜTZ: la “comprensión” es la reconstrucción de las perspectivas que los
individuos tienen de la sociedad. la acción social es entendida como una vivencia guiada
por un plan o proyecto.la interpretación surge de los motivos del actor, pero el límite es la
imposibilidad de generalizar y predecir.
2) GADAMER: aplica el método de análisis de textos históricos y sostiene la naturaleza
histórica de la comprensión misma. Sostiene que hay una tensión entre la objetividad del
texto y la subjetividad del intérprete y la forma de resolver esa tensión es mediante la
fusión de horizontes, logra un acuerdo de ajuste de nuestros prejuicios .La etimología del
término “hermenéutica” significa “explicación” y se trata de explicar unos enunciados
analizándolos mediante otros enunciados .es pues el arte o la teoría de la interpretación.

Para él “la hermenéutica no constituye un método determinado que pudiera caracterizar


por ejemplo a un grupo de disciplinas científicas frente a las ciencias naturales, sino que
se refiere más bien a todo el ámbito de la comunicación infrahumana”

3) HABERMAS: destaca la capacidad de persuasión como estrategia para la dominación a


partir de la comprensión de las significaciones dadas en la acción comunicativa.
Comprensión: experiencia comunicativa que implica actitud reflexiva y la posibilidad no
solo de intercambios de mensajes, sino también para cambiar y formar actitudes. Así, la
hermenéutica se vincula con la retorica, con la argumentación de tipo informal. Sostiene
que “el gran legado de la retorica sigue influyendo en puntos decisivos en relación con la
nueva labor de interpretación de los textos”. retorica y hermenéutica son profundamente
afines ( por ej. La retorica de Melanchthon,teólogo alemán colaborador de M. Lutero y su
reforma , ejerció influencia determinante en la configuración del sistema escolar)
4) P. RICOEUR: Problematiza el intento de resolver la aporía central de la hermenéutica,
es decir, la alternativa entre explicación y comprensión, que a su juicio es infundada.
Buscara la complementariedad de las dos actitudes, dado que la objetivación del discurso
en la obra y el carácter estructural de la composición, agregando el distanciamiento
mediante la escritura, obliga a poner en tela de juicio la oposición recibida de Dilthey
entre “comprender “y “explicar”.

Según von Wright , es ilusorio creer que la verdad reside inequívocamente en una de esas dos
posiciones opuestas (explicacionista-comprensivista) sino que existe una confrontación de base
fundada en la elección de conceptos primitivos básicos para la argumentación en conjunto. Esta
elección es “existencial” consistiendo en la opción por un punto de vista no susceptible de
ulterior fundamento.

Sin embargo, se puede considerar desde Dilthey, que las ciencias del espíritu y, por ende, el
método de comprensión, son epistemológicamente anteriores a las de la naturaleza, a las que por
lo demás abarcan, pues toda ciencia natural es también un productor histórico.

Aún así la cuestión no está zanjada y sigue en pie como problema psicológico.
UNIDAD 6.

CORRIENTES EPISTEMOLOGICAS CONTEMPORANEAS (CAP. 7)

La epistemología del siglo XX: problemas fundamentales:

a) La concepción heredada y la perspectiva cientificista.

Uno de los problemas centrales de la epistemología es la naturaleza o estructura de las teorías


científicas.

Años 20, se consideraba a las teorías científicas como cálculos axiomáticos con los que se
interpreta parcialmente el material empírico por medio de reglas de correspondencia., posición
denominada por sus críticos CONCEPCION HEREDADA.

(LA "CONCEPCION HEREDADA" de la ciencia, impulsada sobre todo por los


patrocinadores del Cìrculo de Viena y el neopositivismo en general , sostenìa una concepcion
de la ciencia basada en el inductivismo, como mètodo cientìfico ùnico y universal para demarcar
el àmbito de la ciencia , de la no ciencia y la pesudociencia.

CONCEPCION HEREDADA, se llamò crìticamente a partir de los años 60 a esta POSICIÒN


TANTO POSITIVISTA, INDUCTIVISTA que empieza con Comte, que utiliza los elementos
tanto de la tradiciòn empirista como racionalista para reforzar la fe de la ciencia en su propia
validez exclusiva, de modo tan fuerte que da cuenta de la estructura de la ciencias
facticas,apoyàndose en esta fe, ,COMO A LA DE LOS DEDUCTIVISTAS.

En esencia, la "concepción heredada" es la que cree que la ciencia refleja la realidad


objetiva.Incluye la convicciòn de que los problemas del conocimiento se identifican (son una
sola y misma cosa ) con los de la ciencia

En ese sentido , de tomar la "tradiciòn" es que se la llama "heredada". pero es simplemente la


concepciòn del positivismo ,neopositivismo , cientificismo y hasta el falsacionismo popperiano .
FORO DE REPASO )
SUPPE: esta expresión se usa para referirse al a posición positivista, la “versión” del Circulo de
Viena, usada por Putnam en 1962 por primera vez.

Tb. a pcipios de los 20 , un grupo de científicos sociales conocidos luego como la “Escuela de
Frankfurt” (Horkheimer,Adorno y Marcuse y luego de la guerra, Haberas y otros ) trabajan en el
análisis del impacto de la ciencia en el pensamiento del siglo XX, con el interés centrado en el
modo en que la ciencia de finales del s.XIX y pcipios del XX, había logrado establecer
firmemente como “único medio” licito para conseguir un conocimiento cierto, de allí la
acusación de cientificismo para referirse a la “concepción heredada” .

El cientificismo incluye la convicción de que los problemas del conocimiento se identifican con
los de la ciencia. El positivismo, con Comte, utiliza los elementos tanto de la tradición empirista
como racionalista para reforzar la fe de la ciencia en su propia validez exclusiva, tanto para dar
cuenta de la estructura de las ciencias lácticas.

Los logros de pcipios del s XX, en el campo de las cs. Formales (Frege ,Russell , Hilbert)
generaron en los filósofos de las ciencias empíricas la idea de adoptar la axiomatización y esto
lo asumieron tanto los positivistas lógicos del circulo de Viena y de la Escuela de Berlín, como
los hipotético-deductivistas en sus distintas versiones.

Los metodòlogos de la época buscaron el “método científico “único y universal para demarcar el
ámbito de la ciencia, de la no ciencia y de la pseudociencia.

b) La historia de la ciencia

Ese desinterés por el origen y las contingencias históricas de las teorías se expresó en la frase
“No existe una lógica del descubrimiento”, al ser considerado el desarrollo de la ciencia como
un proceso de creciente acumulación de conocimientos.

Desde los años 50, comienza a reformularse el campo de la epistemología desde otras
perspectivas. El problema del metido deja de ser el centro de atención y se acentúa el interés por
la Historia de la ciencia., lo que revelaría que las ciencias fácticas en su evolución muestran una
estructura que difiere de lo reconocido por las concepciones inductivistas y falsacionista.

Los enfoques de Lakatos y Kuhn comparten el interés y Lakatos adopta resultados de Kuhn en la
elaboración de la metodología de los programas de investigación científica, intentando superar
las limitaciones del falsacionismo popperiano.

c) Piaget: psicología genética y epistemología

Siglo XX, PIAGET, elabora un capitulo distinto de la metaciencia, desarrollado por la


epistemología genética.
Sus trabajos de psicología genética y de epistemología buscan una respuesta ala pregunta
fundamental sobre la construcción del conocimiento. Teoría llamada EPISTEMOLOGIA
Genética, porque estudia el origen y desarrollo de las capacidades cognitivas debe su base
orgánica, biológica, genética, describiendo el curso del desarrollo intelectual desde la fase del
recién nacido, donde predominan los mecanismo reflejos, hasta la etapa adulta, caracterizada por
procesos conscientes de comportamiento regulado.

En el desarrollo genético del individuo se identifican y diferencias periodos del desarrollo


intelectual, tales como el sensorio-motriz, el de operaciones concretas y el de operaciones
formales.

Considera al pensamiento y a la inteligencia procesos cognitivos que tienen ase en lo orgánico –


biológico que va desarrollándose en forma paralela a la maduración y el crecimiento biológico.
La lógica del niño no solo se construye progresivamente siguiendo sus propias leyes, sino que,
se desarrolla a lo largo e la vida, pasando por etapas antes de alcanzar el nivel adulto. Su obra es
difundida por el mundo entero e inspira, aún hoy, trabajos en dominios muy variados,
(psicología, educación, epistemología, economia y derecho)

d) Tradición francesa: la historicidad de la ciencia

En la tradición francesa, la epistemología reconoce a la historia como ámbito de análisis


preferencial Bachelard, Cavailles, Koure, CAnguilhem y Foucault van más allá. Para ellos la
historicidad de la ciencia pone en evidencia la historia de la racionalidad. Si la epistemología es
el discurso normativo, es el lugar mismo de la verdad y de la construcción de la racionalidad.
Tal construcción no es ajena al poder, o sea a la constitución de las instituciones sociales que
regulan la vida de las personas.

La concepción epistemológica del POSITIVISMO LÓGICO

a) La historia del Positivismo lógico.

- OBJETIVOS

- PROGRAMA

- EL METODO DE VERIFICACION Y LAS PROPOSICIONES DE LA


METAFISICA

- LAS PROPUESTAS FISICALISTAS DE CARNAP Y DE NEURATH

OBJETIVO:
Objetivo de los positivistas lógicos: eliminar los pseudo-problemas, de cuestiones ilusorias
y de reflexiones sin objeto, ya que fuera del análisis de las proposiciones empíricas, de las
tautológicas y de los métodos deductivos, la filosofía no tiene otro objeto de estudio,
confinados a ser cuestiones puramente verbales desprovistas de sentido.

PROGRAMA

La “concepción heredada”, es un producto del POSITIVISMO LOGICO, escuela surgida del


Circulo de Viena y de la Escuela de REichenbach de Berlín, compuestas por científicos y
matemáticos.

En sus comienzos el Circulo de Viena era centro de reunión antes que movimiento
organizado ,pero fue tomando características de un partido político, al publicar en 1929 , un
manifiesto titulado “EL PUNTO DE VISTA CIENTIFICODEL CIRCULO DE VIENA” ,
escrito por CARNAP, NERATH Y HAHN, Allí reconocen como precursores a
Hume ,Comte ,Mill, Avenarius y Mach, Helmohltz, Reinman,Poincare,Enrique¡ues,
Deum ,Boltzmann y Einstein.

Reconocen parcialmente el aporte de estos autores, especialmente en el campo sociológico y


moral.

1919- primer congreso organizado en Praga y entre 1930 y 1940 varios congresos en Konigsber,
Copenhague, Praga, Paris y Cambidge. , que difundieron sus lemas por los principales centros
académicos mundiales y captar el interés de importantes científicos.

Así tomaron contacto con científicos en Escandinavia y con la escuela de los empiristas de
Upsala (grupo holandés) filósofos norteamericanos (Nagel y ots.) y británicos. , consolidando
también alianzas con lógicos polacos, entre ellos Tarki, que ejerció especial influencia en sus
miembros, sobre todo en Carnap.

Principal medio de publicación fue la REVISTA “ANALEN DER PHILOSOPHIE” O


“ERKENNTNIS”, dirigidas por Carnap y Reichenbach, diseminando por el mundo las ideas del
círculo.

Otros aportes aparecieron en recopilación de monografías llamada “Ciencia Unificada”, junto


colección de libros dirigida por Schlick.

Los positivistas vieneses propusieron a la filosofía avanzar “sobre la segura senda de la


ciencia” integrando la física y la biología en una ciencia unificada, empírica e inductiva,
que este en condiciones de legitimar sus métodos mediante la observación.
Mach: fuente principal de inspiración por la importancia que otorgó a la observación así como
su compromiso con el fenomenalismo, que reducía todas las ciencias al estudio de las
sensaciones.

La concepción heredada, buscaba un medio para evitar la introducción de entidades


metafísicas en las ciencias.

La expresión “positivismo lógico” era por la incorporación de los descubrimientos de la lógica


contemporánea, especialmente el simbolismo lógico de Frege, Peano y Russell.

Dividían a las proposiciones significativas en dos tipos:

Las proposiciones formales, como las de la logia y matemática pura (que solo son
tautológicas y las proposiciones facticas (verificables empíricamente), por lo que si una
proposición no es una verdad o falsedad formal o no puede someterse a prueba
experimental entonces carece de sentido.

EL METODO DE VERIFICACION Y LAS PROPOSICIONES DE LA METAFISICA

Como Hume o Kant, los positivistas lógicos advierten la imposibilidad de un conocimiento más
allá de los límites de la experiencia sensible, pero lo original en ellos es que esta imposibilidad
no afecta a lo que se puede conocer sino a lo que se puede decir. Distinguiendo entre términos
observacionales y teóricos, permiten el uso de estos últimos solo cuando tengan reglas de
correspondencia que permitan dar una definición fenoménica.

La famosa formula, donde el sentido de una proposición consiste en el método de su


verificación, esta dirigida contra los sistemas metafísicos y casi la totalidad de la historia de la
filosofía, lo cual genero grandes dificultades a sus propulsores para afrontar las criticas.

Esta prescripción no significa que una proposición tiene sentido desde el momento en que es
técnicamente posible su verificación empírica, sino que se trataría de que “en principio” es
posible su verificación.

Sin embargo es difícil explicar esta condición, ya que es necesario determinar en qué momento
el proceso de verificación esta terminado o cuales son las operaciones cognitivas que no
necesitan mas argumentación ara ser consideradas definitivas.

Los positivistas lógicos, buscaron un punto de partida absoluto, epistemológico, surgiendo el


tema de las proposiciones primeras o protocolares, que constituyen las descripciones inmediatas
de las sensaciones. Desde el lenguaje observacional o protocolario sería un lenguaje de los datos
sensoriales. El análisis lógico condujo al resultado negativo de que las “proposiciones del a
metafísica son totalmente carentes de sentido” por contener pseudoproposiciones y no por tener
proposiciones falsas o contradictorias.

Así una proposición tiene significado cuando se han fijado sus relaciones de derivación de
proposiciones protocolares y de modo similar, una palabra solo tiene significado cuando las
proposiciones en las que puede aparecer pueden retrotraerse a proposiciones protocolares.

Para que una palabra (a) tenga significado es necesario:

1. que las notas empíricas de “a” sean conocidas

2. que haya sido estipulado de que proposiciones protocolares es derivable “P (a)”

3. que las condiciones de verdad para “P(a)” hayan sido establecidas

4. que el método de verificación de “P(a)” sea conocido.

Muchos términos metafísicos no satisfacen estos requisitos, por lo que para Carnal, son carentes
de significado las palabras “Dios” “lo incondicionado”, lo “infinito”, porque no pueden
especificarse condiciones empíricas de verdad por lo que las frases construidas con esas palabras
constituyen pseudoproposiciones.

Su peso en el curso de la historia de la filosofía, es porque “sirven para la expresión de una


actitud emotiva ante la vida”.

LAS PROPUESTAS FISICALISTAS DE CARNAP Y DE NEURATH

La propuesta positivista consistió en afirmar que el lenguaje observacional o protocolar deberá


ser un lenguaje fisicalista en el que se halara de cosas materiales, a las que se adscribieran
propiedades observables. Así el lenguaje de la física, se considero universal, ya que todo
lenguaje científico debería traducirse a la física para ser significativo, incluso el de la psicología,
donde, según Carnap, “toda proposición puede formularse en lenguaje fisicalista ya que todas
las proposiciones de psicología describen acontecimientos físicos, a saber, la conducta física de
los humanos y de otros animales”.

En este contexto, el termino “física” alude a la ciencia caracterizada por reducir todo concepto a
relaciones de magnitud, a una sistemática atribución de números a puntos espacio-temporales.

Neurath, destacado fisicalista, buscando el modo en que las distintas ciencias se articulan con la
ciencia unificada, busco la definición de las reglas de una sociología empírica que cumpliera los
requisitos de un lenguaje unificado.

Rechaza así todo tipo de dualismo, que es un resabio del a metafísica identificable en la división
propuesta por dilthey, entre cs. De la naturaleza y del espíritu: ambas pueden ser
coceptualizadas en un lenguaje fisicalista.
Trata de formular una sociología libre de metafísica puesto que, así como la conducta animal
puede estudiarse de modo análogo a las piedras o las maquinas, así pueden estudiarse las
conductas en grupos humanos. No se trata de trasvolar las leyes de la física a los seres vivos o
los grupos humanos, por el contrario el sociólogo será libre de encontrar sus propias leyes, solo
que ellas deberán hablar de predicciones que se ubican en el espacio y el tiempo.

Las predicciones se expresaran en el “lenguaje unificado del fisicalismo”, con ayuda de las leyes
que formule el “conductismo social”. Las ciencias sociales deben librarse de conceptos como la
“conciencia “para ocuparse de las reglas del comportamiento, establecer diferencias
mensurables entre distintas formas de comportamiento humano.

Para Heuath , el marxismo es la teoría que contiene en mayor grado elementos de la sociología
empírica pues los miembros del Circulo de Viena, eran cercanos a esa teoría , perola integración
reduccionista que propone, responde a las aspiraciones centrales del programa del positivismo
lógico mas que al ideario marxista.

El fisicalismo es citado, como el más claro ejemplo de reduccionismo cientificista, que consiste
en la identificación de todo pensamiento racional con el pensamiento científico, así como la
posterior asimilación entre el pensamiento científico y las teorías físico-naturales, lo conduciría
a una forma de dogmatismo autoinmune a la crítica.

También fue considerado una expresión clara del neutralismo ético-político, aun cuando trata de
asimilar el marxismo a su propuesta.

A pesar del fuerte apoyo que recibió de los positivistas lógicos, en la práctica científica condujo
a grandes dificultades, ya que la historia de las ciencias registró su fracaso o estancamiento del
programa fisicalista o cualquier otra forma de lenguaje unificado.

Sobre el pcipio de verificabilidad, tb se derrumbo la ilusión dogmatica de encontrar un criterio


para distinguir entre ciencia y no ciencia.

En rasgos generales, el positivismo lógico, como filosofía de la ciencia, busco elucidar la “forma
lógica “de las afirmaciones científicas antes que su contenido. Su interés fue clarificar la
estructura lógica de “todas” las posibles afirmaciones pretendidas leyes científicas más que de
cualquier ley particular, entendiendo el interés del filósofo en la construcción de adecuadas
representaciones formales que proporcionen inmunidad frente a los altibajos de las teorías
científicas.

PERSPECTIVAS FALSACIONISTAS:

POPPER:
Para él el método científico no es la inducción, la ciencia no pretende establecer verdades
definitivas y el conocimiento empírico no es inductivo sino por ensayo y error.

Aprendemos de la experiencia por conjeturas y refutaciones. Para enfrentar problemas


conjeturamos libremente hipótesis generales sobre el mundo, cuanto más audaces mejor.

Segundo, sometemos las hipótesis a pruebas rigurosas.

De las hipótesis y el conocimiento básico inferimos consecuencias observacionales contrastables


por la experiencia. Si la hipótesis no pasa el test es refutada y si ocurre lo que se deduce de la
hipótesis, esta sobrevive provisionalmente. Pruebas ulteriores, pueden FALSARLA.

El esquema de POPPER es:

P1----TT---EE---p2

Intenta mostrar la secuencia que presenta el progreso científico.frente a un problema se elaboran


teorías tentativas. En los procesos de puesta a prueba puede haber eliminación de errores y
reformulación del problema que dará lugar a nuevas teorías tentativas.

Así el método científico es un método de contrastación de hipótesis, pero no pretende verificar


sus hipótesis, sino REFUTARLAS.

En esto consiste el racionalismo crítico, en tratar de demostrar que estamos equivocados, usar
toda la lógica deductiva, y por tanto no hay más inferencia posible en la contrastación que el
modus tollens, la refutación.

La lógica solo permite refutar hipótesis, nunca confirmarlas, ni total ni parcialmente.

Saber que hay hipótesis falsas acerca del mundo es saber algo.

Es una idea contraintuitiva, y cuesta aceptarla, porque equivaldría a admitir que la ciencia solo
puede aspirar a una “docta ignorantia”. Es difícil aceptar que las hipótesis exitosas no dicen algo
positivo acerca del mundo, por lo que Popper admite la noción de “grado de corroboración “o
medida C

Esta medida tiene como base el apoyo evidencial, no probabilístico.

Se deben perseguir hipótesis mejor corroboradas, no más probables, aunque el índice de


corroboraciones no es un índice de aptitud para salir airoso en contrastaciones futuras. A pesar
de ello, la corroboración es una guía para la acción.

Insistió en que mediante contrastaciones severas los científicos llevan a cabo “un proceso
racional de aproximación a la verdad “y los experimentos cruciales desempeñan un papel
fundamental en el progreso de la ciencia.
Fue uno de los 1eros en llamar la atención sobre la carga teórica de los enunciados
observacionales.

En la contrastación reconoce el carácter teórico e hipotético de la base empírica, porque “todo


lenguaje está impregnado de teoría”, lo que debilitaría la fuerza de la falsacion.los enunciados
observacionales dependen de la teoría, son falibles y su aceptación es provisoria, lo que
concluye que las teorías no se pueden falsar de modo concluyente.

Popper, consiente de estas dificultades elaboro una teoría más complicada que la simple
falsacion, pasando del principio “monoteorico” de 1935 al “MULTITEORICO”.

MODELO MULTITEORICO: La falsacion de una teoría se realiza mediante la confrontación


bipolar teoría-experiencia. En una confrontación entre dos teorías rivales y la experiencia.

Propone la distinción entre “mundos o universos”.

1- El mundo de los objetos físicos o de los estados físico,

2- El mundo de los estados de conciencia o mentales o de las disposiciones para actuar

3- El mundo de los contenidos objetivos del pensamiento, especialmente el científico, el


poético y del arte.

Este es el MUNDO DE LA CIENCIA.

Toma distancia de quienes consideran los enunciados científicos solo enunciados lingüísticos.
Esto va ligado a su propuesta de una EPISTEMOLOGIA SIN SUJETO.

Posición ontológica realista: la realidad existe independientemente de las capacidades humanas


de conocerla, aunque esta es una forma de “realismo crítico”

Cualquier forma de solipsismo (el mundo es una construcción de mi mente) es irrefutable y esto
es un vicio no un merito.

El conoc.cientifico es “intersubjetivo”: la objetividad de la ciencia no se funda en un lenguaje


fisicalista ni en una base empírica inconmovible .la ciencia es un objeto social y surge a partir de
la cooperación y la competición institucionalizada por los científicos.

LAKATOS
Desarrollo la idea de los “programas de investigación” en un intento por mejorar el
falsacionismo popperiano y superar las criticas.

Toma como punto de partida de su trabajo las críticas de Kuhn, señalando que se ataca a un
Popper que no es el real sino el que construyeron sus divulgadores,-

Distingue entre Popper 1 y Popper 2. El primero sería exponente del falsacionismo ingenuo que
se revela en obras como “La miseria del historicismo” y “La sociedad abierta y sus enemigos”.

En sus textos posteriores encuentra un falsacionismo refinado que es una propuesta del propio
Lakatos.

La caract. definitoria de un programa de investigación es su núcleo central, el que está formado


por hipótesis teóricas muy generales que constituyen la base del programa.

(por ej. el núcleo central del marxismo es el supuesto de que hay lucha de clases)

Este núcleo duro está protegido de la falsacion mediante un “cinturón protector” de hipótesis
auxiliares, supuestos subyacentes a las condiciones iniciales y enunciados observacionales.

Heurística: sugerencias sobre cómo manejar los enigmas científicos, es un componente básico
del programa de investigación, es una “poderosa maquinaria de resolución de problemas” que
con la ayuda de técnicas matematices, disuelve las anomalías y las convierte en evidencia
positiva.

Todos los programas de investigación cuentan de una heurística positiva y otra negativa.

La heurística negativa, consiste en la exigencia de que durante el desarrollo del programa el


núcleo duro no se modifique. Cualquier científico que se apartara de se núcleo, se apartara del
programa de investigación mismo.

La heurística positiva, indica a los científicos qué deben hacer, es más difícil de describir que la
negativa. “consiste en un conjunto parcialmente articulado de sugerencias o indicaciones sobre
cómo cambiar y desarrollar las “variantes refutables” del programa de investigación, como
modificar, refinar el cinturón protector “refutable”.

El desarrollo de un prog. de investig.supone incorporar hipótesis auxiliares y desarrollo de


técnicas matemáticas y experimentales idóneas.

Muchos ejemplos muestran que siempre puede desviarse la falsacion hacia otra parte de la
compleja red de supuestos.

Los investigadores no solo pueden construir escudos protectores contra las anomalías sino
también ignorar los casos que refutan la teoría principal. Dirá que son fenómenos que no vale la
pena estudiar.
La heurística positiva, puede prescindir de la contrastación empírica mientras el programa de
inv. no haya hecho progresos claros. , los primeros trabajos se hacen sin prestar atención o a
pesar de las falsaciones, dándole la oportunidad al programa a mostrar su potencia.

Se espera que el programa tenga algunos éxitos que determinan “el carácter progresivo”

Cuando no puede predecir fenómenos nuevos durante mucho tiempo, se dice que el programa se
torna “torna degenerativo”.

(ej. a lo largo de la edad media el sist. Geocéntrico, no pudo predecir fenómenos nuevos)

Lakatos rechaza todo tipo de relativismo, llegado el momento de justificar racionalmente el


cambio de teorías. Si no hay un criterio superior al de la propia comunidad de científicos para
cambiar de una teoría a otra, entonces “no hay forma de juzgar a una teoría a no ser evaluando el
numero, la fe y la energía vocal de sus defensores”.

En estos casos, la vedad radica en la fuerza, el cambio científico se convierte en asunto de la


“psicología de masas” y el progreso científico consiste en “subirse al carro”

A falta de criterios racionales, el cambio de teorías científicas, resulta equiparable a la


conversión religiosa.

Para Larkatos, la ciencia progresa a través de la competencia entre programas de investigación.


Un programa es mejor que otro si es más progresista, en la medida que lleva a nuevas
predicciones satisfactorias.

Rasgo común entre inductivistas y falsacionistas es el esfuerzo por encontrar un criterio


universal y ahistorico para juzgar los meritos entre teorías rivales.

Un inductivista toma como criterio universal el grado de apoyo inductivo que recibe una teoría
de unos hechos aceptados y el falsacionista basa su criterio en el grado de falsabilidad de teorías
no falsadas.

LA RUPTURA: DEL RACIONALISMO DE JUSTIFICACION AL ANALISIS DE LA


HISTORIA DE LA CIENCIA:

KUHN
Una dura transición llevo de la “concepción heredada” a la” nueva epistemología” iniciada por T
Kuhn. Fue un cambio radical en la forma de concebir “la naturaleza de la epistemología” y una
“visión diferente de la ciencia empírica”.

El verificacionismo y el falsacionismo, tienen una visión común de la ciencia:

1) se preserva la concepción como una empresa racional

2) se comparte la visión de la racionalidad entendida como presencia central del algoritmo


lógico en el contexto teórico

3) es común la convicción de que el ámbito específicamente científico es el contexto de


justificación y no el de descubrimiento

4) ambas corrientes coinciden en la visión axiomática de la ciencia

5) comparten el punto de vista según el cual la justificación de una teoría es su remisión a una
base empírica “externa e independiente de ella”, que funciona como un tribunal supremo de
legitimación

6) el conoc. Científico, tiene que ver con la búsqueda de la verdad, por lo que en apreciable
medida, la tarea epistemológica en esta tradición está asociada a los criterios metodológicos para
diferenciar entre enunciados verdaderos y falsos

Esta común visón explica cómo importantes epistemólogos, como Nagel y Hempel, dejan el
confirmacionismo inductivo del empirismo lógico para adoptar el método hipotético-deductivo.

A partir de Kuhn la imagen de ciencia empírica se transforma:

1) Las teorías dejan de ser un ejemplo de racionalidad objetiva para convertirse en un


consenso racional tentativo en la comunidad científica.

2) Los hechos, lejos de ser referentes “externos” de justificación ,son definidos dentro del
contexto teórico al que “pertenecen”

3) Las decisiones sobre cómo tratar la dualidad teórico-observacional no pueden


resolverse en términos lógico-algorítmicos.

4) Se abandona la concepción popperiana de la ciencia como “proceso de aproximación


progresiva de la verdad”, denominada “tesis de verosimilitud”
El giro epistemológico es nítido: la misión de la epistemología ya no es el análisis de los modos
de justificación de las teorías científicas, sino el examen del “PROCESO HISTORICO” del
conocimiento científico.

Es una cuestión de prioridades: el tema de la estructura formal de las teorías científicas no es ya


reconocido como “central” por la nueva epistemología. Al concebir la ciencia como una
actividad dinámica con elementos histórico-sociales decisivos, consideraban que el proyecto
mismo de construir una lógica de la ciencia, incorporando como central la reconstrucción formal
de teorías, estuvo inevitablemente condenado al fracaso.

Por tanto, la nueva epistemología proponía como entidades en evolución: el poderoso


instrumento de la lógica de Principia Mathematica es reemplazado por la historia de la ciencia.

EL PENSAMIENTO DE KUHN EN PERSPECTIVA:

Si bien las criticas de Hanson y Toulmin anticiparon un cambio, el surgimiento de una


orientación epistemológica nueva e incompatible con la empirista lógica-popperiana- comienza
realmente con la publicación en 1962 de la obra “La estructura de las revoluciones científicas”
de T.Kuhn.

Su tema central es el problema de la naturaleza del “cambio científico”.

Identifica dos modalidades de producción científica que se desarrollan históricamente:

1) Modo NORMAL, entendiendo por tal la forma como procede la mayor parte del tiempo
la ciencia

2) Modo NO-NORMAL (también llamado “extraordinario o “revolucionario” )

En las etapas de ciencia NORMAL los científicos comparten presupuestos de índole teórica y
metodológica que les permiten dedicarse a la tarea científica por excelencia: la “resolución de
enigmas” consistente en perfeccionar la aplicación del aparato teórico al ámbito de la
experiencia y luego, ajustar la base teórica. Se busca establecer nuevas aplicaciones a nuevos
fenómenos y formas específicas, pero no se cuestionan los supuestos, dado que éstos guían la
investigación.

Sin embargo, en esta perspectiva, no siempre la ciencia actúa así, determinados enigmas tienen
que ver con la presencia de “anomalías”, experiencias que se resisten a subsumirse en el aparato
teórico. Cuando estas anomalías son fuertemente impenetrables a la resolución, al volverse los
científicos escépticos de la posibilidad “efectiva” de solución, sobreviene una CRISIS.
Desencadenada esta crisis, se cuestionan los “supuestos-guía” y se comienzan a discutir
fundamentos .con el tiempo, habiéndose organizado nuevos supuestos en torno a propuestas
alternativas, la nueva perspectiva es “adoptada” por la comunidad científica de modo que los
nuevos supuestos reemplazan a los viejos en tanto guías para la investigación, se ha consumado
una “resolución científica”, que dará inicio a un nuevo periodo de ciencia normal.

Grandes revoluciones están asociadas a grandes científicos: COPERNICO- DARWIN –


EINSTEIN.

No existe lógica que “regule “la alternancia homogénea de modos normales y revolucionarios.
La pérdida de confianza en los supuestos, la ausencia de nuevas alternativas o de una que
“triunfe” sobre otras, puede resultar la perduración del programa que entro en crisis.

EL CONCEPTO CENTRAL DE LA NUEVA CONCEPCION DE LA CIENCIA, ES LA


NOCION DE PARADIGMA: etimológicamente, es algo que sirve de “modelo” para otros
casos del mismo tipo, acepción usada en la vida cotidiana. Pero la noción de PARADIGMA de
Kuhn no es univoca ni precisa.

La acepción principal supone entender al paradigma como el CONJUNTO DE SUPUESTOS


COMPARTIDOS POR UNA COMUNIDAD CIENTIFICA QUE GUIAN LA
INVESTIGACION NORMAL.

La ciencia normal procede DENTRO de un PARADIGMA y la revolución científica es el


PASO DE UN PARADIGMA A OTRO.

“LAS REVOLUCIONES CIENTIFICAS SON… AQUELLOS EPISODIOS DE


DESARROLLO NO ACUMULATIVO EN LOS QUE UN VIEJO PARADIGMA ES
SUSTITUIDO TOTAL O PARCIALMENTE POR OTRO DISTINTO INCOMPATIBLE CON
EL “

La mayoría de las críticas a su concepción se relacionaron a la equivocidad y vaguedad de esta


noción.

En un primer momento un paradigma estaba integrado por gran cantidad de componentes


heterogéneos: leyes, teorías, modelos, patrones, criterios, métodos, intuiciones, convicciones y
prejuicios.

Posteriormente en “Segundas reflexiones acerca de los paradigmas”, intento dotar al término de


mayor precisión: distinguió dos sentidos principales, el primero es global y el segundo concreto
y especifico:

1) El paradigma como MATRIZ DISCIPLINAR: Es característico de la ciencia normal el


ser realizada por una comunidad científica que comparte un vasto cuerpo de creencias,
valores y técnicas. Es decir que la ciencia normal es desarrollada por comunidades que
comparten una MATRIZ DISCIPLINAR COMUN, que se adquiere implícitamente a
través del proceso de convertirse en científico. Uno de los elementos principales de la
matriz son las generalizaciones simbólicas (leyes) entendidas como formas abstractas
desprovistas de significado y aplicación empírica. A ello se agregan 3 elementos:
modelos ,valores y “principios metafísicos”

2) El paradigma como EJEMPLAR. La parte de la matriz disciplinar que puede ser


explícitamente formulada está constituida por los ejemplares, que son componentes
específicos de la matriz. Sentido más cercano a “modelo” asociada a la etimología de la
palabra, porque los ejemplares son aplicaciones empíricas especificas del aparato formal
que sirven de modelo-guía, soluciones a problemas concretos “aceptados” por la
comunidad científica como modelos. Es decir, una teoría se propone acompañada de
diversos ejemplares, que se presentan como modelos de aplicación de la teoría a los
fenómenos. A través de estos ejemplares (al menos parcialmente) se cargan de contenido
empírico los términos de las generalizaciones que constituyen el formalismo abstracto de
la matriz. Kuhn sostuvo que los ejemplares desempeñan en las ciencias el papel que la
concepción heredada atribuía a las reglas de correspondencia.

Afirmo también que la expresión “matriz disciplinar” debía sustituir a la expresión “paradigma”
por ser aquella el conjunto de supuestos compartidos por los miembros de la comunidad
científica y que esa expresión intento referirse a lo que tradicionalmente se ha denominado
TEORIA, que prefiere no usar porque los científicos la utilizan de un modo más limitado en
naturaleza y alcance.

La ciencia normal es la ciencia practicada por una comunidad científica que posee en común una
matriz disciplinar basada en un stock de ejemplares compartidos, o bien, las teorías son
generalizaciones simbólicas empíricamente interpretada por los ejemplares.

Si bien el desarrollo global de la historia de las ciencias es un proceso de rupturas (cada


revolución lo es) la ciencia normal es, internamente, una empresa altamente acumulativa. Recién
la insatisfacción por la creciente esterilidad resolutiva de una matriz disciplinar genera la
revolución que entroniza una “nueva” matriz disciplinar. El cambio revolucionario que se
produce como consecuencia de la aceptación de una nueva matriz implica para la ciencia un
radical cambio perceptual.

Dos observadores que contemplan los mismos hechos desde matrices disciplinares diferentes,
VEN “cosas diferentes, no solo porq2ue los datos que cada uno recoge son distintos según la
matriz disciplinar en la que trabaja, sino porque tales datos se expresan en un lenguaje científico,
de modo que el significado de las expresiones es diferente en las distintas matrices disciplinares.
(Ej. “masa” no significaría lo mismo para Newton y para Einstein)

Esto lleva a la CUESTION DE LA INCONMENSURABILIDAD de las teorías.

Si una teoría suplanta a otra, ambas no pueden ser lógicamente compatibles. En realidad, como
consecuencia de la profunda diferencia entre sus estructuras conceptuales, son
inconmensurables, es decir INCOMPARABLES.
Se le han formulado a partir de esta teoría, numerosas críticas:

1) Es dudoso que la ciencia normal se dé realmente y de la manera persistente que le


atribuye Kuhn (Toulmin=

2) La distinción entre ciencia normal e investigación extraordinaria retiene genuino


interés, pero no es aplicable adecuadamente a todas las ciencias ( Popper)

3) La descripción del “científico normal” es la de un sumiso y lamentable amanuense sin


espíritu crítico que no pone nunca en cuestión la “doctrina “dominante (Popper)

4) La idea de que el conflicto revolucionario entre matrices disciplinares


inconmensurables no puede resolverse mediante argumentación lógica convierte a la
ciencia en una empresa irracional y a la aceptación de teorías en una empresa subjetiva
( Scheffler)

5) Existe una contradicción entre la tesis de inconmensurabilidad y la de incompatibilidad


de teorías rivales. Si los paradigmas son incomparables, no se comprende cómo puede
haber competencia entre ellos. Si la doctrina bíblica es incomparable con la teoría
darwiniana entonces ambas pueden coexistir en paz ( Watkins)

6) El hecho de que los datos observacionales sean relativos a una matriz disciplinar deja a
la ciencia desprovista de base fáctica objetiva. Si la matriz configura los datos, el mundo
empírico no puede “controlar” las afirmaciones de la ciencia (Scheffler)

7) Es indemostrable la tesis kuhniana según la cual todo cambio de matriz disciplinar


origina un cambio en el significado de los términos básicos utilizados por la ciencia. No
existe en Kuhn un análisis del “concepto “ de significado ni formula criterios exactos para
constatar el “cambio” de significados (achistein ,Shapere, Scheffler)

Kuhn a raíz de estas críticas intento otorgar mayor precisión a su lenguaje y en otros opto por
“suavizar” lo rotundo de sus afirmaciones.

En la Posdata a “La estructura...” (1969) se declaro “convencido creyente del progreso


científico” pero firme en sostener que tal progreso no tiene que ver con la verdad sino con
una superior capacidad de una teoría sobre otra para resolver enigmas.

PREGUNTA RESPONDIDA POR PROFESOR EN FORO DE REPASO

En la teorìa de Kuhn , la competencia entre paradigmas en base a què criterio se resuelve?


porque me queda claro por lo leìdo en la pagina 245 del texto de Asti Vera, que no es por
argumentos racionales. Alli habla de argumentos como la "persuasiòn" y la "fe" , pero no
comprendo a què se refiere con esto. Quiere decir con èsto que los cientìficos deberìan digamos
ponerse de acuerdo a traves de la persuasiòn de unos sobre otros o por la fe en el nuevo
paradigma, para aceptarlo ?
Persuadirlos en que el paradigma incipiente tiene mayor capacidad de resolver aquellos
problemas (anomalias) que el viejo paradigma no podia resolver. Por ejemplo, piense en las
razones del electorado para elegir un candidato sobre otro... (Hay acaso argumentos lógicos, en
el sentido de fuertemente racionales, a la hora de votar? Piense cuánto de simpatía, persuasión,
idolatría, opera a la hora de elegir un "presidente" por ejemplo... Algo similar intenta postular
Kuhn con la elección entre los paradigmas rivales.

DIFERENCIAS ENTRE CONFIRMACIONISMO Y FALSACIONISMO (FORO de


REPASO)

En principio tanto el confirmacionismo como el refutacionismo o flasacionismo, son como


"versiones" del mètodo hipotetico-deductivo para poder hacer lo que consideran que no puede el
inductivismo estrecho, que es "verificar" las hipòtesis.

 para ambas teorìas no se pueden "verificar" (establecer la veracidad) de las hipòtesis


 para ambas si las consecuencias observacionales esperadas deducidas de la hipótesis no se
cumplen entonces la hipótesis queda refutada por Modus Tollens.
 si las consecuencias observacionales esperadas se cumplen entonces la hipótesis no queda verificada
(porque la falacia de afirmar el consecuente es inválida)

y a partir de ahì vienen las diferencias

Para el CONFIRMACIONISMO:

 en el caso de que las C.O. se cumplan ,si bien la H no queda verificada, se va confirmando
probabilísticamente. Cuanto más C.O. o casos favorables tenga una hipótesis entonces más
alto es el grado de probabilidad de que sea verdadera.
 Hempel acepta la inducción para confirmar probabilísticamente las hipótesis pero no
el descubrimiento de las hipótesis. Para Hempel las hipótesis no se descubren por observación pura
de los hechos y por inducción sino que se inventan creativamente para dar cuenta de los hechos
problemáticos

PARA EL REFUTACIONISMO O FALSACIONISMO:

 en el caso de que las C.O. se cumplan , la H no queda verificada,pero tampoco se confirma


probabilìsticamente, para Popper la hipótesis queda tan solo corroboradaprovisoriamente, es
decir, se la acepta provisionalmente como verdadera porque no ha podido probarse que sea
falsa. Pero ello no significa que sea verdadera, ni siquiera que sea probablemente verdadera. se la
corrobora provisoriamente hasta tanto es falsada. (y ahì vienen las caracterìsticas de falsabilidad,
grados y lo falsable y no falsable.
 Popper no acepta la inducción ni como método de descubrimiento ni como método de
justificación

esas serìan las diferencias sustanciales de ambas teorìas, què pasa cuando las
consecuencias observacionales se cumplen y el tema de la inducciòn.
Unidad 7- doc. de catedra CONTRATTI

: Planificación de la política de la ciencia: Posición de Bunge - Características de la política


científica argentina: Etapas - Aspectos éticos de la ciencia y la tecnología - Cientificismo y
anticientificismo - Ciencia básica, ciencia aplicada y tecnología –

POLITICA CIENTIFICA: PROBLEMAS Y PERSPECTIVAS- M.B.CONTRATTI

POLITICA CIENTIFICA: Conjunto de disposiciones gubernamentales destinadas a organizar el


potencial investigador de un país y orientarlo en su crecimiento y su aplicación en otras aéreas
donde los resultados de la investigación son necesarios para su desarrollo.

Este proceso es un ámbito de políticas públicas referido a la producción de conocimiento, su


comercialización, adaptación e incorporación al aparato productivo, configura un amplio espacio
en el que confluyen aspectos de diversas políticas (educativa, económica e industrial),
confiriéndole centralidad a esos aspectos y refuerza su naturaleza política.

Históricamente ha habido políticas públicas en este sentido, acercando o alejando a la ciencia y


la tecnología del centro de la escena política, dependiendo de los proyectos políticos
hegemónicos así como a la percepción de los científicos respecto de sus intereses.

LA PLANIFICACION DE LA POLICITA CIENTIFICA:

Esta planificación es la articulación de todas las disposiciones decididas por los gobiernos en el
área científica y tecnológica, de largo alcance, resultado del consenso de todas las fuerzas
políticas de un país, como único modo de alcanzar la estabilidad necesaria para el logro de los
objetivos propuestos.

El diseño de los planes de política científica se toman en cuenta distintas cuestiones que van de
lo general a lo especifico.

Algunos de los factores a tomar en cuenta en esos planes son, esquemáticamente

a) el monto total de la inversión en Investigación y Desarrollo. :es tendencia general que todos
los gastos de investigación estén unificados en los rubros de I + D .Su peso dentro del
presupuesto total de un país es una decisión política cuyo criterio se basa en las necesidades
relativas de todas las aéreas que debe cubrir el mismo y a la función que cumplen la ciencia y
tecnología como variables del desarrollo económico-social para un Estado determinado, por lo
que no se fija de modo uniforme en todos los países .Puede ser de un 3 % del PBI , o más o
menos.

b) la selección y valoración de los objetivos mayores: ciencia básica, desarrollo industrial,


servicios, etc.
c) selección de aéreas prioritarias científicas y tecnológicas, donde se debe tener en cuenta el
nivel de desarrollo a alcanzar y la formulación de prospectivas, la previsión de los avances cient.
y tecnol. y los cambios sociales.

d) la organización del sistema de investigación y la coordinación interinstitucional e


interdisciplinaria

e) control y evaluación de los planes implementados en relación con los resultados de la


producción cientif. y tecnol.

f) aplicación de los resultados de la investigación, transferencia de información hacia los


sectores productivos (innovación)

g) promoción y organización de las relaciones científicas internacionales

Estos factores no funcionan en forma puramente secuencial, sino que interaccionan creando vías
de ida y vuelta y generando mecanismos de condicionamiento mutuo.

Con relación al punto a) para realizar la distribución global del monto asignado en ciencia básica
o aplicada y tecnología, el estudio del presupuesto debe contemplar 1) los gastos de estructura y
funcionamiento, constituida por los centros de investigación y las universidades; mantenimiento
de institutos de investigación, crecimiento del potencial investigador en la creación de nuevas
entidades y aumento del personal, dotación de la investigación universitaria y renovación del
instrumental de alto costo. Para el mantenimiento del personal, no sebe superar el 70 % del
presupuesto total.

2) las cantidades
necesarias para la investigación básica, aplicada y desarrollo tecnol. y los ámbitos específicos
dentro de cada una de esas, que se deben calcular en función de la importancia que cada una
representa en el desarrollo del país. La política de I+D debe decidirse en función de la política
socioeconómica general, y nunca desconectada de esta ,por lo que la mayor parte de la
comunidad científica deberá adaptar sus objetivos a los grandes problemas
tecnológicos ,económicos y sociales de su pueblo ( Yúfera) , es decir no perseguir el incremento
de investigación científica como fin en sí mismo.

Según este autor, este proceso de selección diferencia a los países desarrollados y a los de menor
desarrollo, estando en los primeros la decisión de hacer coincidir la investigación científica con
el impacto y necesidades nacionales, en cambio en los países sin potencial económico y político
independiente ,las prioridades sectoriales son vagas ,poco fundamentadas y la importancia de la
investigación de I+D no se valora al seleccionarlas o lo que es peor , sus resultados se publican
en revistas científicas internacionales, siendo aprovechado por otros países de mayor desarrollo
económico.

Yufera destaca dos posiciones básicas: 1) dar preferencia a la ciencia básica libre, causa
primaria de la riqueza. y 2) la ciencia básica está a disposición de cualquiera en revistas
científicas, que debe ser aprovechada por países menos ricos para crear riqueza y los países ricos
debe en ir a la cabeza de la investigación básica.

Ej. EEUU y JAPON: aprovecharon primero la cs. Básica de Europa y luego desarrollaron la
propia.
POSICION DE BUNGE:

Físico y filosofo argentino MARIO BUNGE, en cambo denomina PRACTICISMO o


ANTICIENTIFICISMO a la posición por la cual los intereses nacionales, de naturaleza
económica y social pero no cultural y política deben orientar la política científica de un país.

Considera que esa perspectiva no da importancia a la función cultural que tiene la ciencia básica,
la de satisfacer la necesidad de saber y de promover la independencia intelectual de la población,
subordinándolos a los imperativos del desarrollo económico y la producción.

Se olvida así que la ciencia es precondición del desarrollo técnico. En consecuencia en los países
subdesarrollados siempre es ventajoso practicar la investigación básica, aunque deben darse
ciertas condiciones de orden cultural, que no son una barrera insalvable.

Considera que hacer ciencia básica es más fácil que hacer buena técnica en países
subdesarrollados, porque esta ultima requiere inversiones en producción que un país pobre no
tiene.

Por otro lado la innovación técnica depende de la demanda. , en cambio lo único que necesita la
investigación teórica, del tipo de las matemática pura, física químicas teóricas y ciencias
sociales teóricas, es lapiza, papel y bibliografía, pudiendo incluso hacerse estudios
experimentales, sin la utilización de equipos costosos.

La libertad de investigación debe estar contemplada en la planificación de políticas científicas,


lo cual es aceptado por los especialista, pero el peso que otorga y argumentación de Bunge no
son hoy compartidos, en general.

En el caso de la política científica orientada al desarrollo, como condición necesaria del


desarrollo interno, debe tenerse en cuenta su participación en el juego competitivo internacional.
La atención en esta etapa se dirige fundamentalmente al potencial investigador de las empresas,
a quienes el Estado debe apoyar y complementar, facilitándole por ej. estudios prospectivos
cuando sea necesario. En los países más desarrollados más del 60 % de la actividad de I+D se
realiza en las empresas, mientras que en países menos competitivos el Estado sigue
concentrando las políticas de desarrollo tecnológico, donde el problema radica en la necesidad
de compra de patentes o bien acuerdos de cooperación ,que en general son de naturaleza
científica y no tecnológica.

El beneficio de la compra de licencias de tecnología (patentes) está en que la calificación de la


compra este integrada o no a planes de I+D.

En Argentina: estudios del economista Chudnovsky y A. López hacen referencia a la cuestión


del “laissez faire”, que hace referencia en general a la política del “dejar hacer”, que en el caso
tecnológico, es la falta de regulación por el Estado de la adquisición de patentes y su
consiguiente ausencia de coordinación con los planes generales de desarrollo.
La presencia de “laizzez faire”en nuestro país se ha dado en casi todas las etapas histórico-
políticas, estrechamente vinculada a la política económica vigente y a la desatención de los
marcos regulatorios en muchos asuntos nacionales.

En la década del 90, no obstante, se adopto esta modalidad de modo deliberado en relación a la
política de ortodoxia liberal de la economía, que en general, considera que a la tecnología como
una variable exógena (o sea, que no juega en forma directa en el proceso de equilibrio
económico) y con otros supuestos vinculados a procesos de modernización de la economía.

Desde esta perspectiva política se considera que la apertura económica a las importaciones
estimularía una mejora en la eficiencia del sector productivo por la mayor competencia en el
mercado local, facilitaría el acceso a maquinaria y equipo de última generación. A su vez la
liberalización del régimen de inversión extranjera directa, promovería la incorporación y
difusión de los conocimiento técnicos y gerenciales de los inversores extranjeros.la
desregulación de los acuerdos de transferencia de tecnología seria otro estimulo al proceso de
modernización.

Pero estos presupuestos por sí solos no garantizan el cumplimento de las mejoras esperadas, es
necesario poner en marcha políticas de innovación complejas y continuadas en respuesta a la
demanda empresarial de modernización tecnológica, lo que no se ha cumplido porque las
iniciativas implementadas están desarticuladas, sin rumbo definido y no generan las sinergias
para constituir el propósito central de la política tecnológica.

Posteriormente , se han dado cambios contemplados en el Plan Plurianual de Ciencia y


Tecnología ( 1998-2000) ,donde comienza a instrumentarse un concepto llamado SISTEMA
NACIONAL DE INNOVACION ( SNI) con gran peso en las sucesivas políticas científico-
tecnológicas de la Argentina ( y en otros países tb) Este concepto involucra gran cantidad de
actores de diversa índole (Estado, empresas, mercado, sistema de investigación, universidades,
ámbitos sociales y otros) ,dejando atrás el “laissez faire”.

Si bien el Plan solo es una formulación que considera las condiciones concretas de su ejecución,
pone en evidencia la necesidad de desarrollar internamente la investigación científico-
tecnológica, (no dependiendo solamente de la inversión extranjera), y su vinculación con el
sector productivo, para lo cual la articulación del Estado con los distintos sectores es
imprescindible. Esto, represento un avance importante.

Otro objetivo a considerar en una planificación de I+D es la transferencia de los resultados de


estos planes a los sectores productivos. Dada la importancia en el desarrollo de las naciones de
las explotaciones agrícolas y la industria, es obligación del Estado aumentar el nivel tecnológico
de dichas aéreas, lo que se articula con la parte que le corresponde realizar al Estado y a la
empresa privada.

EEUU 70 % investig. se hace en empresas privadas, pero el Estado aporta el 50 %

JAPON el 75/80 % de los gastos totales se invierte en el sector privado y en Suiza casi toda la
investigación la hace la empresa.

En los países de menor desarrollo corresponde al Estado liderar los emprendimientos de I+D,
formalizando programas conjuntos entre empresas y universidades o centros de investigación o
dar incentivos fiscales a la investigación, subsidios, etc.
Un problema es que las empresas transnacionales no hacen labor de I+D en países poco
avanzados por lo que estos deben importar todas las tecnologías necesarias, lo que produce un
atraso en materia de innovación y desequilibrio fiscal.

Otro aspecto es la producción comercial de los resultados de la investigación, su transferencia


aplicada a la industria, considerado punto final del avance tecnológico: la “innovación”
tecnológica, donde se pone en juego otro aspecto de la financiación que representa grandes
inversiones de capital sin garantía de rentabilidad, ya que la producción está sujeta a
incertidumbre por cambios de ciclos económicos, desequilibrios financieros, variaciones de la
demanda internacional, etc. El “capital de riesgo” que se requiere, en general procede de
inversores específicos, entidades financieras ad hoc.

Ej.Agence National de Valorisation de la Recherche de Francia creada para promover el


aprovechamiento de la tecnología producida en los organismos públicos de investigación.

Otro aspecto crítico es la cantidad y la formación de científicos que lo lleva adelante. Lo ideal es
que el número de investigadores no implique un gasto mayor del 65 % del gasto global, porque
sino no queda nada para invertir en mantenimiento y materiales.

Escasez de investigadores es causa y efecto de bajo desarrollo, pero el número de personal


condiciona la política científica y esta a su vez determina la cantidad de científicos requerido de
acuerdo a los planes e I + D, condicionados por su parte, por la situación económica gral. Son
espirales de las que solo se sale por decisiones de alta política, que trascienden los intereses
sectoriales hacia el crecimiento de la nación.

Ciapuscio: la materia prima estratégica de la industria actualmente es la materia gris, que si se la


sabe movilizar, transforma todo. Pero esto presupone poner la investigación científica en el nivel
de grado universitario, con un nuevo modelo, acento en la actitud crítica e independiente del
estudiante, favoreciendo su capacidad de creatividad y cuestionamiento (o la enseñanza
repetitiva, el libro de texto y clase “magistral”)

Abeledo, parte de la noción e un sistema nacional de innovación, surgida de los encargados de


formular políticas científicas en los países industrializados, lo que da un marco útil para la
formulación de políticas tecnológicas, haciendo explicitas las muchas y variadas formas de
aportes necesarios para producir una economía innovadora y competitiva en los mercados
actuales, cada vez más globales.

INNOVACION: Abeledo dice que tiene dos significados: uno responde al “MODELO
LINEAL”, según el cual la relación ente investigación y desarrollo tecnológico sigue la
secuencia

Investigación básica----) investigación aplicada.------) desarrollo tecnológico.----) introducción


de nuevos productos al mercado

Este modelo considera que ya no responde a la realidad, porque surgió de innovaciones


excepcionales gestadas por descubrimientos científicos de gran importancia y notoriedad
(energía nuclear, el caucho, textiles sintéticos, radar, transistores y circuitos integrados, láser
antibiótico e ingeniería genética)
La inadecuación de este modelo se acentúa cuando se lo intenta aplicar a los procesos en el
ámbito latinoamericano, donde el desarrollo tecnológico no se impulsa por invenciones de gran
alcance, sino algunas innovaciones son “radicales”, para creación de productos o procesos
totalmente nuevos y la mayoría son “incrementales”, que representan una serie de pequeñas
mejoras en la forma de hace las cosas, para poder mantener la competitividad.

Por esto y dada la diversificación de las economías actuales, surge otro concepto
llamado MODELO INTERACTIVO , no causal , que responde a las variadas relaciones que se
establecen entre los principales actores que intervienen en el proceso de innovación. Muestra la
interacción entre los ámbitos de innovación de las empresas y los organismos de investigación,
que en nuestro país son CONICET, INTA, INTI, CNEA, etc.donde pueden darse las relaciones
en paralelo, no linealmente. Este modelo pone de relieve el papel de las empresas y las
demandas del mercado en el proceso de innovación.

El SISTEMA NACIONAL DE INNOVACION, se basa en este modelo de innovación, lo que


exige presar mucha atención al tema de los becarios y personal de investigación.

Características de la política científica argentina

Albornoz sostiene que respecto de las características de la política científica en la Argentina, a lo


largo del proceso de organización nacional y durante el presente siglo ,hasta nuestros días , ésta
política se fue desplazando desde el centro hacia la periferia de la escena política , pero,
inversamente, se especifico “hacia adentro” del sistema, lo cual alentó tendencias
autonomizantes y corporativas.

Es decir fue perdiendo esa centralidad no para integrarse a la acción para el desarrollo nacional,
sino para encerrarse en sí misma y separarse de otros ámbitos del progreso económico y social,
continuando aún con su papel rector en los procesos políticos de la ciencia y la tecnología.

ETAPAS:

En la 2da mitad del S XIX, en el período de organización nacional se desplego un gran interés
por la ciencia expresado en el marco de un proyecto político articulador del sistema económico,
industrial, educativo y la consolidación de la institución científica y su inserción en la escena
internacional. Figura destacada: Sarmiento, gran admirador del modelo tecnológico e
industrialista norteamericano en materia educativa y de investigación, a pesar de lo cual
no se logro un contenido científico alto.

En el periodo siguiente, en el s XX, en la etapa que Albornoz denomina


“INSTITUCIONALIZACION DE LA CIENCIA”, la actividad científica se intensifico, mejoro
su calidad y expandió a un conjunto más amplio de actores. Las políticas para la ciencia se
hicieron más específicas y apropiadas, perdiendo centralidad política. La política científica se
hizo asunto de científicos.

Figura sobresaliente: Bernardo HOUSSAY .científico con inquietudes por temas de la política
científica y que conocía todas las variables y problemas del proceso de institucionalización de la
cs. , salarios, institutos, becas, etc. Albornoz lo considera uno de los representantes más notorios
del positivismo argentino.
En la segunda posguerra se consolida definitivamente la institucionalización de la ciencia, ya
considerada en concomitancia con la tecnología y el desarrollo económico, caracterizada por la
preponderancia del paradigma científico de la “gran ciencia”, especialmente en la ciencia física.

Años 60, plano tecnológico, en el resto de América Latina, tb comienzan a tomar fuerza las
teorías del desarrollo centradas en la investigación aplicada y la problemática de la transferencia
de tecnología.

Desde lo político, se analizaron estas cuestiones bajo la oposición “centro-periferia” poniendo el


acento en las relaciones políticas de dominación ejercidas por los países centrales en detrimento
de los periféricos, pro su poder económico, político y militar posibilitado por su desarrollo
tecnológico.

Rasgo propio de este periodo: falta de claridad respecto de los vínculos entre ciencia y cambio
tecnológico, dada la estrecha relación que el desarrollo tecnológico tiene con la vida económica.
Problema no resuelto en lo conceptual ni en lo organizativo.

Años 70 a los 80, agotamiento de este modelo, provocado por las “nuevas tecnologías”, la de las
comunicaciones, de la información y la ingeniería genética, cuya característica principal es el
acercamiento entre la investigación básica, el desarrollo tecnológico y el aparato productivo.

El reacomodamiento en nuestro país tardo mucho en producirse. Recién avanzada la década del
90 y estos primeros años del S. XXI, se vieron frutos del trabajo de políticos, técnicos e
investigadores plasmados en proyectos y prospectivas que buscan armonizar el sistema
argentino de I+D, al concierto internacional y propiciar así el despegue político, social y
económico el país, y al mismo tiempo un lugar destacado en el progreso de las naciones.

Ej.: PLAN ESTRATEGICO NACIONAL DE CIENCIA, TECNOLOGIA E INNOVACION


“BICENTENARIO” 2006/2010. , cuyo programa establece:

1) alcanzar al final del periodo una inversión consolidada en CTI del 1 % del PBI, con
participación paritaria privada y estatal y un total de investigadores equivalentes a tiempo
completo de 2,3 % de la población económicamente activa (PEA)

2) desarrollar capacidades, recursos humanos y acciones de investigación e innovación en nueve


“áreas-problema-oportunidad” y en 19 “áreas temáticas prioritarias” (disciplinarias y
tecnológicas) en ambos casos en coordinación con los ministerios sectoriales

3) desarrollar el Sistema de información de Ciencia y Tecnología Argentino (SICyTAR)

4) evaluar externamente las instituciones nacionales del sistema nacional del CTI e impulsar
programas estratégicos de fortalecimiento institucional y cambio estructural

5) desarrollar y consolidar la federalización de la CTI a nivel de las provincias y regiones

6) promover actividades de divulgación y alfabetización en ciencia y tecnología

7) fortalecer los mecanismos de coordinación del sistema y de programación a corto, mediano y


largo plazo.
LA INVESTIGACION CIENTIFICO-TECNOLOGICA EN LA UNIVERSIDAD:

Las conclusiones de los analistas de políticas públicas en materia de I+D e innovación muestran
que el CONICET ha alterado sus objetivos iniciales (apoyar las investigaciones de los docentes
de las universidades y otras instituciones de investigación científica y técnica ) en la década del
70 , pasando los investigadores a tener una relación directa con el CONICET, por lo que el
organismo dedico mas a atender la carrera de investigador de su propio personal dejando el
objetivo de formación de investigadores en relación a las necesidades del país.

Abeledo, afirma que en los países industrializados hay igual proporción de investigadores en
empresas que en universidades e institutos privados, atribuyéndole a la Universidad la función
de crear atesorar y difundir el conocimiento científico, por la formación de profesionales como
de la prestación de servicios a la sociedad, o sea, debe asumir en todos los niveles el fenómeno
de las nuevas tecnologías.

Este ideal es difícil para los países latinoamericanos: el cambio tecnológico y la adaptación
educativa de los países industrializados, provoca ondas expansivas de innovaciones que abren
con los países periféricos brechas tecnológicas y problemas en la división internacional del
trabajo.

Otra consecuencia para estos países periféricos por la falta de protagonismo en la producción de
tecnología, es la dificultad de constituirse en culturas tecnológicas, existiendo un dualismo entre
empresas de tecnología de punta (multinacionales en gral.) y otras retrasadas y obsoletas, con
infrautilización de capacidad productiva, falta de incentivos en la inversión local y ausencia de
alternativas tecnológicas viables.

La universidad refleja estas tensiones políticas, económicas y sociales en las falsas dicotomías
“masividad” vs. “excelencia” o la incapacidad de adaptarse a la incertidumbre del cambio
tecnológico (que carreras deben priorizarse, cual es la educación real de las carreras.

UBA: pese a sus deficiencias estructurales, tiene importante tradición de investigación creativa
en ciencia: PREMIOS NOBEL: HOUSSEY, LELOIR, MILSTEIN:

ALBORNOZ: para alcanzar el nivel adecuado es necesario entender la investigación básica


como investigación estratégica, por la proximidad actual entre ciencia básica-industria.

En 2007 Ministerio de Economía ,lanzo el PLAN PRODUCTIVO NACIONAL ,que destaca un


concepto clave: la competitividad, como incremento sistemático del nivel de productividad de la
economía y la transformación de la estructura productiva, a nivel de sectores, cadenas de valor y
conglomerados productivos, que combinen un algo grado de innovación.los lineamientos
sectoriales promueven las actividades de “alto impacto potencial” :biotecnología,
nanotecnología y energías renovables, los “sectores innovadores” : agroalimentos farmo y
agroquímica, TICs ,tecnología nuclear, aeroespacial ,diseño y los “”sectores tradicionales” ,
coordinando interministerialmente con el PLAN ESTRATEGICO NACIONAL DE
CIENCIA,TECNOLOGIA E INNOVACION, EL PLAN ESTRATEGICO REGIONAL Y EL
PLAN NACIONAL DE INVERSION PUBLICA.
Pero lamentablemente en el plan no se indica mediante que mecanismos se van a relacionar las
actividades de investigación con el sector productivo y con el de financiamiento. Los institutos
de investigación no se han adecuado a los lineamientos establecidos por planes y proyectos
gubernamentales.

Otra condición es adecuar la universidad al dinamismo del cambio tecnológico, tornarla flexible
y cambiante, significa pedirle que no enseñe tanto conocimientos objetivos como que entrene
para la discusión de alternativas, opciones, riesgos y ganancias potenciales.

Es decir, la inercia de los organismos de investigación, el academicismo universitario nacional,


la desvinculación de ambos con las necesidades sociales y las empresas, sumados a la no
intervención del Estado en estas cuestiones, impiden realizar las modificaciones necesarias.

Ejemplos aislados: INVAP (sociedad del Estado perteneciente a Rio Negro) y la COMISION
NACIONAL DE ACTIVIDADES ESPACIALES (conae) con gran capacidad tecnológica en un
escenario con un perfil de escaso valor agregado.

Modelo neoliberal sumado a sectores progresistas sin pensamiento movilizador, hace que
vivamos del capital acumulado en las décadas del 50 y 60 ,prodigas en esfuerzos y resultados,
cuando se consolido la capacidad científica del país (CONICET, INTA ,INTI ,CNEA) y las
universidades tuvieron alto nivel investigador ,con núcleos impulsores de investigación
científica.

ETICA Y CIENCIA – M.B.CONTRATTI.

ASPECTOS ETICOS DE LA CIENCIA Y LA TECNOLOGIA:

Ética: es una disciplina filosófica que se ocupa de la justificación racional de las normas morales
que regulan la conducta humana individual y social.las normas morales nos dicen que es o no
correcto, tanto en relación con nosotros mismos como con los demás, expresan juicios morales
que, considerados en conjunto, suelen revelas aspectos importantes de la idiosincrasia de grupos
o pueblos, el ideal de vida buena que una comunidad comparte. En relación con la vida humana
se articulan conceptos como bueno, malo, correcto, incorrecto, justo, injusto, deber, obligación,
prohibición y otros que aluden a creencias de la gente sobre la conducta propia y ajena,
corporizado en las instituciones sobre lo que es moralmente aceptable.

El concepto vinculado con las cuestiones éticas de la ciencia y tecnología que más peso tiene
actualmente, dada su influencia sobre el destino de las sociedades y los hombres, es el de
RESPONSABILIDAD.

Su significado, como la gran mayoría de los conceptos filosóficos, es problemático, por lo que
se tomaran solo los referidos a la ética de la ciencia.
Primero, hay que distinguir un sentido causal y un sentido normativo de responsabilidad. El
elemento de intencionalidad es necesario para adjudicarle responsabilidad por la consecuencia
de una acción. Pueden realizarse especificaciones sobre las condiciones psicofísicas para ser
responsable de los actos, así como la distinción de los actos, correctos o incorrectos y su
correspondiente noción de responsabilidad.

Pero la responsabilidad moral no es solo atribuible a individuos sino también hay


responsabilidad colectiva. El concepto plantea interrogantes difíciles de solucionar pero su
empleo es exigido por las peculiares situaciones conflictivas de la vida contemporánea.

A raíz de los perjuicios en la salud y el medioambiente derivados de la implementación de las


teorías científicas y tecnológicas, nació en los últimos tiempos una disciplina filosófica llamada
ETICA APLICADA.

Esta sería la aplicación de la ética teórica, aquella que analiza filosóficamente las normas
morales a casos particulares, los métodos y procedimientos, si los hay que permitirían ”bajar” al
campo de los hecho concretos los principios teóricos, es materia de ardua discusión.

La ciencia y tecnología , fenómenos típicamente contemporáneos , han elevado la necesidad de


apelar a la ética para resguardar los derechos a la vida de los habitantes de la Tierra expuestos a
diversos peligros por el accionar de aquellas, en tanto productoras de conocimientos y las
practicas que ello implica.

Existen dentro de la ética aplicada, disciplinas que se ocupan de problemas específicos


ocasionados por la ciencia y la tecnología en ciertos sectores del mundo social y natural: ética
del medioambiente, ética metica o bioética, ética aplicada al tratamiento de animales y plantas,
etc.

Todos estos ámbitos no cuestionan directamente el conocimiento mismo o el accionar de la


ciencia o la tecnología como instituciones generadoras de saber, sino a los conflictos sociales y
morales que provoca su aplicación, aunque ambas perspectivas interaccionan en forma continúa
en los estudios de ética aplicada.

Otra distinción es la establecida entre:

* RESPONSABILIDAD RETROSPECTIVA: referida a los resultados de las acciones ya


realizadas (haber permitido que se arrojaran residuos industriales al Riachuelo)

*RESPONSABILIDAD PROSPECTIVA: exigencia de prever los posibles resultados de las


acciones, planteando a la ciencia y la tecnología la exigencia de conservar el planeta en buenas
condiciones para las generaciones venideras.

No todos concuerdan en que ciencia y tecnología sean responsables de los daños que ocurren en
el mundo actual, afirmándose que están mas allá de posibles objeciones de naturaleza ética
porque son buenas en sí mismas, probado por las múltiples formas de progreso con que han
beneficiado a la humanidad. Pero desde otras perspectivas se muestran los efectos adversos e
irreversibles que acompañan a los beneficios. Hasta las mismas técnicas y productos que
permiten salvar vidas ocasionan otros malestares y dolencias que a veces son daños
irreversibles.
Caso paradigmático: la energía nuclear, muestra rostro dual de ciencia y tecnología. Sus usos
beneficiosos son cuantiosos, pero catástrofes como la de Chernobyl, son suficientes para saber
que se está lejos del ideal.

Los estudios de riesgo del uso de este tipo de tecnología en general tiene que ver con
estadísticas, pero la gente quiere la seguridad de determinadas tecnologías, menos relacionada
con números como con modos de vida, esperanzas , temores ,creencias enraizadas en la
tradición y perspectivas sobre el futuro. El modelo de evaluación del riesgo, no debería ser algo
abstracto y determinable en forma cuantitativa o técnica solamente sino pensándolo desde una
dimensión integralmente humana, encara el control de la ciencia y la tecnología implica asumir
sobre todo la perspectiva ética y no meramente técnica de dicho control. La crítica,
indispensable en aspectos sociales como la vida democrática, se vuelva esencial también para
los problemas ambientales y tecnológicos.

Por otro lado, el proceso de producción de conocimiento científico y tecnológico involucra


cuestiones éticas que comprometen al científico en tanto ser humano con intereses, porta valores
personales, incurre en parcialidades y errores y otros rasgos conductuales comunes a todos.
Algunas normas exigidas a los científicos, en tantos individuos, son las exigibles a cualquier
profesional o trabajador (honestidad, veracidad, etc.) y otras están asociadas a la observación de
los pasos del método científico y las condiciones de su aplicación. Este nexo entre regla
metodológica y regla moral, exclusiva de la ciencia, hace pensar más que en códigos de
conducta o normas a las que el científico debe ajustarse, en valores que son propios de las
actividades inherentes a la investigación.

Estos valores serian de diversos tipos: cognitivos metodológicos y prácticos o morales y el


tenerlos en cuenta, dándoles cumplimiento en el proceso de investigación daría forma por sí
mismo a la responsabilidad ética del investigador. Otros excluyen a los valores prácticos o
morales ya que solo las cognitivas y metodológicas son propias de la ciencia, que solo se ocupa
de conocer al mundo , no de cambiarlo, lo cual lleva a la distinción tajante entre ciencia y
tecnología, simplificadora y objetada.

Por ello, se debe hablar de una ética de la investigación científica en tanto el investigador es una
“persona” que investiga, sujeta a restricciones de orden moral, formuladas en códigos
deontológicos como en cualquier actividad profesional.

Para la National Academy Of Science de EEUU, entre las cuestiones que atañen a la
responsabilidad personal del investigador (o comunidad de ellos) relacionadas con el
cumplimiento de las normas institucionales explícitas o implícitas, o de las que se desprenden
las prescripciones metodológicas se encuentran las siguientes:

*errores cometidos en el transcurso de la investigación: 1) “errores honestos” que si son


detectados deben ser reconocidos por su autor y tolerado por la comunidad científica 2). Por
“negligencia”, por precipitación, falta de cuidado, inatención, etc. en cuyo caso la reacción será
más severa ya que sus consecuencias son más difíciles de revertir que los primeros.3) por
“engaño” inventar falsificar o plagiar datos o resultados, que socavan el progreso de la ciencia y
su corrección no se dirime solo internamente sino también en tribunales externos.

*la adjudicación de créditos o recompensas: en el sistema estándar científico la adjudicación


del crédito por el merito de los trabajos es reconocido en 3 lugares: 1) la lista autores 2) en el
reconocimiento por las contribuciones de otros y 3) en la lista o referencias de las citas. Cuando
las citas no se realizan adecuadamente, perjudican al investigador en su prestigio y su carrera
tanto como al sistema de publicaciones científicas. Para evitar conflictos debe preestablecerse al
desarrollo de la investigación, la lista de autores, que en general se determina por el rango:
graduado, estudiante, etc.pero es importante que estén mencionados todos los colaboradores

*el tratamiento de las técnicas experimentales: las observaciones realizadas por los científicos
por técnicas experimentales estandarizadas permite la verificación independiente de los datos.,
lo que permite que los resultados de su trabajo pueda ser reproducido por otro científicos lo que
favorece la confiablidad, aun cuando estos métodos como sus resultados no sean infalibles y
deban someterse a continua revisión y control, para no caer en falales errores. El escepticismo es
una caract. de la ciencia presente en todo momento de la investigación.

*la publicación y la apertura: la ciencia no es una experiencia individual sino conocimiento


compartido basado en la comprensión común de algunos aspectos del mundo físico o social. La
confiabilidad de este conocimiento cuenta con la convención de la publicación de sus resultados,
originándose conflictos sobre la prioridad de descubrimientos, ya que el que primero publica
obtiene el crédito, no el primero en descubrir algo. Quien publica es reconocido en las citas en
otras publicaciones con condición básica de haber pasado controles de calidad de sus colegas,
para no caer en errores o dar lugar a interpretaciones equivocadas.

*conflictos de intereses: el científico tiene que emplear su propio juicio para interpretar datos,
encontrar problemas de investigación y cuándo concluir un experimento, lo que necesita
desarrollar habilidades ,algunas que se pueden aprender y otras no, comportan valores, a veces
de naturaleza epistémica(consistencia ,precisión en las predicciones, capacidad de unificación de
observaciones diferentes,etc) otros son valores personales ,religiosos ,filosóficos,
culturales ,políticos, económicos que forman el juicio del científico de forma fundamental .

Los valores pueden tener influencia positiva o negativa sobre el desempeño del científico,
cuando ellos comportan prejuicios, pero se considera que los mecanismos correctivos de la
ciencia, como el control empírico y consenso de la comunidad científica, pone límites a esa
posibilidad. Además la formación del científico debe ser lo suficientemente amplia (incluyendo
cuestiones no científicas, de las ciencias sociales, religión y ética) así puede tomar conciencia
de las suposiciones o creencias que subyacen sus elecciones y decisiones en su trabajo y así, en
lo posible neutralizarlos

Estas consideraciones de la National Academy of Science destacan elementos importantes pero


no bastan y hasta puede considerarse defectuoso, porque supone que la ciencia es una institución
autosuficiente e indiscutiblemente certera en todos sus presupuestos y al pedir un conocimiento
“amplio” del científico tiende a “deshumanizarlo”.

CIENTIFICISMO Y ANTICIENTIFICISMO:

CIENTIFICISMO: punto de vista sobre la naturaleza de la ciencia, la tecnología y sus relaciones


con el resto de la sociedad caracterizado por considerar a la ciencia, no como independiente del
resto de la sociedad, sino también su rectora. Esta preeminencia se supone derivada de su
capacidad de obtener y formular un conocimiento de la realidad absolutamente racional y
objetivo, con resultados altamente precisos y seguros, que proporcionarían una descripción y
explicación de los fenómenos reales totalmente cierta y confiable.
Epistemológicamente denominadas POSITIVISMO Y EMPIRISMO LOGICO.

Uno de sus más famosos exponentes es el físico y filosofo argentino MARIO BUNGE.

Para él la ciencia es el único modo de saber que proporciona una comprensión fundamentada de
la realidad, por eso está totalmente justificado su papel central en la cultura contemporánea. Pero
no solamente predomina sobre cualquier otro aspecto del sistema cultural sino que la ciencia
misma es un modelo de ética.

Estas teorías fueron perdiendo vigencia, aunque su influencia haya sido muy grande, a la luz de
otras perspectivas epistemológicas, tales como la historia de la ciencia y la filosofía de la
tecnología, o la sociología y la antropología, considerando hoy que la ciencia no puede
prescindir de alguno de esos distintos puntos de vista. , que representan un enfoque integral del
fenómeno tecnocientifico.

En el terreno político es donde se ha sacado partido del poder potencial de estas teorías al
impedir que el resto de la sociedad participe de un dialogo con la comunidad científica, aún
cuando las actividades de la comunidad científica ponen en riesgo sus intereses y hasta su
supervivencia.

ANTICIENTIFICISMO: Tesis opuesta a la del cientificista, que considera a la ciencia como


conocimiento construido, provisorio y negociable, histórica y culturalmente contextualizada y
éticamente comprometida junto con la tecnología rechazando la preponderancia del
conocimiento científico sobre todo tipo de conocimiento y por eso ajena a todo requerimiento de
orden social y ético.

El anticientificismo niega que el fenòmeno tecnocientìfico sea valorativamente


neutral porque no puede ser explicado sòlo por factores cognitivos o epistèmicos sino tambièn
por factores sociales y culturales originados fuera de la ciencia o sea que la ciencia serìa ètica
dependiendo del contexto particular en el que se desenvolviera, sus preferencias ,prioridades ,a
la hora de investigar dependen del contexto , no tanto de la ciencia per se

Sus objeciones son:

· La fragilidad del conocimiento inductivo: Hume – para quien ningún número finito de
enunciados singulares puede justificar concluyentemente un enunciado universal, tanto la
versión verificacionista como la confirmatoria. T Khun, introdujo además el concepto de
“paradigma”, postulando que una amalgama de factores tecnológicos, pedagógicos,
psicológicos, sociológicos, considerandos no epistemológicos por la tradición empirista,
era la responsable de las teorías aceptadas.
· Relativismos: a partir de Kuhn se desarrollan estudios sociológicos de la ciencia, donde
la frontera entre ciencia y sociedad se desdibuja. M.Mulkay, sostiene que la ciencia toma
muchas veces del ámbito cultural externo ciertos términos o conceptos cuando sus
recursos interpretativos fracasan y que también es receptora de las demandas de intereses
de su grupo, por lo que el valor cognitivo de la ciencia quedaría expuesto a la
justificación relativa a los contextos particulares.
· La carga teórica de la observación: esto alude a que lo que se ve o percibe depende
tanto de las impresiones sensibles como del conocimiento previo, expectativas, prejuicios
y estado interno general del observador. científicos que trabajan bajo paradigmas distintos
ven al mundo de modo diferente.la carga teórica profundiza el problema de la relatividad.
· Infradeterminacion: problema ocasionado por la posibilidad de establecer teorías
alternativas incompatibles para explicar un mismo conjunto de fenómenos. La evidencia
empírica es insuficiente para la solución de un problema dado. Relacionada con la carga
teórica y la inconmensurabilidad.
· Clausura metodológica: dados los anteriores problemas, se da un vacio epistémico
entre la evidencia empírica y las teorías respectivas. La falta de recursos para llenar ese
vacío se recurre a factores no epistémicos, como los factores técnico-instrumentales
(tradiciones técnicas e instrumentos) factores sociales (económicos, profesionales
políticos o ideológicos= contexto social) para obtener los resultados y su interpretación.
Esta clausura favorece la consecución de objetivos de la ciencia y disminuye la
incertidumbre ocasionada por la infradeterminacion.

Este conjunto de restricciones al alcance epistémico de las afirmaciones científicas es de amplio


consenso, lo que ofrece una imagen de la ciencia como una actividad humana mas, lejos de la
idealizada perspectiva del cientificista, lo cual es un rasgo que se constituye en condición
necesaria en la producción de su saber.

Es decir, decirle no al mantenimiento de una postura positivista ya sin fundamento pero también
no a la anticiencia.desenmascarar a la ciencia en su pretensión hegemónica injustificada para
acercarla a la sociedad y ponerla a su servicio, invertir la dirección que actualmente se da entre
ambas.

CIENCIA BASICA, CIENCIA APLICADA Y TECNOLOGIA

Uno de los factores que favorecen la idea de ciencia desvinculada de la sociedad y productora de
conocimiento universal y necesario es la diferenciación que se puede establecer entre ciencia o
ciencia aplicada o tecnología.

Bunge, es uno de los autores que apoyan la distinción entre ciencia básica, ciencia aplicada y
tecnología. Las 2 primera s tienen como objetivo la producción de conocimiento aplicando el
método científico, pero la primera trabaja sobre los problemas que le interesan, puramente
congoscitivos, no se puede planear, la elección de temas es libre, así como el tiempo y los
procedimientos que usa, lo que producirá resultados beneficiosos para la ciencia aplicada, la
técnica y la sociedad en forma automática, mientras que la segunda estudia solo problemas de
posible interés social y pude planearse.

La técnica se diferencia de las dos ,porque mientras aquellas buscan leyes que explican la
realidad, el propósito de aquella es controlar la realidad empleando el conocimiento y el método
científico, así como otros tipos de conocimientos. Soluciona problemas prácticos, no
cognoscitivos.

Los resultados de las ciencias, es conocimiento y de la técnica es un artefacto o plan de acción


de valor práctico.

Por ello se puede sostener la neutralidad valorativa de las ciencias y no de la tecnología, porque
las primeras son independientes de cualquier interés externo u objetivo que trascienda el puro
conocimiento, en cambio la segunda produce efectos reales en el mundo.

“La ciencia básica o pura es intrínsecamente valiosa o carente de valor, pero la tecnología puede
ser valiosa o disvaliosa, según sean los fines a los que sire, por lo que es necesario someterla a
controles morales y sociales” (Bunge)

Similar pensamiento al de Bunge, Rescher, afirma que las cs. y la tecnología van juntas como
piezas de un mismo cuerpo, debido al sofisticado desarrollo científico tecnológico actual, no a la
función intrínseca de cada una. El cometido de la cs. es puramente cognitivo, por lo que el
conocimiento científico es solo descriptivo y el tecnológico presenta una vertiente cognitiva
(saber còmo hacer) enraizado en el conocimiento científico y otra normativa (saber si hacer
algo concreto es razonable dadas las circunstancias.) las cuestiones normativas de valor,
importancia, legitimidad y similares quedan fuera del tema.

Otros autores encuentran más compleja la cuestión y la consiguiente atribución de


responsabilidad moral.

Agassi: considera que ciencia y tecnología conforman un fenómeno de la modernidad sin


precedentes.la tecnología es consecuencia de la cs. moderna, que e proporciona fundamentos
teóricos de la acción eficaz. , es una rama de la técnica, que se puede entender como “ciencia
aplicada”.

Una diferencia entre técnica y tecnología que tiene relación directa con la responsabilidad moral
es la del vínculo establecido por parte de cada una, entre la humanidad y el mundo artificial. La
técnica se ponía al servicio del hombre adaptando la naturaleza a sus necesidades, “obedeciendo
a la naturaleza, por lo cual regulada por las “reglas del oficio”. Pero en el caso de la tecnología,
el mundo artificial es creado por los seres humanos independientemente de la naturaleza, lo que
requiere regulación, normativa, que asegure armonía y sabiduría que antes se confiaba a la
naturaleza.

Como para él la distinción entre cs. y tecnología es solo conceptual, se puede usar el término
“tecnociencia”, referido a un fenómeno unitario. y es al científico individual ,en tanto
investigador a quien compete el control responsable de la tecnociencia,guiándose por los
principios de moralidad que le permitan evaluar si el resultado final será un beneficio o una
amenaza para la humanidad, aunque no es suficiente. Los peligros inherentes a la tecnociencia
son incontrolables y los conflictos actuales y potenciales que genera exceden los límites
personales de responsabilidad y pide el control ético-político y social.
Olive: rechaza la idea de la neutralidad valorativa de la ciencia o de la tecnología, porque ambas
están implicadas en el desarrollo de la tecnología dada. En ambas hay que aplicar lo que
instituciones ecologistas llamaron “principio de precaución” que exhorta a suspender la
implementación de determinadas tecnologías si existen bases razonables ,aunque no
conclusivas , de que una innovación puede provocar daños al medio ambiente, con una justa
discusión y participación de todos los afectados por esa tecnología, incluso la comunidad más
amplia.

REFLEXIONES GRALES SOBRE EL TEMA:

Los beneficios que la ciencia y la tecnología aportan a la sociedad son muchos pero también
están rodeados de riesgos. Científicos y tecnólogos comparten la responsabilidad sobre esos
riesgos actuales o potenciales, ya que no constituyen ámbitos separados con su propia lógica
sino son extremos de un continuo que los incluye.

El cuestionamiento sobre los “descubrimientos” científicos se ha ido extendiendo y la sociedad


ha tomado cartas en el asunto: comités éticos en hospitales y centros de salud , acuerdos
internacionales sobre cuidado de recursos disponibles en el planeta y la reciente Cumbre de
Copenhague sobre reducción de gases causantes del efecto invernadero y otros acuerdos
regionales sobre el uso de bienes naturales compartidos son ejemplo de la búsqueda de límites a
las actividades de ciencia y tecnología.

Aún así los controles son aún resistidos y en nombre de una ciencia autocalificada como
autónoma que reclama independencia completa de los demás sectores sociales y por lo tanto
inimputable de responsabilidad moral.

Esto ha sido aquí cuestionado. El conocimiento científico no tiene la precisión ni objetividad


que antes se le asignaba ni esta exenta de influencias externas en la elección de problemas y la
justificación de las soluciones. Y además puede ser hija de las influencias de factores políticos o
fuentes de financiamiento.

La solución propuesta consiste en que los proyectos de investigación y desarrollo tecnológico


sean puestos a consideración de los interesados o afectados por ellos, aunque esto parezca
utópico.

También podría gustarte