0% encontró este documento útil (0 votos)
114 vistas10 páginas

Historia y fundamentos de la estadística

El documento proporciona una reseña histórica del desarrollo de la estadística. Se remonta a los primeros registros numéricos de poblaciones y producción agrícola en Babilonia y Egipto hace miles de años. Más tarde, matemáticos como Thomas Bayes, Pierre-Simon Laplace y Carl Friedrich Gauss hicieron contribuciones fundamentales a la teoría de probabilidad y el desarrollo de métodos estadísticos como el método de máxima verosimilitud. En el siglo XX, estadísticos como William Sealy
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
114 vistas10 páginas

Historia y fundamentos de la estadística

El documento proporciona una reseña histórica del desarrollo de la estadística. Se remonta a los primeros registros numéricos de poblaciones y producción agrícola en Babilonia y Egipto hace miles de años. Más tarde, matemáticos como Thomas Bayes, Pierre-Simon Laplace y Carl Friedrich Gauss hicieron contribuciones fundamentales a la teoría de probabilidad y el desarrollo de métodos estadísticos como el método de máxima verosimilitud. En el siglo XX, estadísticos como William Sealy
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Estadística

Reseña histórica:
Ya se utilizaban representaciones gráficas y otras medidas en pieles, rocas, palos de madera y
paredes de cuevas para controlar el número de personas, animales o ciertas mercancías. Hacia el
año 3000 a. C. los babilonios usaban ya pequeños envases moldeados de arcilla para recopilar
datos sobre la producción agrícola y de los géneros vendidos o cambiados. Los egipcios
analizaban los datos de la población y la renta del país mucho antes de construir las pirámides
en el siglo XI a. C. Los libros bíblicos de Números y Crónicas incluyen en algunas partes
trabajos de estadística. El primero contiene dos censos de la población de la Tierra de Israel y el
segundo describe el bienestar material de las diversas tribus judías. En China existían registros
numéricos similares con anterioridad al año 2000 a. C. Los antiguos griegos realizaban censos
cuya información se utilizaba hacia el 594 a. C. para cobrar impuestos.
El matemático británico Thomas Bayes (1702-1761) fue el pionero en el uso de la teoría de la
probabilidad para argumentar desde lo particular a lo general o de la muestra a la población.
Pierre-Simón Laplace, astrónomo francés (1749-1827) admitió el principio de la probabilidad
inversa, a él se debe el principio de que la distribución de una cantidad compuesta de partes
independientes muestra toda una serie de características (la media, varianza y otras medidas)
que son simplemente las sumas de cada característica de las distribuciones de las partes.
Carl Friedrich Gauss, matemático, astrónomo y físico alemán (1777-1855), se acercó al
problema de la estimación estadística en forma empírica, planteando el problema de la
estimación no solo en términos de probabilidades sino en términos de otros parámetros
cuantitativos. Para este propósito trató de aplicar el método de máxima verosimilitud, aunque
intentó derivar y justificar este método con el principio de la probabilidad inversa. Además,
perfeccionó el ajuste sistemático de las fórmulas de regresión, simple y múltiple, por el método
de los mínimos cuadrados, el cual, en los casos en los que sea apropiado, es un ejemplo
particular del método de máxima verosimilitud.
Friedrich Robert Helmert, matemático y geólogo alemán (1843-1917), descubriría la
distribución chi-cuadrada como una distribución de la varianza muestral para una distribución
normal, pero como su obra fue escrita en alemán y desconocida en otras lenguas, luego se le
atribuyó ese mismo descubrimiento a Karl Pearson, matemático y científico inglés (1857-1936),
quién se considera que instituyó las disciplinas de la estadística matemática y de la
bioestadística.
William Sealy Gosset, estadístico inglés (1876-1937), descubrió, a comienzos del Siglo XX, la
forma de la distribución t mediante una combinación de trabajos empíricos y matemáticos con
números aleatorios en su trabajo como estudiante y colaborador en el laboratorio de Pearson.
Ronald Fisher, estadístico y biólogo inglés (1890 – 1962), considerando uno de los padres de la
inferencia estadística moderna, propuso y desarrolló el concepto de análisis de la varianza, los
valores p, el método de máxima verosimilitud, la distribución f (de Fisher, aunque también se le
atribuye a otro científico, el estadounidense George W. Snedecor, quien la habría nombrado de
esa manera por su gran admiración a Fisher), investigó la relación de los genes de diferentes
características y desarrolló métodos de análisis multivariante para responder esas inquietudes.
Frank Yates, estadístico inglés (1902 – 1994), en su trabajo con Fisher, desarrolló la corrección
de continuidad o corrección de Yates.
Egon Pearson, hijo de Karl, estadístico británico (1895 – 1980), y Jerzy Neyman, matemático y
estadístico polaco (1894 – 1981), propusieron la prueba de hipótesis, en oposición a los estudios
de Fisher, conocido como el lema fundamental de Neyman-Pearson, un resultado que describe
el criterio óptimo para distinguir dos hipótesis simples.

Descripción:
La estadística es la ciencia que estudia cómo debe emplearse la información y cómo dar una
guía de acción en situaciones prácticas que entrañan incertidumbre. (Gutiérrez, p. 23)
La estadística es la ciencia de los datos, la cual implica su recolección, clasificación, síntesis,
organización, análisis e interpretación, para la toma de decisiones frente a la incertidumbre
(Ángel, p. 28)
La estadística es la rama del conocimiento humano que tiene como objeto el estudio de ciertos
métodos inductivos aplicables a fenómenos susceptibles de expresión cuantitativa. (López, p. 1)
Es el arte de aprender a partir de los datos. Está relacionada con la recopilación de datos, su
descripción subsiguiente y su análisis, lo que nos lleva a extraer conclusiones. (Ross, p. 3)
Es una ciencia exacta cuyo objetivo fundamental es el estudio de diversas formas de
comportamiento de la sociedad, para lo cual se fundamenta en el uso de diversos métodos y
procedimientos matemáticamente demostrables de manera formal y rigurosa. (Cóndor, p. 10)
Es una ciencia que facilita la toma de decisiones mediante la presentación ordenada de los datos
observados en tablas y gráficos estadísticos, reduciendo los datos observados a un pequeño
número de medidas estadísticas que permitirán la comparación entre diferentes series de datos y
estimando la probabilidad de éxito que tiene cada una de las decisiones posibles. (Fernández et.
al, p. 18)

Objetivos:
Como objetivo general se puede decir que:

 El objetivo de la estadística es mejorar la comprensión de hechos a partir de datos.


(Moore, p. 267)
 El principal objetivo de la estadística es hacer inferencias acerca de una población, con
base en la información contenida en una muestra. (Pérez, p. 172)
Algunos objetivos específicos son (Martínez, p. 9):

 Conocer la realidad de una observación o fenómeno.


 Determinar lo típico o normal de esa situación.
 Determinar los cambios que representa el fenómeno.
 Relacionar dos o más fenómenos.
 Determinar las causas que originan el fenómeno.
 Hacer estimaciones sobre el comportamiento futuro del fenómeno.
 Obtener conclusiones de un grupo menor (muestra) para hacerlas extensivas a un grupo
mayor (población).
 Determinar el grado de validez y confiabilidad ya sea de las predicciones o las
conclusiones obtenidas a partir de muestras.

Clasificación:
Estadística descriptiva: Es aquella que consiste en la evaluación de un fenómeno por medio de
la observación y su posterior presentación en datos y gráficos con el fin de detallar el mismo
fenómeno y su comportamiento.
La estadística descriptiva se puede definir como un método para describir numéricamente
conjuntos numerosos. Por tratarse de un método de descripción numérica, utiliza el número
como medio para describir un conjunto, que debe ser numeroso, ya que las permanencias
estadísticas no se dan en los casos raros. No es posible sacar conclusiones concretas y precisas
de los datos estadísticos. (Vargas, p.33)
Objetivo de la estadística descriptiva:
La finalidad última de la estadística descriptiva es resumir la información de conjuntos más o
menos numerosos de datos. Para ello se asienta en un concepto inmediato a la tarea de recuento:
la frecuencia, medida empírica de la ocurrencia de los distintos estados que puede presentar una
variable. (SGT, p.16)
Los pasos por medio de los cuales procede la estadística descriptiva son los siguientes:

 Recolectar: en efecto los datos deben ser obtenidos de forma consecuente de una
muestra, es decir, los mismos deben proceder de la observación exacta de un fenómeno
y de su comportamiento, solo así es posible recabar toda la información necesaria.

 Analiza: no basta con la simple observación, los datos deben ser sometidos a una serie
de estudios con el fin de evaluarlos y proceder a su respectiva categorización, los datos
deben ser sometidos a procesos analíticos con el fin de proyectar los resultados y si
estos son o no consecuentes para la investigación.

 Caracterización o categorización, esto equivale al proceso de agrupación de los datos en


distintos grupos con el fin de que los mismos puedan presentarse de forma segmentada
para una mejor apreciación de los resultados.

Estadística inferencial:
La estadística inferencial estudia la probabilidad de éxito de las diferentes soluciones posibles a
un problema en las diferentes ciencias en las que se aplica y para ello utiliza los datos
observados en una o varias muestras de la población. Mediante la creación de un modelo
matemático infiere el comportamiento de la población total partiendo de los resultados
obtenidos en las observaciones de las muestras.
Refiere al estudio particular de una población con el fin de apreciar el comportamiento
determinado de la misma, en efecto, el proceso de estudio procede es de una muestra, con la
finalidad de obtener de la mismas las alternativas o probabilidades que pudieron ocasionar que
el fenómeno se suscitará.
Para poder entender el concepto de estadística inferencial, es menester proceder al estudio de los
conceptos básicos de la misma, como es población y muestra.
La estadística inferencial plantea sus postulados por medio de hipótesis que no son más que
planteamientos referenciales que se realizan respecto a una situación en específica, los mismos
pueden contener la conjugación de hechos con posibles alternativas de ocurrencias.
La prioridad de esta rama de la estadística, es fijar conclusiones eminentes y necesarias.
Objetivo de la estadística inferencial:

 La inferencia estadística intenta tomar decisiones basadas en la aceptación o el rechazo


de ciertas relaciones que se toman como hipótesis. Esta toma de decisiones va
acompañada de un margen de error, cuya probabilidad está determinada. (Vargas, p.33)
 La estadística inferencial tiene dos objetivos básicos: a) obtener conclusiones válidas
acerca de una población sobre la base de una muestra, es decir, que las conclusiones que
obtengamos de una muestra se puedan extrapolar a la población que dio origen a esa
muestra y b) poder medir el grado de incertidumbre presente en dichas inferencias en
términos de probabilidad. (Díaz, p.287)

Partes de la estadística:
De acuerdo con Moore (p. XXXIV) la estadística, para su estudio, se divide en tres partes:

 El análisis de datos se ocupa de los métodos y las ideas necesarias para organizar y
describir datos utilizando gráficos y resúmenes numéricos.
 La obtención de datos proporciona métodos para obtener datos que permiten dar
respuestas claras a preguntas concretas,
 La inferencia estadística va más allá de los datos disponibles y obtiene conclusiones
sobre un universo más amplio teniendo en cuenta la omnipresencia de la variabilidad y
la incertidumbre de las conclusiones.

Funcionabilidad en la vida/empresa:
1. Los estadísticos se encargan de recoger, analizar e interpretar datos numéricos. Sus
resultados ayudan a otros profesionales a tomar decisiones informadas, a crear políticas
de empresa y a comprender distintos aspectos de la vida moderna
2. Muchos se encargan de trabajan en departamentos del gobierno central o local,
utilizando la información estadística para ayudar a crear políticas y a prestar
asesoramiento al público.
3. Hay estadísticos que trabajan en departamentos de la administración pública y de
organismos asociados.
4. Proporcionan un servicio de información y asesoramiento para el gobierno y el
parlamento. Esto ayuda a los ministros a desarrollar y poner en práctica políticas, por
ejemplo, en sanidad o en justicia, y evaluar su impacto en el público.
5. Los estadísticos del gobierno pueden, por ejemplo, examinar el funcionamiento y
eficacia del sistema sanitario público en materia de listas de espera, hospitales, dotación
de personal y tiempos de respuesta de las ambulancias.
6. Aparte de la función pública, el empleador más grande de estadísticos es la industria
farmacéutica. Allí, los estadísticos se dedican a diseñar y analizar experimentos para
evaluar los efectos de los fármacos y para probar su seguridad.
7. Pueden estar involucrados en todas las etapas de desarrollo de fármacos, desde el diseño
de experimentos para encontrar compuestos biológicos útiles, hasta los ensayos clínicos
realizados antes y después que el fármaco esté disponible al público.
8. Los estadísticos también desempeñan una función primordial en la investigación
médica en un sentido más amplio, por ejemplo:
 En el control de enfermedades del corazón.
 En el establecimiento de las causas de la enfermedad o los factores asociados a
la enfermedad.
 En la prevención de decesos o enfermedades.
 En la evaluación de los tratamientos.
9. Dado que puede haber una gran variación en los factores que causan una enfermedad, y
en las respuestas de las personas a un tratamiento, los estadísticos deben desarrollar
métodos para tener en cuenta dichos elementos, recogiendo y explicando los patrones
que emergen.
10. También diseñan, ponen en práctica y evalúan los estudios clínicos. Algunos estudios
pueden tardar solo unos meses en finalizarse, mientras que en otros puede pasar años
antes de que los resultados sean significativos. A continuación, los estadísticos tienen
que redactar informes y artículos para su posterior publicación, y pueden presentar los
resultados en conferencias dentro de su país o en el extranjero.
11. Los estadísticos trabajan cada vez más en la biometría, por ejemplo, en la investigación
de las posibilidades de heredar una determinada enfermedad, o en la verificación del
funcionamiento de nuevas variedades de cultivos.
12. En los negocios y la industria, los estadísticos trabajan en estudios de mercado. Se
dedican a predecir la demanda para contribuir a orientar los productos a un mercado en
particular.
13. También desempeñan una función vital en la gestión y la producción de la calidad. Su
información puede ayudar a hacer más eficientes los procesos y a minimizar los
residuos de una empresa y reducir la contaminación industrial.
14. Los estadísticos desempeñan una función importante en la economía, los negocios y la
industria. Por ejemplo, también se contratan desempeñan una función para calcular los
riesgos (probabilidad de que un acontecimiento tenga lugar) en ámbitos, tales como las
pensiones y los seguros de vida.
15. También trabajan para los bancos, en la evaluación de riesgos de crédito, y para
empresas de inversión, en el seguimiento y análisis del mercado de valores. Las
compañías de seguros emplean desempeñan una función para producir modelos de
riesgos y estadísticas sobre la esperanza de vida.
16. También hay estadísticos en áreas como el periodismo, la enseñanza, y la docencia
universitaria y la investigación.
17. Si bien los estadísticos pueden trabajar por cuenta propia como consultores, casi
siempre trabajan en equipo, en la recolección y análisis de datos de una gran variedad
de fuentes y se comunican con otros profesionales no desempeñan una función
18. Siempre deben pensar con detalle cuales son los mejores métodos que pueden utilizar
para recopilar e interpretar los datos en cada caso. Por ejemplo, a veces pude producirse
un sesgo de forma involuntaria si se ha dejado de lado un factor importante, y esto
puede distorsionar los resultados.

Materiales que lo componen:


1. Diagrama Causa – Efecto (también llamado gráfico de Ishikawa o espina de pescado).
2. Diagrama de flujo (Puede sustituirse por estratificación o por gráfico de ejecución).
3. Hojas de verificación o de chequeo.
4. Diagrama de Pareto.
5. Histogramas.
6. Diagramas o gráfico de control.
7. Diagramas de dispersión.

Ventajas:
 Menos costoso.
 No requiere mucho tiempo.
 Fácil de administrar.
 Por lo general asegura alta tasa de participación.
 Posible generalización a sujetos similares.
Desventajas:
 Difícil generalizar a otros sujetos.
 Menos representativa de una población específica.
 Los resultados dependen de las características únicas de la muestra.
 Mayor probabilidad de error debido al investigador o influencia de sujetos.

Fuentes bibliográficas:
https://enciclopediaeconomica.com/estadistica/

https://www.educaweb.com/profesion/estadistico-599/#:~:text=Los%20estad%C3%ADsticos
%20se%20encargan%20de%20recoger%2C%20analizar%20e%20interpretar%20datos,aspectos
%20de%20la%20vida%20moderna.

https://aprendiendocalidadyadr.com/7-herramientas-basicas-calidad/

http://grupodeestadisticaupao.blogspot.com/2016/03/ventajas-menos-costoso-no-
requiere.html
Probabilidad
Reseña histórica:
La historia de la probabilidad abarca, principalmente, el periodo entre la escritura del primer
tratado que hace referencia a la misma (1553), hasta finales del siglo XX.
Aunque el concepto de probabilidad viene de hace miles de años, en realidad la historia de la
probabilidad es bastante más breve. Sobre todo, si tenemos en cuenta los avances en materia de
teoría de la probabilidad. Unos avances que no comenzaron a ser tangibles hasta que se realizó
la primera escritura por parte Gerolamo Cardano.
Habitualmente se concede a Pierre Fermat (1601-1665) y Blaise Pascal (1623-1662), el título de
padres de la teoría de la probabilidad. Sin embargo, existen evidencias históricas que nos
inclinan a pensar que el primero en poner por escrito el concepto fue Gerolamo Cardano (1501-
1576).
Por alguna extraña razón, que aún se desconoce, su obra titulada «Liber de ludo aleae» que
significa algo así como «Un libro sobre los juegos de dados» no fue publicada hasta el año
1663. Cuando, en realidad, la obra fue escrita en 1553.
Tras las sucesivas publicaciones de Pierre Fermat (1654), Blaise Pascal (1654) y Gerolamo
Cardano (1663) se sucedieron numerosas obras por parte de intelectuales que han llegado a ser
muy relevantes en la disciplina
A principios del siglo XVIII, motivado por la notoriedad que adquirieron los juegos de azar, se
publicó un documento titulado «Ars Conjectandi» de Jacob Bernouilli. Una obra publicada a
título póstumo, ya que en realidad fue escrita hacia 1690. Tras la muerte de Bernoulli, Abraham
de Moivre cogió el testigo, y sentó las bases del Teorema Central del Límite (1733),
convirtiéndose así en uno de los referentes de la teoría de la probabilidad. Un Teorema, todo sea
dicho, que sería demostrado por Laplace años más tarde.
Tras Moivre, Thomas Bayes (1702-1761) y Joseph Lagrange (1736-1813) realizaron
contribuciones muy importantes al campo de la probabilidad.
Con todo, sería Pierre-Simon Laplace (1749-1827) quién impulsaría definitivamente al campo
de la probabilidad. Su obra «Théorie analytique des probabilites», traducida como «Teoría
analítica de probabilidades» y publicada en 1812 constituyó gran parte de la base sobre la que
emerge la teoría de la probabilidad. En ella definía por vez primera el concepto de probabilidad
y dedujo el método de mínimos cuadrados ordinarios (MCO) desarrollado antes por Carl
Friedrich Gauss (1777-1855) cuando era estudiante.
En esa misma línea, con permiso de Gauss, le corresponde a Laplace la demostración y
aplicación de la distribución normal en la teoría de la probabilidad. Gauss, sin lugar a dudas,
realiza un aporte tremendo con la distribución normal. Sin embargo, se le debe a Laplace la
aplicación en términos probabilísticos.
Con su fallecimiento, la teoría de la probabilidad siguió creciendo. Eso sí, con dificultades.
Dificultades que provenían, principalmente, de matemáticos. Consideraban que la teoría de la
probabilidad carecía de un teoría robusta y precisa para ser aceptada como parte de las
matemáticas.
Motivado por las críticas que recibía el campo de la probabilidad, Andréi Kolmogorov (1903-
1987) decidió armarse de valor para cambiar el rumbo de la historia. Hacia 1933 el matemático
ruso publicaría una obra titulada «Los fundamentos de la Teoría de la Probabilidad». En ella
expuso la axiomática que lleva su nombre y le valió para ser reconocido como una eminencia de
la probabilidad.
Simultáneamente, aunque de publicación más tardía, Émilie Borel (1871-1956) ofreció su
aportación a la teoría de la probabilidad con su libro «Probabilité et Certitude» publicado en
1950.
Sin duda, Kolmogorov y Borel ofrecieron un marco más preciso que el resto en cuanto a la
exposición de la teoría probabilística.
Además de los dos anteriores, destacan las aportaciones, durante todo el siglo XX, de
intelectuales como Paul Lévy (1919-1971), Norbert Wiener (1894-1964) o Maurice Fréchet
(1878-1973). Para terminar, diremos que existen otros muchos que podríamos incluir en la
historia de la probabilidad, pero estos son los más influyentes.

Descripción:
La probabilidad constituye un importante parámetro en la determinación de las diversas
casualidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico. La
definición de probabilidad se produjo debido al deseo del ser humano por conocer con certeza
los eventos que sucederán en el futuro.
La probabilidad asociada a un suceso o evento aleatorio es una medida del grado de certidumbre
de que dicho suceso pueda ocurrir.
Características de la probabilidad:
Así mismo, la Estadística ha señalado que existen al menos ocho distintas características de la
Probabilidad, las cuales pueden ser descritas de la siguiente manera:

 El valor que representa la probabilidad se encuentra comprendido entre 0 y 1. Así


mismo, se puede expresar en porcentajes, los cuales están comprendidos entre 0% y
100%.
 El valor correspondiente a cero es interpretado por la Estadística como un suceso.
 De igual forma, el valor equivalente a uno es interpretado como un suceso.
 La Probabilidad se encarga de dar cuenta de las posibilidades que tienen un suceso de
ocurrir.
 Puede ser clasificada igualmente como una de las distintas ramas de las Matemáticas.
 La Probabilidad tiene como base el estudio de las combinatorias.
 Esta rama de la Estadística es bastante usada en la realización de cálculos matemáticos.
 Así mismo, se encarga de estudiar problemas teóricos matemáticos.

Clasificación:
Frecuencial.
Esta se determina acorde a la frecuencia de ocurrencia de un fenómeno, en un número
determinado de eventos auto realizados, donde se procede a llevar la anotación de las mismas
frecuencias.
Matemática.
Obedece a un conjunto de operaciones aritméticas que se lleva a cabo, las cuales ameritan que
se calculen en cifras los eventos aleatorios que pueden suceder en un determinado campo.
Utilizando el ejemplo anterior, se calcularían las veces en las cuales la chapa cae boca arriba o
bien boca abajo.
Binomial.
En este caso, se calcula la posibilidad de éxito o de fracaso de un determinado acto, de modo tal,
que el cálculo va a residir en la cualidad de ocurrencia o no del fenómeno.
Objetiva.
Se conocen de antemano las frecuencias, de forma tal, que solo se conocerán los casos
probables en los que sucederá un fenómeno.
Es decir, acorde a esta probabilidad las condiciones necesarias para la existencia del hecho ya
son previamente conocidas, solamente se determinará un valor aproximado para los casos
posibles en que pueda acontecer el hecho.
Geométrica.
Muchos la han catalogado como un subtipo de la probabilidad matemática, y es aquella en la
cual, los científicos pueden conocer con exactitud las veces o casos favorables en los que puede
darse un evento.
Subjetiva.
Se contrapone a la probabilidad matemática, ya que, en esta, solo es posible de determinar por
ciertas eventualidades, que pueden arrogar cierto grado de posibilidad en la ocurrencia del
hecho.
Ejemplo de ello, son las probabilidades que las personas citan en la vida cotidiana, como es el
caso, de indicar que existen probabilidades de que llueva de noche cuando el cielo se ve
despejado.
Tal probabilidad, se funda en evidencias previas de noches que por coincidencia el cielo está
despejado y llovió, pero no por ello, se puede establecer una probabilidad certera.
Hipergeométrica.
Aquella que se realiza acorde a la técnica del muestreo, es decir, la ocurrencia de los eventos se
clasifica por la frecuencia de su acontecimiento, creándose así una serie de grupos de eventos
determinados por su aparición.
Por ejemplo, se lanza un dado, y se anota las veces que sale cada una de sus caras, hasta
establecer una frecuencia de aparición de cada una de estas.
Poisson.
Mecanismo de cálculo de probabilidades más complejos, ya que pretende determinarlas en
espacio y en tiempo también.
Lógica.
Establece la posibilidad de ocurrencia de un hecho de forma inductiva, con arreglo a las leyes de
la lógica.
Condicionada.
En este caso, se establece la relación de causalidad entre dos hechos, ya que solo es posible
determinar la ocurrencia de uno, si el otro ha sucedido de forma previa.
Es decir, para que suceda tal acción, es menester que otra se haya producido con anterioridad.

También podría gustarte