0% encontró este documento útil (0 votos)
37 vistas7 páginas

Suma de Probabilidades en Experimentos

El documento aborda conceptos fundamentales de probabilidad y estadística, incluyendo experimentos aleatorios, espacios muestrales y diferentes enfoques de probabilidad como la clásica, frecuencial y axiomática. Se explican términos clave como eventos mutuamente excluyentes, dependientes e independientes, así como el Teorema de Bayes, que permite actualizar probabilidades con nueva información. Además, se destacan las características y limitaciones de cada enfoque, proporcionando una base sólida para el estudio de la probabilidad.

Cargado por

yagc992
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
37 vistas7 páginas

Suma de Probabilidades en Experimentos

El documento aborda conceptos fundamentales de probabilidad y estadística, incluyendo experimentos aleatorios, espacios muestrales y diferentes enfoques de probabilidad como la clásica, frecuencial y axiomática. Se explican términos clave como eventos mutuamente excluyentes, dependientes e independientes, así como el Teorema de Bayes, que permite actualizar probabilidades con nueva información. Además, se destacan las características y limitaciones de cada enfoque, proporcionando una base sólida para el estudio de la probabilidad.

Cargado por

yagc992
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Republica Bolivariana de Venezuela

Ministerio del Poder Popular Para la Educación Universitaria

Universidad Experimental de los Llanos Centrales

"Rómulo Gallegos"

2do Año Sección "8"

[Link] la Salud

Estadística

Probabilidad Y Naciones Básicas

Profesor: Alumna:

[Link] Soto. Sulmari Motta

C.I 32157709

San Fernando, Abril 2025


Experimento Aleatorio:

Un experimento aleatorio es cualquier proceso o ensayo cuyo resultado es incierto y no puede ser
predicho con exactitud antes de su realización. Las características clave de un experimento aleatorio
son:

* Incertidumbre: El resultado no es predecible con certeza.

* Repetibilidad: Se puede repetir el experimento bajo las mismas condiciones.

* Posibilidad de resultados: Se conocen todos los posibles resultados, aunque no se sepa cuál ocurrirá.

Ejemplos de experimentos aleatorios:

* Lanzar una moneda al aire.

* Tirar un dado.

* Seleccionar una carta al azar de una baraja.

* Medir la temperatura en un día específico.

Espacio Muestral:

El espacio muestral (a menudo denotado como Ω, S o E) es el conjunto de todos los posibles resultados
de un experimento aleatorio. Cada resultado posible es un punto muestral o elemento del espacio
muestral.

Ejemplos de espacios muestrales:

* Si lanzamos una moneda, el espacio muestral es Ω = {cara, cruz}.

* Si tiramos un dado, el espacio muestral es Ω = {1, 2, 3, 4, 5, 6}.

* Si lanzamos dos monedas, el espacio muestral es Ω = {(cara, cara), (cara, cruz), (cruz, cara), (cruz,
cruz)}.

Relación entre Experimento Aleatorio y Espacio Muestral:

El espacio muestral proporciona el marco para analizar los posibles resultados de un experimento
aleatorio. Cada evento, que es un subconjunto del espacio muestral, representa un conjunto específico
de resultados que nos interesan.

Por ejemplo:
* Experimento: Lanzar un dado.

* Espacio Muestral: Ω = {1, 2, 3, 4, 5, 6}.

* Evento A: Obtener un número par. A = {2, 4, 6}.

Probabilidad clásica:

La probabilidad clásica también conocida como probabilidad a priori, es un enfoque para calcular la
probabilidad de un evento que se basa en la suposición de que todos los resultados posibles de un
experimento son igualmente probables. Se define como la razón entre el número de casos favorables
(resultados que cumplen con la condición del evento) y el número total de casos posibles (todos los
resultados posibles del experimento).

Fórmula:

P(A) = (Número de casos favorables a A) / (Número total de casos posibles)

Características:

* Equiprobabilidad: Asume que todos los resultados son igualmente probables.

* Conocimiento previo: Requiere conocer todos los posibles resultados del experimento.

* Simplicidad: Es fácil de calcular en situaciones donde se cumplen las condiciones de equiprobabilidad.

Limitaciones:

* No es aplicable cuando los resultados no son igualmente probables.

* Puede ser difícil de aplicar en experimentos complejos con muchos resultados posibles.

Probabilidad frecuencial:

La probabilidad frecuencial también conocida como probabilidad empírica, se basa en la observación de


la frecuencia con la que ocurre un evento en una serie de repeticiones de un experimento. Se define
como el límite de la frecuencia relativa de un evento cuando el número de repeticiones del experimento
tiende a infinito.

Fórmula:

P(A) = límite (n → ∞) de (Número de veces que ocurre A) / (Número total de repeticiones del
experimento)

Características:
* Basada en la experiencia: Se basa en la observación y el registro de datos.

* Aproximación: Proporciona una aproximación de la probabilidad real a medida que aumenta el


número de repeticiones.

* Aplicable a eventos complejos: Puede utilizarse en situaciones donde no se conocen todos los
posibles resultados o donde no son igualmente probables.

Limitaciones:

* Requiere un gran número de repeticiones para obtener una estimación precisa.

* La estimación puede variar dependiendo de la serie de repeticiones observada.

Probabilidad axiomática:

La probabilidad axiomática es un enfoque riguroso para definir la probabilidad que se basa en un


conjunto de axiomas o reglas fundamentales. Fue desarrollada principalmente por el matemático ruso
Andréi Kolmogórov en el siglo XX. En este enfoque, la probabilidad se define como una función que
asigna un número real entre 0 y 1 a cada evento en un espacio muestral, cumpliendo con ciertos
axiomas.

Axiomas de Kolmogórov:

1. No negatividad: La probabilidad de cualquier evento A debe ser mayor o igual a cero: P(A) ≥ 0.

2. Normalización:La probabilidad del espacio muestral completo (es decir, la probabilidad de que ocurra
algún evento posible) debe ser igual a 1: P(Ω) = 1.

3. Aditividad: Si A y B son eventos mutuamente excluyentes (es decir, no pueden ocurrir ambos al
mismo tiempo), entonces la probabilidad de que ocurra A o B es la suma de sus probabilidades
individuales: P(A ∪ B) = P(A) + P(B).

Características:

* Formalismo matemático: Proporciona una base matemática sólida para la teoría de la probabilidad.

* Generalidad: Puede aplicarse a una amplia variedad de situaciones y experimentos.

* Consistencia: Asegura que las probabilidades sean consistentes y coherentes.

Probabilidad a priori:

La probabilidad a priori es la probabilidad inicial que se asigna a un evento antes de que se recolecten o
se consideren nuevas evidencias o información. En otras palabras, es la probabilidad que se tiene de que
un evento ocurra basándose en el conocimiento previo, la experiencia o la información disponible antes
de realizar un experimento o análisis.
Características:

* Basada en el conocimiento previo: Se basa en la información disponible antes de cualquier


observación o experimento.

* Subjetiva: Puede ser subjetiva, ya que se basa en las creencias o el conocimiento del individuo que
asigna la probabilidad.

* Punto de partida: Sirve como punto de partida para el análisis bayesiano, donde se actualiza con
nueva evidencia para obtener la probabilidad a posteriori.

Teorema de la Unidad:

El Teorema de la Unidad establece que la suma de las probabilidades de todos los posibles resultados en
un espacio muestral debe ser igual a 1. En otras palabras, si consideramos todos los eventos elementales
posibles en un experimento aleatorio, la probabilidad de que ocurra alguno de ellos es del 100%.

En términos matemáticos:

Si Ω es el espacio muestral, entonces P(Ω) = 1.

Ejemplo:

Si lanzamos un dado, el espacio muestral es Ω = {1, 2, 3, 4, 5, 6}. La probabilidad de cada resultado


individual es 1/6. Si sumamos las probabilidades de todos los resultados posibles:

P(1) + P(2) + P(3) + P(4) + P(5) + P(6) = 1/6 + 1/6 + 1/6 + 1/6 + 1/6 + 1/6 = 1

Por lo tanto, la probabilidad de obtener cualquier número del 1 al 6 es igual a 1.

Concepto de probabilidad a posteriori:

La probabilidad a posteriori es la probabilidad de que una hipótesis sea verdadera después de que se
haya considerado la evidencia relevante. Se calcula utilizando el teorema de Bayes, que combina la
probabilidad a priori (la probabilidad inicial de la hipótesis) con la verosimilitud (la probabilidad de
observar la evidencia dado que la hipótesis es verdadera). En resumen, es la probabilidad actualizada de
un evento después de incorporar nueva información.

Mutaciones excluyentes:

En el contexto de la probabilidad y la estadística, el término "mutuamente excluyentes" se refiere a


eventos que no pueden ocurrir al mismo tiempo. Si dos eventos son mutuamente excluyentes, la
ocurrencia de uno impide la ocurrencia del otro.

Características:

* Si A y B son eventos mutuamente excluyentes, entonces la probabilidad de que ocurran ambos al


mismo tiempo es cero: P(A ∩ B) = 0.
* La probabilidad de que ocurra A o B es la suma de sus probabilidades individuales: P(A ∪ B) = P(A) +
P(B).

Mutaciones no excluyentes:

En el contexto de la probabilidad y la estadística, los eventos "no excluyentes" son aquellos que pueden
ocurrir al mismo tiempo. A diferencia de los eventos mutuamente excluyentes, la ocurrencia de uno no
impide la ocurrencia del otro.

Características:

* Si A y B son eventos no excluyentes, entonces la probabilidad de que ocurran ambos al mismo tiempo
no es cero: P(A ∩ B) ≠ 0.

* La probabilidad de que ocurra A o B se calcula como: P(A ∪ B) = P(A) + P(B) - P(A ∩ B).

Eventos Dependientes:

En probabilidad, dos eventos son dependientes si la ocurrencia de uno afecta la probabilidad de


ocurrencia del otro. En otras palabras, la probabilidad de que ocurra un evento depende de si el otro
evento ya ha ocurrido.

Características:

* Si A y B son eventos dependientes, entonces P(A|B) ≠ P(A) y P(B|A) ≠ P(B), donde P(A|B) es la
probabilidad de que ocurra A dado que B ha ocurrido.

* La probabilidad de que ocurran ambos eventos se calcula como: P(A ∩ B) = P(A) * P(B|A) o P(A ∩ B) =
P(B) * P(A|B).

Eventos Independientes:

En probabilidad, dos eventos son independientes si la ocurrencia de uno no afecta la probabilidad de


ocurrencia del otro. En otras palabras, la probabilidad de que ocurra un evento no depende de si el otro
evento ya ha ocurrido.

Características:

* Si A y B son eventos independientes, entonces P(A|B) = P(A) y P(B|A) = P(B), donde P(A|B) es la
probabilidad de que ocurra A dado que B ha ocurrido.

* La probabilidad de que ocurran ambos eventos se calcula como: P(A ∩ B) = P(A) * P(B).

Probabilidad Condicional:

La probabilidad condicional es la probabilidad de que ocurra un evento A, dado que ya ha ocurrido otro
evento B. Se denota como P(A|B), que se lee como "la probabilidad de A dado B".
Fórmula:

P(A|B) = P(A ∩ B) / P(B)

Donde:

* P(A|B) es la probabilidad condicional de A dado B.

* P(A ∩ B) es la probabilidad de que ocurran tanto A como B.

* P(B) es la probabilidad de que ocurra B.

Teorema de Bayes

El Teorema de Bayes es una proposición matemática fundamental en la teoría de la probabilidad que


permite calcular la probabilidad de un evento basándose en información previa. Fue desarrollado por
Thomas Bayes en el siglo XVIII y es esencial para actualizar nuestras creencias sobre la probabilidad de
un evento a medida que obtenemos nueva información.

La fórmula básica del teorema es: P(A|B) = P(B|A) * P(A) / P(B), donde P(A|B) es la probabilidad de que
ocurra el evento A dado que ha ocurrido el evento B, P(B|A) es la probabilidad de que ocurra B dado
que ha ocurrido A, P(A) es la probabilidad a priori de A, y P(B) es la probabilidad a priori de B.

Este teorema se aplica en diversas disciplinas, como la medicina, la inteligencia artificial y la economía.
Por ejemplo, en medicina, se utiliza para determinar la probabilidad de que un paciente tenga una
enfermedad basándose en los síntomas y su historial médico. En inteligencia artificial, mejora la
precisión de los algoritmos de aprendizaje automático. La capacidad de actualizar las probabilidades a
medida que se obtiene más información lo convierte en una herramienta poderosa en el razonamiento
probabilístico.

También podría gustarte