0% encontró este documento útil (0 votos)
34 vistas23 páginas

Fundamentos de Probabilidad y Estadística

El documento aborda los fundamentos de la probabilidad, incluyendo conceptos clásicos, axiomas, teoremas y aplicaciones en diversas disciplinas. Se exploran definiciones como la probabilidad clásica, la frecuencia relativa, y se presentan teoremas fundamentales como el de Bayes y la probabilidad condicional. Además, se discuten las características y limitaciones de los enfoques probabilísticos en contextos específicos.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
34 vistas23 páginas

Fundamentos de Probabilidad y Estadística

El documento aborda los fundamentos de la probabilidad, incluyendo conceptos clásicos, axiomas, teoremas y aplicaciones en diversas disciplinas. Se exploran definiciones como la probabilidad clásica, la frecuencia relativa, y se presentan teoremas fundamentales como el de Bayes y la probabilidad condicional. Además, se discuten las características y limitaciones de los enfoques probabilísticos en contextos específicos.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

INSTITUTO TECNOLOGICO SUPERIOR DE COATZACOALCOS

CARRERA: INGENIERIA INDUSTRIAL


Ciclo escolar: Enero-Junio 2024

Asignatura: Probabilidad y Estadística

Unidad 3: Fundamentos de probabilidad

Tarea: Trabajo de Investigación del 3.1 al 3.6

Alumno: Oscar Haziel Hernández Chávez

No. De Control: 23080524 Semestre: 2 Grupo: EI

Nombre del Docente: Ing. Bricio Jiménez Ventura

Fecha: 31/05/2024

1
Índice

Contenido

Introducción……………………………………………………………………………3

3.1 Concepto clásico y como frecuencia relativa………………..……………….4

3.2 Axiomas y teoremas……..……………………………………….……………..6

3.3 Probabilidad clásica: Espacio finito equiparable………………………...…..9

3.4 Probabilidad condicional e independencia…………………………………..12

3.5 Teorema de bayes…………...……………………………………………….,,15

3.6 Distribución marginal conjunta……………………………………...………...18

2
INTRODUCCION

La probabilidad es una rama de las matemáticas que se dedica al estudio de


fenómenos aleatorios. Este campo busca cuantificar la incertidumbre asociada a
eventos que no se pueden predecir con certeza. La probabilidad tiene aplicaciones
en diversas áreas como la estadística, las ciencias naturales, la economía, la
ingeniería, y muchos más. Para comprender mejor la probabilidad, es esencial
explorar sus conceptos fundamentales, incluyendo el enfoque clásico, la
frecuencia relativa, los axiomas y teoremas, la probabilidad condicional, la
independencia, el teorema de Bayes y la distribución marginal conjunta.

El concepto clásico de la probabilidad se basa en la suposición de que todos los


resultados posibles de un experimento son igualmente probables. Si un
experimento tiene n resultados posibles y m de ellos son favorables a un evento A,
la probabilidad de A es P(A) = m/n. Por otro lado, la frecuencia relativa define la
probabilidad de un evento como el límite de su frecuencia relativa en un número
muy grande de repeticiones del experimento.

Los principios fundamentales incluyen la probabilidad clásica, la probabilidad


frecuentista y la probabilidad bayesiana, cada una con su propio enfoque y
aplicaciones. La probabilidad clásica se basa en la suposición de que todos los
resultados en el espacio muestral son igualmente probables. La probabilidad
frecuentista se enfoca en la frecuencia relativa de ocurrencia de eventos en
experimentos repetidos. Por último, la probabilidad bayesiana incorpora
información previa y evidencia acumulada para actualizar la probabilidad de
eventos a medida que se dispone de nueva información.

Estos conceptos proporcionan un marco sólido y versátil para el análisis y


modelado de fenómenos aleatorios, permitiendo abordar una amplia gama de
problemas en diversas disciplinas.

3
3.1 Concepto clásico y como frecuencia relativa

Concepto Clásico de Probabilidad

El concepto clásico de probabilidad se basa en la premisa de que todos los


resultados posibles de un experimento son igualmente probables. Este enfoque es
particularmente útil en situaciones donde los resultados pueden enumerarse
claramente y cada uno tiene la misma probabilidad de ocurrencia. Se utiliza
frecuentemente en contextos como lanzar una moneda, tirar un dado o extraer una
carta de una baraja.

La probabilidad clásica de un evento A se define como el cociente entre el


número de resultados favorables a A y el número total de resultados posibles en el
espacio muestral. Matemáticamente, esto se expresa como:

Ejemplo: Al lanzar un dado justo de seis caras, la probabilidad de obtener un


número par (2, 4 o 6) es:

Probabilidad como Frecuencia Relativa

La probabilidad como frecuencia relativa se basa en la observación de que, a largo


plazo, la proporción de veces que ocurre un evento específico se estabiliza y
converge hacia un valor constante. Este enfoque es útil cuando se pueden realizar
muchos experimentos repetidos bajo condiciones similares, permitiendo estimar la
probabilidad de un evento a partir de la frecuencia con la que dicho evento ocurre.

La probabilidad frecuentista de un evento A se define como el límite de la


frecuencia relativa de A a medida que el número de experimentos tiende a infinito.
Esto se expresa como:

\[ P(A) = \lim_{n \to \infty} \frac{n_A}{n} \]

donde \ (n_A \) es el número de veces que ocurre el evento A y n es el número


total de experimentos realizados.

4
Ejemplo: Si lanzamos una moneda justa 1000 veces y obtenemos 510 caras, la
frecuencia relativa de obtener una cara es:

Aunque teóricamente se espera que este valor sea 0.5, con un número finito de
experimentos es común obtener valores que fluctúan alrededor de la probabilidad
verdadera.

Comparación y Uso

El concepto clásico de probabilidad es ideal para situaciones con un número


limitado y claramente definido de resultados igualmente probables. Por otro lado,
el enfoque de la frecuencia relativa es más adecuado para experimentos repetidos
donde se pueden observar las frecuencias a lo largo del tiempo. Ambos conceptos
son fundamentales para entender y aplicar la teoría de probabilidad en diferentes
contextos, proporcionando perspectivas complementarias para abordar problemas
de incertidumbre.

5
3.2 Axiomas y teoremas

Axiomas de la Probabilidad

La teoría moderna de la probabilidad se basa en los axiomas formulados por el


matemático ruso Andrey Kolmogorov en 1933. Estos axiomas proporcionan una
base sólida y coherente para el cálculo de probabilidades. Los axiomas son tres

1. **Axioma de la no negatividad**:

La probabilidad de cualquier evento A) es un número no negativo.

\[ P(A) \geq 0\]

2. **Axioma de la certeza**:

La probabilidad del espacio muestral S es 1.

\[P(S) = 1\]

3. **Axioma de la aditividad**:

Para cualquier colección de eventos mutuamente excluyentes (eventos que no


pueden ocurrir simultáneamente), la probabilidad de la unión de estos eventos es
igual a la suma de sus probabilidades individuales.

\[P\left(\bigcup_{i=1}^{\infty} A_i\right) = \sum_{i=1}^{\infty} P(A_i) \quad \text{si}


\quad A_i \cap A_j = \emptyset \quad \text{para} \quad i \neq j\]

6
Teoremas Fundamentales

Basados en estos axiomas, se derivan varios teoremas fundamentales que


facilitan el cálculo y la comprensión de las probabilidades. A continuación, se
presentan algunos de los teoremas más importantes:

1. **Teorema de la Probabilidad Complementaria**:

La probabilidad de que un evento no ocurra es igual a uno menos la probabilidad


de que ocurra.

\[ P(A^c) = 1 - P(A) \]

donde \( A^c \) es el complemento de \( A \).

2. **Teorema de la Probabilidad de la Unión de dos Eventos**:

La probabilidad de la unión de dos eventos cualesquiera es igual a la suma de


sus probabilidades individuales menos la probabilidad de su intersección.

\[ P(A \cup B) = P(A) + P(B) - P(A \cap B \]

3. **Teorema de la Probabilidad Condicional**:

La probabilidad de que ocurra el evento \( A \) dado que ha ocurrido el evento \(


B \) se define como: \[P(A \mid B) = \frac{P(A \cap B)}{P(B)} \quad \text{si} \quad
P(B) > 0 \]

4. **Teorema de la Independencia**:

Dos eventos \( A \) y \( B \) son independientes si y solo si:

\[

P(A \cap B) = P(A) \cdot P(B)

\]

7
5. **Teorema de Bayes**:

Este teorema proporciona una forma de actualizar las probabilidades


condicionadas cuando se dispone de nueva información.

\[

P(A \mid B) = \frac{P(B \mid A) \cdot P(A)}{P(B)} \quad \text{si} \quad P(B) > 0

\]

Este teorema es fundamental en la estadística bayesiana y en aplicaciones


donde se actualizan las creencias o probabilidades a medida que se obtiene
nueva evidencia.

### Aplicaciones de los Axiomas y Teoremas

Los axiomas y teoremas de probabilidad son esenciales en una amplia variedad


de disciplinas. En estadística, son la base para inferencias y estimaciones; en
ingeniería, se utilizan para el análisis de sistemas y la evaluación de riesgos; en
economía, ayudan en la modelización de mercados y decisiones financieras; en
ciencias naturales, permiten modelar fenómenos aleatorios y realizar predicciones.
La comprensión y aplicación de estos principios son cruciales para resolver
problemas complejos en un mundo lleno de incertidumbre.

8
3.3 Probabilidad clásica: Espacio finito equiparable

Probabilidad Clásica: Espacio Finito Equiprobable

La probabilidad clásica se utiliza principalmente en situaciones donde el conjunto


de resultados posibles de un experimento es finito y cada resultado es igualmente
probable. Este enfoque, también conocido como el enfoque equiprobable, se basa
en la simplicidad y la simetría de los posibles resultados.

Definición del Espacio Muestral

Un espacio muestral es el conjunto de todos los resultados posibles de un


experimento aleatorio. En el caso de un espacio finito equiprobable, cada
resultado en este espacio tiene la misma probabilidad de ocurrir. Si el espacio
muestral está compuesto por \( n \) resultados posibles, la probabilidad de cada
resultado individual es \( \frac{1}{n} \).

Cálculo de la Probabilidad

La probabilidad de un evento \( A \) en un espacio finito equiprobable se calcula


como el cociente del número de resultados favorables a \( A \) entre el número
total de resultados posibles en el espacio muestral. Matemáticamente, esto se
expresa como:

\[ P(A) = \frac{|A|}{|S|} \]

9
donde:

- \( |A| \) es el número de resultados favorables al evento \( A \).

- \( |S| \) es el número total de resultados posibles en el espacio muestral \( S \).

Ejemplos de Probabilidad Clásica

1. **Lanzamiento de un Dado**:

Consideremos el lanzamiento de un dado justo de seis caras. El espacio


muestral es \( S = \{1, 2, 3, 4, 5, 6\} \), con \( |S| = 6 \). La probabilidad de obtener
un número par (2, 4, 6) es:

\[

P(\text{Número par}) = \frac{|A|}{|S|} = \frac{3}{6} = \frac{1}{2}

\]

2. **Lanzamiento de una Moneda**:

En el lanzamiento de una moneda justa, el espacio muestral es \( S =


\{\text{Cara}, \text{Cruz}\} \), con \( |S| = 2 \). La probabilidad de obtener cara es:

\[

P(\text{Cara}) = \frac{1}{2}

\]

3. **Extracción de una Carta de una Baraja**:

En una baraja estándar de 52 cartas, el espacio muestral es \( S = \{ \text{todas


las cartas} \} \), con \( |S| = 52 \). La probabilidad de extraer un as es:

\[

P(\text{As}) = \frac{4}{52} = \frac{1}{13}

\]

10
Características del Enfoque Equiprobable

- **Simplicidad**: La principal ventaja de este enfoque es su simplicidad, ya que


asume que todos los resultados son igualmente probables.

- **Aplicabilidad**: Es más aplicable en situaciones con resultados claramente


definidos y finitos, donde cada resultado tiene la misma oportunidad de ocurrir.

- **Limitaciones**: No siempre es aplicable en situaciones más complejas o en


sistemas con probabilidades desiguales. En estos casos, se deben utilizar otros
enfoques probabilísticos.

Resumen

La probabilidad clásica en un espacio finito equiprobable proporciona una forma


intuitiva y directa de calcular la probabilidad de eventos cuando todos los
resultados posibles son igualmente probables. Este enfoque es fundamental para
entender los conceptos básicos de la probabilidad y sirve como base para
situaciones más complejas y teorías avanzadas en probabilidad y estadística.

11
3.4 Probabilidad condicional e independencia

Probabilidad Condicional e Independencia

Probabilidad CondicionalLa probabilidad condicional se refiere a la probabilidad de


que ocurra un evento \( A \), dado que ya ha ocurrido otro evento \( B \). Se denota
como \( P(A \mid B) \) y se calcula utilizando la siguiente fórmula

\[ P(A \mid B) = \frac{P(A \cap B)}{P(B)} \]

donde:

- \( P(A \cap B) \) es la probabilidad de que ocurran ambos eventos \( A \) y \( B \).

- \( P(B) \) es la probabilidad de que ocurra el evento \( B \).

Es importante que \( P(B) > 0 \) para que \( P(A \mid B) \) esté bien definida.

**Ejemplo**: Supongamos que tenemos una baraja estándar de 52 cartas, y


queremos calcular la probabilidad de sacar un as (evento \( A \)), dado que ya
hemos sacado una carta roja (evento \( B \)).

- \( P(A) = \frac{4}{52} = \frac{1}{13} \) (ya que hay 4 ases en total).

- \( P(B) = \frac{26}{52} = \frac{1}{2} \) (ya que hay 26 cartas rojas).

- \( P(A \cap B) = \frac{2}{52} = \frac{1}{26} \) (ya que hay 2 ases rojos).

Entonces, la probabilidad condicional es:

12
\[ P(A \mid B) = \frac{P(A \cap B)}{P(B)} = \frac{\frac{1}{26}}{\frac{1}{2}} =
\frac{1}{26} \times 2 = \frac{2}{26} = \frac{1}{13} \]

Independencia de Eventos

Dos eventos \( A \) y \( B \) se consideran independientes si la ocurrencia de uno


no afecta la probabilidad de ocurrencia del otro. Matemáticamente, los eventos \( A
\) y \( B \) son independientes si:

\[ P(A \cap B) = P(A) \cdot P(B) \]

En términos de probabilidad condicional, si \( A \) y \( B \) son independientes,


entonces:

\[ P(A \mid B) = P(A) \]

\[ P(B \mid A) = P(B) \

**Ejemplo**: Consideremos el lanzamiento de dos dados. Sea \( A \) el evento de


que el primer dado muestre un 4, y \( B \) el evento de que el segundo dado
muestre un 6.

- \( P(A) = \frac{1}{6} \)

- \( P(B) = \frac{1}{6} \)

- \( P(A \cap B) = \frac{1}{6} \times \frac{1}{6} = \frac{1}{36} \)

Como \( P(A \cap B) = P(A) \cdot P(B) \), los eventos \( A \) y \( B \) son
independientes.

13
Resumen

- **Probabilidad Condicional**: Permite calcular la probabilidad de un evento dado


que otro evento ha ocurrido. Es crucial para entender situaciones donde la
ocurrencia de un evento afecta la probabilidad de otro.

- **Independencia de Eventos**: Dos eventos son independientes si la ocurrencia


de uno no afecta la probabilidad de ocurrencia del otro. Esta propiedad simplifica
el cálculo de probabilidades conjuntas en muchos problemas

Ambos conceptos son fundamentales en la teoría de probabilidad y tienen


aplicaciones extensas en campos como la estadística, la teoría de la información,
la ingeniería, y muchas áreas de investigación científica y toma de decisiones.

14
3.5 Teorema de Bayes

Teorema de Bayes

El teorema de Bayes es un resultado fundamental en la teoría de probabilidad que


describe cómo actualizar las probabilidades de las hipótesis a medida que se
dispone de nueva evidencia. Se utiliza ampliamente en diversas disciplinas, como
la estadística, la inteligencia artificial, la medicina, y la toma de decisiones, entre
otras.

Fórmula del Teorema de Bayes

El teorema de Bayes se expresa matemáticamente de la siguiente manera:

\[ P(A \mid B) = \frac{P(B \mid A) \cdot P(A)}{P(B)} \]

donde:

- \( P(A \mid B) \) es la probabilidad posterior de \( A \) dado \( B \).

- \( P(B \mid A) \) es la probabilidad de \( B \) dado \( A \) (verosimilitud).

- \( P(A) \) es la probabilidad a priori de \( A \).

- \( P(B) \) es la probabilidad marginal de \( B \), que puede calcularse como la


suma ponderada de \( B \) sobre todas las posibles hipótesis

\[ P(B) = \sum_{i} P(B \mid A_i) \cdot P(A_i) \]

#### Interretación

15
El teorema de Bayes permite actualizar la probabilidad de una hipótesis \( A \)
después de observar una nueva evidencia \( B \). La probabilidad \( P(A) \) se
llama probabilidad a priori, y representa nuestro conocimiento inicial antes de
observar la evidencia. Después de observar \( B \), esta probabilidad se actualiza a
\( P(A \mid B) \), que se llama probabilidad posterior

Ejemplo: Diagnóstico Médico

Consideremos un ejemplo en el contexto de diagnóstico médico. Supongamos que


queremos determinar la probabilidad de que una persona tenga una enfermedad \(
E \) dada una prueba positiva \( T \).

- \( P(E) \) es la probabilidad a priori de tener la enfermedad (prevalencia de la


enfermedad).

- \( P(T \mid E) \) es la probabilidad de que la prueba sea positiva dado que la


persona tiene la enfermedad (sensibilidad de la prueba).

- \( P(T \mid E^c) \) es la probabilidad de que la prueba sea positiva dado que la
persona no tiene la enfermedad (falso positivo).

- \( P(T) \) es la probabilidad total de obtener una prueba positiva.

Supongamos los siguientes valores:

- \( P(E) = 0.01 \) (1% de prevalencia).

- \( P(T \mid E) = 0.9 \) (90% de sensibilidad).

- \( P(T \mid E^c) = 0.05 \) (5% de falsos positivos).

Primero, calculamos \( P(T) \):

\[ P(T) = P(T \mid E) \cdot P(E) + P(T \mid E^c) \cdot P(E^c) \]

\[ P(T) = (0.9 \times 0.01) + (0.05 \times 0.99) \]

\[ P(T) = 0.009 + 0.0495 = 0.0585 \]

16
Ahora, aplicamos el teorema de Bayes para encontrar \( P(E \mid T) \):

\[ P(E \mid T) = \frac{P(T \mid E) \cdot P(E)}{P(T)} \]

\[ P(E \mid T) = \frac{0.9 \times 0.01}{0.0585} \]

\[ P(E \mid T) = \frac{0.009}{0.0585} \approx 0.1538 \]

Entonces, la probabilidad de que una persona tenga la enfermedad dado que la


prueba es positiva es aproximadamente 15.38%, lo que es significativamente
mayor que la prevalencia inicial del 1%.

Aplicaciones del Teorema de Bayes

El teorema de Bayes tiene aplicaciones en muchas áreas, tales como:

- **Medicina**: Diagnóstico de enfermedades basado en resultados de pruebas.

- **Machine Learning**: Clasificadores bayesianos, redes bayesianas.

- **Ciencias Sociales**: Inferencia estadística y toma de decisiones.

- **Finanzas**: Modelado de riesgos y valoración de activos.

- **Ingeniería**: Sistemas de detección y control.

Resumen

El teorema de Bayes proporciona una forma poderosa y flexible de actualizar


nuestras creencias en función de nueva evidencia. Su capacidad para combinar la
información a priori con la nueva evidencia lo convierte en una herramienta
esencial en la estadística bayesiana y en la toma de decisiones informadas bajo
incertidumbre.

17
3.6 Distribución marginal conjunta

Distribución Conjunta

La distribución conjunta describe la probabilidad de que dos (o más) eventos


aleatorios ocurran simultáneamente. Para dos variables aleatorias discretas \( X \)
e \( Y \), la distribución conjunta se representa mediante una tabla o una función \(
P(X = x, Y = y) \), que indica la probabilidad de que \( X \) tome el valor \( x \) y \( Y
\) tome el valor \( y \) simultáneamente.

Para variables aleatorias continuas, la distribución conjunta se describe mediante


una función de densidad conjunta \( f_{X,Y}(x,y) \), tal que:

\[ P(X \in A, Y \in B) = \int_{A}\int_{B} f_{X,Y}(x,y) \, dx \, dy \]

Distribución Margina

La distribución marginal de una variable aleatoria se obtiene a partir de la


distribución conjunta de dos o más variables al sumar (o integrar, en el caso
continuo) sobre los valores posibles de las otras variables. La distribución marginal
proporciona las probabilidades (o densidades) de una sola variable, sin considerar
las otras.

Para variables discretas, la distribución marginal de \( X \) se obtiene sumando las


probabilidades conjuntas sobre todos los valores posibles de \( Y \)

\[ P(X = x) = \sum_{y} P(X = x, Y = y) \]

Para variables continuas, la distribución marginal de \( X \) se obtiene integrando la


densidad conjunta sobre todos los valores posibles de \( Y \):

\[ f_X(x) = \int_{-\infty}^{\infty} f_{X,Y}(x,y) \, dy \

Ejemplo: Distribución Conjunta y Marginal

Consideremos un ejemplo con variables discretas. Supongamos que \( X \) y \( Y \)


son dos variables aleatorias con la siguiente distribución conjunta:

18
| \( X \backslash Y \) | 1 |2 |3 |

|----------------------|------|------|------|

|1 | 0.1 | 0.05 | 0.1 |

|2 | 0.2 | 0.15 | 0.05 |

|3 | 0.05 | 0.1 | 0.2 |

Para encontrar la distribución marginal de \( X \) y \( Y \):

1. **Distribución marginal de \( X \)**:

\[ P(X = 1) = 0.1 + 0.05 + 0.1 = 0.25 \]

\[ P(X = 2) = 0.2 + 0.15 + 0.05 = 0.4 \]

\[ P(X = 3) = 0.05 + 0.1 + 0.2 = 0.35 \]

2. **Distribución marginal de \( Y \)**:

\[ P(Y = 1) = 0.1 + 0.2 + 0.05 = 0.35 \]

\[ P(Y = 2) = 0.05 + 0.15 + 0.1 = 0.3 \]

\[ P(Y = 3) = 0.1 + 0.05 + 0.2 = 0.35 \]

19
Independencia de Variables Aleatorias

Dos variables aleatorias \( X \) y \( Y \) se consideran independientes si el producto


de sus distribuciones marginales es igual a la distribución conjunta:

\[ P(X = x, Y = y) = P(X = x) \cdot P(Y = y) \]

Para variables continuas, la condición de independencia es similar:

\[ f_{X,Y}(x,y) = f_X(x) \cdot f_Y(y) \]

Aplicaciones

Las distribuciones conjuntas y marginales son fundamentales en varias áreas:

- **Estadística**: Para calcular probabilidades y realizar inferencias sobre variables


relacionadas.

- **Machine Learning**: Para modelar la relación entre características y etiquetas


en clasificación y regresión.

- **Finanzas**: Para evaluar la dependencia entre activos y gestionar riesgos.

- **Ciencias Sociales**: Para estudiar la relación entre diferentes variables


demográficas o comportamentales.

Resumen

Las distribuciones conjuntas y marginales son herramientas esenciales en la teoría


de probabilidad y estadística. La distribución conjunta describe cómo dos o más
variables se comportan juntas, mientras que las distribuciones marginales
proporcionan información sobre cada variable individualmente. Estos conceptos
son fundamentales para entender las relaciones entre variables y para modelar
fenómenos en diversas disciplinas.

20
Glosario de términos

1. Axiomas de Probabilidad: Reglas básicas que definen una medida de


probabilidad. Los tres axiomas de Kolmogorov son la no negatividad, la
certeza y la aditividad.

2. Distribución Conjunta: Describe la probabilidad de que dos (o más)


eventos aleatorios ocurran simultáneamente.

3. Distribución Marginal: La probabilidad de una sola variable aleatoria


obtenida a partir de la distribución conjunta de varias variables sumando o
integrando sobre los valores posibles de las otras variables.

4. Evento: Un conjunto de resultados de un experimento aleatorio. Puede ser


simple (un solo resultado) o compuesto (varios resultados).

5. Espacio Muestral: El conjunto de todos los resultados posibles de un


experimento aleatorio, denotado comúnmente por 𝑆S.

6. Frecuencia Relativa: La proporción de veces que un evento ocurre en un


gran número de repeticiones del experimento. Se usa para estimar la
probabilidad de un evento.

7. Independencia: Dos eventos son independientes si la ocurrencia de uno no


afecta la probabilidad de ocurrencia del otro. Matemáticamente,
𝑃(𝐴∩𝐵)=𝑃(𝐴)⋅𝑃(𝐵)P(A∩B)=P(A)⋅P(B).

8. Probabilidad: Una medida numérica de la ocurrencia de un evento, que


varía entre 0 (imposible) y 1 (cierto).

9. Probabilidad Condicional: La probabilidad de que un evento ocurra dado


que otro evento ya ha ocurrido. Denotado como 𝑃(𝐴∣𝐵)P(A∣B).

10. Probabilidad Clásica: Define la probabilidad de un evento como el


cociente del número de resultados favorables entre el número total de
resultados posibles en un espacio muestral finito y equiprobable.

21
11. Probabilidad Conjunta: La probabilidad de que ocurran dos (o más)
eventos al mismo tiempo, denotada como 𝑃(𝐴∩𝐵)P(A∩B).

12. Probabilidad Marginal: La probabilidad de un solo evento obtenido a partir


de la probabilidad conjunta sumando sobre los posibles valores de los otros
eventos.

13. Teorema de Bayes: Relaciona la probabilidad condicional y las


probabilidades marginales de dos eventos. Se utiliza para actualizar la
probabilidad de una hipótesis a la luz de nueva evidencia.
𝑃(𝐴∣𝐵)=𝑃(𝐵∣𝐴)⋅𝑃(𝐴)𝑃(𝐵)P(A∣B)=P(B)P(B∣A)⋅P(A).

14. Variable Aleatoria: Una función que asigna un número a cada resultado en
un espacio muestral. Puede ser discreta (toma valores específicos) o
continua (toma cualquier valor en un intervalo).

15. Verosimilitud: En el contexto del teorema de Bayes, es la probabilidad de


la evidencia dada una hipótesis, denotada como 𝑃(𝐵∣𝐴)P(B∣A).

22
Referencias bibliográficas

• Khan Academy: Recursos educativos y tutoriales sobre


probabilidad. Disponible en: Khan Academy - Probability

• MIT OpenCourseWare: Cursos gratuitos en línea sobre probabilidad


y estadística. Disponible en: MIT OCW - Probability

• Wikipedia: Artículos detallados sobre conceptos específicos de


probabilidad, como el Teorema de Bayes y Distribución Conjunta.

• "Introduction to Probability" por Dimitri P. Bertsekas y John N.


Tsitsiklis. Este libro ofrece una introducción completa a la teoría de la
probabilidad, cubriendo los conceptos básicos, teoremas y
aplicaciones.
• "A First Course in Probability" por Sheldon Ross. Este texto es una
referencia estándar en cursos de probabilidad y proporciona una
cobertura detallada de los fundamentos, incluyendo numerosos
ejemplos y ejercicios.
• "Probability and Statistics for Engineers and Scientists" por Ronald E.
Walpole, Raymond H. Myers, Sharon L. Myers, y Keying E. Ye. Este
libro es ideal para estudiantes de ingeniería y ciencias, con
aplicaciones prácticas de la teoría de probabilidad.
• "Probability Theory: The Logic of Science" por E.T. Jaynes. Este libro
ofrece una perspectiva bayesiana sobre la probabilidad, explorando
tanto los fundamentos teóricos como las aplicaciones prácticas.

23

También podría gustarte