DESCRIPCIÓN BREVE
Estos apuntes están enfocados a resumir toda la teoría
de oposiciones lo más fácil posible.
Luis Tomillero Gil
“Carpe Diem”
TEMA 64
Probabilidad compuesta. Probabilidad condicionada.
Probabilidad Total. Teorema de Bayes.
Oposiciones de Matemáticas
ÍNDICE
1. Introducción ......................................................................................................................................2
2. Conceptos previos.............................................................................................................................3
2.1 Experimentos aleatorios. Sucesos. .............................................................................................3
2.2 Concepto de 𝜎- algebra ..............................................................................................................3
2.3 Axiomas de Kolmogórov .............................................................................................................4
2.4 Propiedades de las probabilidades .............................................................................................4
3. Probabilidad condicionada ...............................................................................................................4
3.1 Definición ....................................................................................................................................4
3.2 Propiedades ................................................................................................................................5
3.3 Sucesos dependientes e independientes....................................................................................6
4. Probabilidad compuesta ...................................................................................................................7
4.1 Teorema del producto ................................................................................................................7
5. Teorema de la Probabilidad Total .....................................................................................................8
6. Teorema de Bayes.............................................................................................................................8
7. Conclusión .........................................................................................................................................9
8. Bibliografía ........................................................................................................................................9
Luis Tomillero Gil 1
1. Introducción
La estadística actual es el resultado de la unión de dos disciplinas que evolucionan de manera
independiente hasta concluir en el siglo XIX: El cálculo de probabilidades (que nace en el siglo XVII
como teoría matemática de juegos de azar) y la Estadística (“ciencia del estado”) que estudia la
recogida y descripción de datos.
El azar ha estado presente a lo largo de toda la historia de la humanidad. A los romanos se les atribuye
la invención de numerosos juegos para amenizar los tiempos de espera durante las campañas
militares.
Sin embargo, todos los historiadores ponen como origen de la probabilidad en el siglo XVII, con las
correspondencias mantenidas entre Pascal y Fermat sobre teoría de juegos. Una de las teorías más
conocidas era como repartir las ganancias si el juego se interrumpía antes de finalizar.
La teoría moderna de la probabilidad fue desarrollada en el [Link] por el matemático Kolmogórov con
su teoría axiomática de las probabilidad, presente en numerosos ámbitos; farmacología, procesos
productivos, finanzas, etc. Dicha teoría fue iniciada en el siglo XIV por matemáticos como Chebyschev
y Márkov.
Otros matemáticos como Bernouilli y De Moivre, en cuyos trabajos ya aparece la probabilidad
condicionada y las “sucesos independientes”. El gran impulso lo proporcionó Laplace donde probó
que esta teoría podía ser aplicada a multitud de problemas científicos y prácticos, además, en una de
sus obras Laplace rescata las ideas de Thomas Bayes.
La noción de probabilidad condicionada, así como la noción de sucesos independientes, es
fundamental en el cálculo de probabilidades. El teorema de Bayes fue muy discutido hasta que Fisher
lo colocó sobre una base más sólida en el siglo XX.
En la educación secundaria, la etapa educativa que nos atañe, los conceptos probabilísticos se
introducen en 1º de ESO y , posteriormente, a lo largo de los restantes cursos y, especialmente en
Bachillerato se profundiza en su estudio.
Luis Tomillero Gil 2
2. Conceptos previos
2.1 Experimentos aleatorios. Sucesos.
En nuestro entorno existen dos tipos de experimentos o fenómenos:
a. Experimentos deterministas: son aquellos en los que, la realización sucesiva del mismo, en
las mismas condiciones, produce el mismo resultado.
b. Experimentos aleatorios: son aquellos en los que, la realización sucesiva del mismo, en las
mismas condiciones, no producen el mismo resultado (no se puede predecir).
Los juegos de azar son ejemplos de experimentos aleatorios: lanzar un dado, lanzar una moneda,
sacar una carta, etc.
Definición (Espacio muestral)
Llamamos espacio muestral asociado a un experimento aleatorio al conjunto formado por todos los
posibles resultados del experimento aleatorio. Se representa por 𝛺.
Observación: Existen diferentes tipos de espacios muestrales:
• Espacio finito: es aquél que tiene un número finito de elementos.
• Espacio infinito numerable: es aquel en el cual se puede establecer una aplicación biyectiva
entre sus elementos y el conjunto de los números naturales.
• Espacio continuo: es aquel que contiene un número infinito no numerable de elementos.
Definición (Suceso)
Llamamos suceso a todo subconjunto A del espacio muestra (𝐴 ⊆ 𝛺).
Observación: Existen diferentes tipos de sucesos:
• Suceso imposible: es aquél que no ocurre nunca. Denotado por ∅.
• Suceso seguro: es aquel que ocurre siempre. Denotado por 𝛺.
Definición (Punto muestral)
Llamamos punto muestral a cada elemento del espacio muestral.
2.2 Concepto de 𝜎- algebra
Sea S una familia de subconjuntos de 𝛺, si verifica:
a) 𝛺 ∈ 𝑆
b) 𝐴𝑛 ∈ 𝑆, 𝑛 ≥ 1 ⇒ ⋃∞𝑛=1 𝐴𝑛 ∈ 𝑆
c) Si 𝐴 ∈ 𝑆 ⇒ 𝐴𝑐 ∈ 𝑆
Diremos que S tiene estructura de 𝜎- álgebra sobre 𝛺.
Definición (Espacio probabilizable)
El par (𝛺, 𝑆) formado por el espacio muestral 𝛺 y una familia de subconjuntos S con estructura de
𝜎- álgebra, se le denomina espacio probabilizable.
Luis Tomillero Gil 3
2.3 Axiomas de Kolmogórov
Dado el espacio de sucesos S, dotado de estructura 𝜎- álgebra, asociado a un espacio muestral 𝛺, se
define la probabilidad, P, como una función:
𝑃: 𝑆 → [0,1]
Tal que verifica los siguientes axiomas de Kolmogórov:
1. Axioma 1: 𝑃(𝐴) ≥ 0
2. Axioma 2: 𝑃(𝛺) = 1
3. Axioma 3: 𝑃(⋃∞ ∞
𝑛=1 𝐴𝑛 ) = ∑𝑛=1 𝑃(𝐴𝑛 ) con 𝐴𝑛 ∈ 𝑆 tal que 𝐴𝑛 ∩ 𝐴𝑚 = ∅ si 𝑛 ≠ 𝑚
Definición (Espacio probabilístico)
Llamamos espacio probabilístico a la terna (𝛺, 𝑆, 𝑃), con S un espacio de sucesos asociado a un
espacio muestral 𝛺 y 𝑃 una medida de probabilidad.
2.4 Propiedades de las probabilidades
Propiedades
Como consecuencia de los axiomas de Kolmogórov se pueden deducir una serie de propiedades de
la función P, que enunciamos a continuación.
1. 𝑃(∅) = 0
2. 𝑃(⋃𝑘𝑖=1 𝐴𝑖 ) = ∑𝑘𝑖=1 𝑃(𝑖) con 𝐴𝑖 ∈ 𝑆 tal que 𝐴𝑖 ∩ 𝐴𝑗 = ∅ si 𝑖 ≠ 𝑗
3. 𝑃(𝐴̅) = 1 − 𝑃(𝐴)
4. Si 𝐴 ⊆ 𝐵 ⇒ 𝑃(𝐴) ≤ 𝑃(𝐵) con 𝐴, 𝐵 ∈ 𝑆
5. 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵) con 𝐴, 𝐵 ∈ 𝑆
6. 𝑃(⋃𝑘𝑖=1 𝐴𝑖 ) ≤ ∑𝑘𝑖=1 𝑃(𝐴𝑖 ) con 𝐴𝑖 ∈ 𝑆
3. Probabilidad condicionada
3.1 Definición
Dado un espacio probabilístico (𝛺, 𝑆, 𝑃), y 𝐵 ∈ 𝑆 con probabilidad no nula 𝑃(𝐵) > 0. Sea A un
suceso cualquiera de S, llamaremos probabilidad del suceso A condicionada a B, y se representará
por 𝑃(𝐴/𝐵), a
𝑃(𝐴 ∩ 𝐵)
𝑃(𝐴/𝐵) =
𝑃(𝐵)
La probabilidad condicionada 𝑃(𝐴/𝐵) representa la probabilidad de que ocurra el suceso A bajo el
supuesto de que ha ocurrido B.
Ejemplo
Supongamos que tiramos tres veces una moneda equilibrada y se sabe que en la primera salió cara.
¿Cuál es la probabilidad de obtener al menos dos cara?
Llamaremos :
𝐴 ≡ "Sacar al menos dos cara en los tres lanzamientos" 𝑃(𝐴∩𝐵) 3/8 3
⇒ 𝑃(𝐴/𝐵) = 𝑃(𝐵) = 4/8 = 4 = 0,75
𝐵 ≡ "Sacar cara en el primer lanzamiento"
Luis Tomillero Gil 4
Teorema
Dado un espacio probabilístico (𝛺, 𝑆, 𝑃), y 𝐵 ∈ 𝑆 con probabilidad no nula 𝑃(𝐵) > 0.
La función 𝑃(⋅/𝐵) que a cada suceso A de S le asocia el número 𝑃(𝐴/𝐵), es una probabilidad.
Demostración
Para ello basta ver que verifica la axiomática de Kolmogórov.
1. 𝑃(𝐴/𝐵) ≥ 0
𝑃(𝐴∩𝐵)≥0
Ya que 𝑃(𝐴/𝐵) = 𝑃(𝐵)≥0
≥0
2. 𝑃(𝛺/𝐵) = 1
𝑃(𝛺∩𝐵) 𝑃(𝐵)
Ya que 𝑃(𝛺/𝐵) = = =1
𝑃(𝐵) 𝑃(𝐵)
3. 𝑃(⋃𝑘𝑖=1 𝐴𝑖 /𝐵) = ∑𝑘𝑖=1 𝑃(𝐴𝑖 /𝐵) con 𝐴𝑛 𝑛 ≥ 1 sucesos incompatibles 2 a 2.
3.2 Propiedades
Como 𝑃(⋅/𝐵) es una medida de probabilidad, se verifican las propiedades derivadas de la axiomática
de Kolmogórov.
1. 𝑃(∅/𝐵) = 0
2. 𝑃(⋃𝑘𝑖=1 𝐴𝑖 /𝐵) = ∑𝑘𝑖=1 𝑃(𝐴𝑖 /𝐵) con 𝐴𝑖 ∈ 𝑆 tal que 𝐴𝑖 ∩ 𝐴𝑗 = ∅ si 𝑖 ≠ 𝑗
3. 𝑃(𝐴̅/𝐵) = 1 − 𝑃(𝐴/𝐵)
4. Si 𝐴1 ⊆ 𝐴2 ⇒ 𝑃(𝐴1 /𝐵) ≤ 𝑃(𝐴2 /𝐵) con 𝐴1 , 𝐴2 , 𝐵 ∈ 𝑆
5. 𝑃(𝐴1 ∪ 𝐴2 /𝐵) = 𝑃(𝐴1 /𝐵) + 𝑃(𝐴2 /𝐵) − 𝑃(𝐴1 ∩ 𝐴2 /𝐵) con 𝐴1 , 𝐴2 , 𝐵 ∈ 𝑆
6. 𝑃(⋃𝑘𝑖=1 𝐴𝑖 /𝐵) ≤ ∑𝑘𝑖=1 𝑃(𝐴𝑖 /𝐵) con 𝐴𝑖 ∈ 𝑆
Demostraciones
Demostración 1
𝑃(∅ ∩ 𝐵) 𝑃(∅) 0
𝑃(∅/𝐵) = = = =0
𝑃(𝐵) 𝑃(𝐵) 𝑃(𝐵)
Demostración 3
𝑃(𝐴̅ ∩ 𝐵) 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵) 𝑃(𝐵) 𝑃(𝐴 ∩ 𝐵)
𝑃(𝐴̅/𝐵) = = = − = 1 − 𝑃(𝐴/𝐵)
𝑃(𝐵) 𝑃(𝐵) 𝑃(𝐵) 𝑃(𝐵)
Demostración 4
𝐴𝑥4 𝐾𝑜𝑙𝑚𝑜𝑔ó𝑟𝑜𝑣
Supongamos que 𝐴1 ⊆ 𝐴2 ⇒ 𝐴1 ∩ 𝐵 ⊆ 𝐴2 ∩ 𝐵 ⇒ 𝑃(𝐴1 /𝐵) ≤ 𝑃(𝐴2 /𝐵)
Las demostraciones 2, 5, 6 no se realizarán por falta de tiempo en el desarrollo de todo el tema, pero
son triviales a partir de los axiomas de Kolmogórov y están relacionadas unas con otras.
Luis Tomillero Gil 5
3.3 Sucesos dependientes e independientes
Supongamos que lanzamos dos monedas equilibradas una tras otro. Intuitivamente, el resultado de
la primera tirada no influye en el resultado de la segunda tirada, serán por tanto sucesos
independientes. En cambio, si consideramos una urna llena de bolas y sacamos dos sin
reemplazamiento, parece evidente que el resultado de la primera extracción si que influirá en el
resultado de la segunda extracción, serán sucesos dependientes. Se tratará de formalizar dichos
conceptos a continuación.
Definición (Sucesos independientes)
Dado un espacio probabilístico (𝛺, 𝑆, 𝑃), y sean A y B sucesos de S con 𝑃(𝐵) > 0. Diremos que los
sucesos A y B son independientes si se verifica que:
𝑃(𝐴/𝐵) = 𝑃(𝐴)
Observación: En el caso de que el suceso A no se vea afectado por el suceso B entonces se dirá que
A y B son independientes.
Proposición
Diremos que dos sucesos A y B son independientes si y solo si se verifica que:
𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) ⋅ 𝑃(𝐵)
Demostración
Supongamos que A y B son independientes
𝑃(𝐴 ∩ 𝐵)
𝑃(𝐴/𝐵) = 𝑃(𝐴) ⇔ = 𝑃(𝐴) ⇔ 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) ⋅ 𝑃(𝐵)
𝑃(𝐵)
Observación: La dependencia es la negación de la independencia. Por tanto, diremos que A y B son
dependientes si no son dependientes, es decir, si:
𝑃(𝐴 ∩ 𝐵) ≠ 𝑃(𝐴) ⋅ 𝑃(𝐵)
Proposición
Dado un espacio probabilístico (𝛺, 𝑆, 𝑃), y sean dos sucesos A y B de S. Si A y B son independientes,
también lo son A y Bc (lo mismo puede afirmarse del par Ac y B o del par Ac y Bc.
Demostración
Supongamos que A y B son independientes ⇒ 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) ⋅ 𝑃(𝐵)
Por otro lado:
indp
𝑃(𝐴 ∩ 𝐵𝑐 ) 𝑃(𝐴) − 𝑃(𝐴 ∩ 𝐵) 𝑃(𝐴) − 𝑃(𝐴) ⋅ 𝑃(𝐵) 𝑃(𝐴)[1 − 𝑃(𝐵)]
𝑃(𝐴/𝐵𝑐 ) = = = = = 𝑃(𝐴)
𝑃(𝐵𝑐 ) 𝑃(𝐵𝑐 ) 𝑃(𝐵𝑐 ) 1 − 𝑃(𝐵)
En consecuencia, A es independiente de Bc. (de forma análoga se pueden demostrar los otros dos
pares).
Proposición
No existe ninguna implicación entre los conceptos de incompatibilidad e independencia.
Luis Tomillero Gil 6
4. Probabilidad compuesta
En el lenguaje de la teoría de probabilidades, la probabilidad compuesta consiste en hallar la
probabilidad de un experimento que se repite varias veces. El juego de los dados que interesó al
caballero de Mére es un ejemplo de prueba repetida.
La prueba consistía en que si se tira un dado cuatro veces la probabilidad de que salga un seis es 4/6,
es decir , una apuesta favorable para el que apuesta, entonces el caballero de Mere pensó en que
tirando dos dados 24 veces era equivalente a tirar uno cuatro veces ya que 4/6 ≡ 24/36.
La duda se le planteó porque cuando jugaba no ganaba en la mayoría de los casos, así que, se lo
planteó a Pascal. Dicho problema lo compartió en sus correspondencias con Fermat los cuales
llegaron a la conclusión de que no era una apuesta favorable el tirar dos dados 24 veces y esperar
que saliese en doble seis.
Otro ejemplo puede ser el siguiente: si tenemos una urna con dos bolas blancas y tres negras, si
realizamos sucesivas extracciones sin devolver la bola, parece razonable que lo que ocurra en cada
extracción influirá en la siguiente.
Tanto como el primer ejemplo como el segundo se tiene que; la probabilidad de un experimento
puede ser afectada por el número de repeticiones en algunas ocasiones (esto dependerá de la
dependencia o independencia de los sucesos). Las técnicas que ayudan a estudiar estos problemas
reciben el nombre de composición de experimentos.
4.1 Teorema del producto
Teorema (Teorema del producto)
Sean n sucesos 𝐴1 , 𝐴2 , … , 𝐴𝑛 ∈ 𝑆 tales que 𝑃(𝐴1 ∩ 𝐴2 ∩ … ∩ 𝐴𝑛 ) > 0 entonces:
𝑃(𝐴1 ∩ 𝐴2 ∩ … ∩ 𝐴𝑛 ) = 𝑃(𝐴1 ) ⋅ 𝑃(𝐴2 /𝐴1 ) ⋅ 𝑃(𝐴3 /𝐴1 ∩ 𝐴2 ) ⋅⋅⋅ 𝑃(𝐴𝑛 /𝐴1 ∩ 𝐴2 ∩ … ∩ 𝐴𝑛−1 )
Ejemplo 1
De un lote de doce artículos, de los cuales cuatro son defectuosos, se toman tres artículos escogidos
al azar uno tras otro. Calcula la probabilidad de que ninguno sea defectuoso.
𝐴1 ≡ "𝐸𝑙 𝑝𝑟𝑖𝑚𝑒𝑟 𝑎𝑟𝑡í𝑐𝑢𝑙𝑜 𝑛𝑜 𝑒𝑠 𝑑𝑒𝑓𝑒𝑐𝑡𝑢𝑜𝑠𝑜"
𝐴2 ≡ "𝐸𝑙 𝑠𝑒𝑔𝑢𝑛𝑑𝑜 𝑎𝑟𝑡í𝑐𝑢𝑙𝑜 𝑛𝑜 𝑒𝑠 𝑑𝑒𝑓𝑒𝑐𝑡𝑢𝑜𝑠𝑜"
𝐴3 ≡ "𝐸𝑙 𝑡𝑒𝑟𝑐𝑒𝑟 𝑎𝑟𝑡í𝑐𝑢𝑙𝑜 𝑛𝑜 𝑒𝑠 𝑑𝑒𝑓𝑒𝑐𝑡𝑢𝑜𝑠𝑜"
8 7 6 14
𝑃(𝐴1 ∩ 𝐴2 ∩ 𝐴3 ) = 𝑃(𝐴1 ) ⋅ 𝑃(𝐴2/𝐴1) ⋅ 𝑃(𝐴3 /𝐴1 ∩ 𝐴2 ) = ⋅ ⋅ =
12 11 10 55
Ejemplo 2
De una urna se sabe que contiene 5 bolas blancas y 3 negros. Si sacamos tres bolas, sin
remplazamiento ¿Cuál es al probabilidad de que los tres sean blancas?
𝐵1 ≡ "𝐸𝑥𝑡𝑟𝑎𝑒𝑟 𝑢𝑛𝑎 𝑏𝑜𝑙𝑎 𝑏𝑙𝑎𝑛𝑐𝑎 𝑒𝑛 𝑙𝑎 𝑝𝑟𝑖𝑚𝑒𝑟𝑎 𝑒𝑥𝑡𝑟𝑎𝑐𝑐𝑖ó𝑛"
𝐵2 ≡ "𝐸𝑥𝑡𝑟𝑎𝑒𝑟 𝑢𝑛𝑎 𝑏𝑜𝑙𝑎 𝑏𝑙𝑎𝑛𝑐𝑎 𝑒𝑛 𝑙𝑎 𝑠𝑒𝑔𝑢𝑛𝑑𝑎 𝑒𝑥𝑡𝑟𝑎𝑐𝑐𝑖ó𝑛"
𝐵3 ≡ "𝐸𝑥𝑡𝑟𝑎𝑒𝑟 𝑢𝑛𝑎 𝑏𝑜𝑙𝑎 𝑏𝑙𝑎𝑛𝑐𝑎 𝑒𝑛 𝑙𝑎 𝑡𝑒𝑟𝑐𝑒𝑟𝑎 𝑒𝑥𝑡𝑟𝑎𝑐𝑐𝑖ó𝑛"
5 4 2 5
𝑃(𝐵1 ∩ 𝐵2 ∩ 𝐵3 ) = 𝑃(𝐵1 ) ⋅ 𝑃(𝐵2 /𝐵1 ) ⋅ 𝑃(𝐵3 /𝐵1 ∩ 𝐵2 ) = ⋅ ⋅ =
8 7 6 28
Luis Tomillero Gil 7
5. Teorema de la Probabilidad Total
Teorema (Probabilidad total)
Dado un espacio probabilístico (𝛺, 𝑆, 𝑃) , si 𝐴1 , 𝐴2 , … , 𝐴𝑛 ∈ 𝑆 es una colección de sucesos
mutuamente excluyentes (𝐴𝑖 ∩ 𝐴𝑗 = ∅ con 𝑖 ≠ 𝑗), todos con probabilidad no nula y 𝛺 = ⋃𝑛𝑖=1 𝐴𝑖 , se
verifica para todo 𝐵 ∈ 𝑆.
𝑛
𝑃(𝐵) = ∑ 𝑃(𝐴𝑖 ) ⋅ 𝑃(𝐵/𝐴𝑖 )
𝑖=1
Demostración
Escribamos el suceso B de la siguiente manera
𝐵 = 𝐵 ∩ 𝛺 = 𝐵 ∩ (⋃𝑛𝑖=1 𝐴𝑖 ) = ⋃𝑛𝑖=1 𝐵 ∩ 𝐴𝑖
Entonces: [Link] P. cond
𝑃(𝐵) = 𝑃(⋃𝑛𝑖=1 𝐵 ∩ 𝐴𝑖 ) = ∑𝑛𝑖=1 𝑃(𝐵/𝐴𝑖 ) = ∑𝑛𝑖=1 𝑃(𝐴𝑖 ) ⋅ 𝑃(𝐵/𝐴𝑖 )
Ejemplo
Se dispone de tres urnas 𝑢1 , 𝑢2 , 𝑢3 cada una de las cuales contienen bolas blancas y negras de la
siguiente manera: 𝑢1 = {5𝐵, 3𝑁}, 𝑢2 = {3𝐵, 4𝑁},𝑢3 = {2𝐵, 8𝑁}.
Se realiza el siguiente experimento, se elige una urna al azar y se extrae una bola de dicha urna. ¿Cuál
es la probabilidad de que la bola resultante sea Blanca?
𝐵 ≡ "𝑆𝑎𝑐𝑎𝑟 𝑢𝑛𝑎 𝑏𝑜𝑙𝑎 𝑏𝑙𝑎𝑛𝑐𝑎"
5
𝑈1 ≡ "Elegir la urna uno" → 𝑃(𝑈1) = 1/3 → 𝑃(𝐵/𝑈1 ) =
8
3
𝑈2 ≡ "Elegir la urna dos" → 𝑃(𝑈2) = 1/3 → 𝑃(𝐵/𝑈2) =
7
2
𝑈3 ≡ "Elegir la urna tres" → 𝑃(𝑈2 ) = 1/3 → 𝑃(𝐵/𝑈3 ) =
10
1 5 1 3 1 2 117
𝑃(𝐵) = 𝑃(𝑈1 ) ⋅ 𝑃(𝐵/𝑈1 ) + 𝑃(𝑈2 ) ⋅ 𝑃(𝐵/𝑈2 ) + 𝑃(𝑈3 ) ⋅ 𝑃(𝐵/𝑈3 ) = ⋅ + ⋅ + ⋅ =
3 8 3 7 3 10 180
6. Teorema de Bayes
Teorema (Probabilidad total)
Dado un espacio probabilístico (𝛺, 𝑆, 𝑃) , si 𝐴1 , 𝐴2 , … , 𝐴𝑛 ∈ 𝑆 es una colección de sucesos
mutuamente excluyentes (𝐴𝑖 ∩ 𝐴𝑗 = ∅ con 𝑖 ≠ 𝑗), todos con probabilidad no nula y 𝛺 = ⋃𝑛𝑖=1 𝐴𝑖 , se
verifica para todo 𝐵 ∈ 𝑆.
𝑃(𝐵/𝐴𝑗 ) ⋅ 𝑃(𝐴𝑗 )
𝑃(𝐴𝑗 /𝐵) = , 𝑐𝑜𝑛 𝑗 = 1, 2, … , 𝑛
∑𝑛𝑖=1 𝑃(𝐴𝑖 ) ⋅ 𝑃(𝐵/𝐴𝑖 )
Luis Tomillero Gil 8
Demostración
Teniendo en cuenta la definición de probabilidad condicionada y el teorema de la probabilidad total,
se obtiene: P. cond
𝑃(𝐴𝑗 ∩ 𝐵) 𝑃(𝐵/𝐴𝑗 ) ⋅ 𝑃(𝐴𝑗 )
𝑃(𝐴𝑗 /𝐵) = = 𝑛
𝑃(𝐵) ∑𝑖=1 𝑃(𝐵/𝐴𝑖 ) ⋅ 𝑃(𝐴𝑖 )
P. total
Ejemplo
Se dispone de dos urna 𝑢1 , 𝑢2 donde 𝑢1 = {4𝐵, 3𝑁} y 𝑢2 = {2𝐵, 6𝑁}. Si se sabe que se ha extraído
una bola blanca ¿Cuál es la probabilidad de que provenga de la urna dos?
𝐵 ≡ "𝐸𝑥𝑡𝑟𝑎𝑒𝑟 𝑢𝑛𝑎 𝑏𝑜𝑙𝑎 𝑏𝑙𝑎𝑛𝑐𝑎"
𝑈1 ≡ "Coger una bola de la urna uno"
𝑈2 ≡ "Coger una bola de la una dos"
Entonces:
1 2
𝑃(𝑈2 ∩ 𝐵) ⋅ 6
𝑃(𝑈2 /𝐵) = = 2 8 =
𝑃(𝐵) 1 4 1 2 23
2⋅7+2⋅8
Tanto el teorema de la probabilidad total como el de Bayes son teoremas muy importantes para el
cálculo de probabilidades, además, muy intuitivos si se realizan previamente un diagrama de árbol.
7. Conclusión
Dentro del estudio de la Estadística pueden considerarse dos grandes ramas la Estadística
Descriptiva, que trata del recuento, ordenación y clasificación de datos obtenidos mediante
observaciones y la Estadística Inferencial, que hace uso del cálculo de probabilidades, describe,
predice y generaliza a una población a partir de la información obtenida de ello.
En este tema, hemos desarrollado una parte de esa Estadística Inferencial comenzando con una
introducción histórica y con conceptos básicos. A continuación, hemos hablado de la probabilidad
condicionada y la probabilidad compuesta. Finalmente hemos enunciado y demostrado dos
teoremas muy importantes para el cálculo de probabilidades.
8. Bibliografía
• BOYER C: Historia de las matemáticas.
• Apóstol T. Calculus Vol II.
• RIOS S: Análisis estadístico aplicado.
• Cramer H: Métodos matemáticos de estadística.
• Cramer H: Elementos de la teoría de probabilidades.
• Cramer H: Teoría de probabilidades y aplicaciones.
• Morris H: Probabilidad y Estadística.
Luis Tomillero Gil 9
[Link]