Nociones PyE CC
Nociones PyE CC
de Probabilidades y Estadística
Curso para Ciencia de la Computación
Z x
1 − t2
φ(x) = √ e 2 dt
−∞ 2π
P (B ∩ N2 ) =?
N2
B2
B 3 2 3
2 5 P (B ∩ B2 ) = 5
· 5
5
B2
P (N ∩ B2 ) =?
1
2
P (B|Ak )P (Ak )
P (Ak |B) = Pn
i=1 P (B|Ai )P (Ai )
MDCCXXVII MCMXXXIX
i
Índice general
Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Anexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
B Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
B.1 Definiciones elementales 227
B.2 Propiedades básicas 229
G Tablas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
G.1 Tabla de la distribución Binomial 244
G.2 Tabla de la distribución χ2 245
G.3 Tabla de la distribución t-Student 247
G.4 Tabla de la distribución Normal 248
G.5 Tabla de la distribución F de Fisher-Snedecor 249
G.6 Tabla del Test de Rachas 264
G.7 Tabla del Test de Kolmogorov–Smirnov 265
Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
Prefacio
Capítulo 1
numéricos.
Definición 1.1.3 (Espacio muestral) Al conjunto Ω de todos los eventos simples rela-
cionados con un experimento aleatorio se le conoce como espacio muestral. Al conjunto
Ω se le conoce también como el evento cierto.
Por ejemplo en el lanzamiento de un dado
Ω = {1, 2, 3, 4, 5, 6},
en el caso de la moneda
Ω = {cara, cruz}.
El complemento de Ω es evidentemente el conjunto vacío ∅, o sea es el evento que nunca
ocurre y se le conoce como evento imposible o conjunto vacío. El espacio muestral puede ser
finito, infinito numerable o infinito. Más adelante volveremos sobre este tema en particular
Definición 1.1.4 (Campo de Eventos) No es más que el conjunto A de partes de Ω
que cumple:
1. Ω ∈ A.
2. Si A ∈ A entonces Ac ∈ A.
P
3. Si (Ai )i∈N ∈ A entonces i∈N Ai ∈ A.
mencionamos en un inicio, la probabilidad no es más que una forma de medir cuán plausi-
ble es la ocurrencia de un suceso determinado. En ese sentido existen algunas definiciones
básicas que nos van a permitir comprender mejor este concepto.
por tanto
card A 3 1
P (A) = = = .
card Ω 36 12
Antes de continuar es importante hacer algunos comentarios acerca del muestreo con
reemplazo y el muestreo sin reemplazo. A veces se utiliza el término muestreo con re-
posición o sin reposición. El primer caso, muestreo con reemplazo, está relacionado con
situaciones donde las condiciones que definen a un experimento aleatorio se mantiene
invariantes si dicho experimento se repite más de una vez.
Un ejemplo sencillo es cuando se tiene una urna que contiene 5 bolas blancas y 4 bolas
azules. Supongamos que el experimento consiste en sacar una bola de la urna. En ese caso
si se asume que estamos utilizando muestreo con reemplazo entonces al sacar una bola, se
anota o se registra el color que se observa y se repone a la caja una bola del mismo color,
o lo que es lo mismo se devuelve la bola a la urna. Si se repite el experimento una vez más
las condiciones son exactamente las mismas y por ejemplo la probabilidad de sacar una
bola azul de la urna sería siempre 49 . O sea de cierta forma los experimentos no afectan a
las probabilidades que nos interesan
Si el mismo problema se analiza a partir del muestreo sin remplazo, entonces la proba-
bilidad de sacar una bola azul la primera vez sería en efecto 49 . Sin embargo, si se asume
6 1. Probabilidades. Nociones elementales
que realmente se sacó una bola azul la primera vez, entonces la probabilidad de sacar una
bola azul la segunda vez sería 38 , porque la primera bola sacada fue azul. Si la primera bola
que se sacó fue blanca, entonces es inmediato la probabilidad de sacar una bola azul la
segunda vez se convierte a 48 . Note que en este caso, la probabilidad de sacar una segunda
bola azul, depende de hecho del resultado de la primera extracción.
Estos dos conceptos estan muy relacionados con la independencia de sucesos, la cuál
veremos más adelante.
By
60 E = {|Ax − By | ≤ 15}
45
30
15
Ax
0 15 30 45 60
1.2. Probabilidad axiomática 7
k1) P (A) ≥ 0 ∀ A ∈ A.
k2) P (Ω) = 1.
8 1. Probabilidades. Nociones elementales
i. P (∅) = 0.
vii. 0 ≤ P (A) ≤ 1 ∀ A ∈ A.
Demostración
i. Para demostrar que P (∅) = 0 escribamos lo siguiente
Ω = Ω ∪ ∅ ∪ ∅ · · · ∪ ∅.
Por tanto
∞
X
P (∅) = 0.
i=1
1.2. Probabilidad axiomática 9
Se sabe por k1) que P (A) ≥ 0 para todo A ∈ A, en particular ∅ ∈ A, por tanto es
inmediato que
P (∅) = 0.
vii. Es inmediato.
Este esquema está muy relacionado con el concepto de muestreo con reemplazamiento.
Esquema Hipergeométrico
Este esquema a su vez se relaciona con el muestreo sin reemplazamiento y consiste en
un experimento donde se tiene una muestra de N individuos clasificados en dos grupos
G1 y G2 , el primero con n elementos y el segundo con N − n elementos y el experimento
consiste en sacar m elementos, sin reemplazamiento, de la población. Bajo estas condicio-
nes podemos definir el suceso Bk como el número de elementos del grupo G1 que fueron
seleccionados entre los m de la muestra. En ese caso se puede verificar que
n N −n
k m−k
P (Bk ) = N
.
m
Un ejemplo sencillo de este esquema es el siguiente. Suponga que se tiene una urna con 6
bolas rojas y 4 bolas azules. Se extraen sin reemplazamiento 5 bolas, cuál es la probabilidad
de que se hayan sacado 2 bolas rojas:
6 4
10
P (B3 ) = 2 103 = .
5
21
Este esquema se puede generalizar sin dificultad para poblaciones que tengan más de
dos grupos.
P (AB)
P (A|B) = .
P (B)
El mismo problema analizado desde el punto de vista del espacio condicional es muy
sencillo. En este caso el espacio condicional tiene solamente 18 elementos en vez de 36.
Utilizando los conceptos de probabilidad clásica es sencillo verificar que solamente hay
dos pares que son favorables a que la suma de sus valores sea 9, por tanto se llega al
mismo resultado.
Veamos un concepto que juega un papel muy importante en la teoría de probabilidades:
la independencia. Este concepto ha sido muy importante en el desarrollo de resultados
teóricos y aplicados en el marco de las probabilidades. A pesar de su importancia en
muchos casos resulta difícil verificar la independencia. En otros casos, por intuición, se
puede asumir que se satisface en algunos problemas concretos. Sin embargo, asumir que
existe independencia ha servido para encontrar modelos iniciales que permiten describir
situaciones complejas.
P (A|B) = P (A),
12 1. Probabilidades. Nociones elementales
o equivalentemente
P (AB) = P (A)P (B).
La definición anterior se puede generalizar para dos o más sucesos:
Definición 1.2.4 (Sucesos mutuamente independientes) Sean A1 , A2 , · · · , An un
conjunto de sucesos definidos en (Ω, A, P ), se dice que se dice que A y B son mutua-
mente independientes si son independientes dos a dos, tres a tres, · · · , n a n, o sea si
se cumple que
y
1 ≤ i1 < i2 < · · · ik ≤ n.
Otro resultado interesante que involucra a la probabilidad condicional es el siguiente
Note que la selección de los sucesos con los que se calculan las probabilidades condicio-
nales son arbitrarios y dependen de cada problema en particular. Se recomienda que el
estudiante deduzca la fórmula correspondiente para el caso de n sucesos A1 , A2 , · · · , An .
Demostración
Para comprender mejor las hipótesis del teorema veamos la siguiente figura para un
caso particular con n = 5:
A4 A5
A1 A2 A3 Ω
En el ejemplo los Ai forman una partición del espacio muestral Ω, sin embargo no es
una condición necesaria. En el caso general se asume que B ⊂ A1 + · · · + An , por tanto
B = B · (A1 + A2 + · · · + An ) = B · A1 + B · A2 + · · · + B · An .
P (B) = P (B · (A1 + A2 + · · · + An )) = P (B · A1 + B · A2 + · · · + B · An )
= P (B · A1 ) + P (B · A2 ) · · · + P (B · An )
= P (B|A1 )P (A1 ) + P (B|A2 )P (A2 ) · · · + P (B|An )P (An )
Xn
= P (B|Ak )P (Ak ).
k=1
El Teorema de Bayes es un resultado cuya demostración es muy sencilla, pero sus aplica-
ciones se pueden encontrar en muchas ramas del conocimiento.
14 1. Probabilidades. Nociones elementales
Demostración
Utilicemos la definición de probabilidad condicional y la Fórmula de Probabilidad
Total
P (Ak B) P (BAk ) P (B|Ak )P (Ak )
P (Ak |B) = = =
P (B) P (B) P (B)
P (B|Ak )P (Ak )
= Pn .
P (B|Ai )P (Ai )
i=1
Veamos algunos ejemplos. El primero relacionado con una situación de diagnóstico en
médicina. Suponga que en una región determinada se conoce que cierta enfermedad está
presente en 20 de cada 100 hombres y en 10 de cada 100 mujeres. Si se conoce que
en la población un cuarto es masculina, entonces si se selecciona una persona al azar
que padece la enfermedad, cuál es la probabilidad que sea un hombre. Para resolver el
problema definamos los eventos de trabajo:
E: Padecer la enfermedad.
H: Ser hombre.
M : Ser mujer.
Nos interesa calcular la siguiente probabilidad condicional P (H|E). Es obvio que dicha
probabilidad “no está en el sentido correcto”, es decir, intuitivamente tiene más sentido
hallar P (E|H), ya que la enfermedad se comporta diferente de acuerdo al género. Este
razonamiento ligado al hecho que conocemos que
1 1 1 3
P (E|H) = , P (M |H) = , P (H) = , P (M ) = 1 − P (H) = ,
5 10 4 4
nos induce a pensar en utilizar Bayes, o sea
1
P (E|H)P (H) 5
· 14 2
P (H|E) = = 1 = .
P (E|H)P (H) + P (E|M )P (M ) 5
· 41 + 10 1
· 3
4
5
Para darle solución al problema debemos definir los eventos correspondientes. Escri-
bamos
B1 : Sacar una bola blanca de la primera urna.
N1 : Sacar una bola negra de la primera urna.
B2 : Sacar una bola blanca de la segunda urna.
A partir de estas definiciones de eventos es inmediato que nos interesa hallar
Como en el caso anterior, es mejor utilizar Bayes. El problema adicional aquí es el número
de elementos que influyen en la acción de extraer una bola de la segunda urna. Un rápido
análisis de la situación nos lleva a que existen 4 casos posibles. Definamos
4 4 4 4
C1 = 3B1 , C2 = 2B1 N1 , C3 = B1 2N2 , C4 = 3N1 .
A partir del esquema hipergeométrico es fácil hallar las probabilidades asociadas a los Ci :
4 4
6 4
6 6
3 4 2 1 36 1 2 60 3 20
P (C1 ) = 10
= , P (C2 ) = 10
= , P (C3 ) = 10
= , P (C4 ) = 10
= ,
3
120 3
120 3
120 3
120
B2
1.3.1 Generalidades
Una variable aleatoria no es más que un caso particular de una función medible,
concepto que proviene de la teoría de la medida. No es objetivo de este curso adentrarse
en los aspectos téoricos relacionados con el concepto de variable aleatoria, sin embargo
ofrecemos su definición formal
Definición 1.3.1 (Variable Aleatoria) Sea (Ω, A, P ) un espacio de probabilidad. Di-
remos que la función X : Ω → R es una variable aleatoria si su preimagen pertenece
al campo de eventos, i.e.:
Teorema 1.3.1 Sea X(ω) una variable aleatoria definida sobre (Ω, A, P ) y que toma va-
lores en (R, B(R)). Sea además una función f una función boreliana, entonces f (X(ω))
es también una variable aleatoria.
El concepto de función boreliana está relacionado con conceptos de medida y no es de
interés del curso, sin embargo un resultado que puede resultar más útil es el siguiente
Teorema 1.3.3 Sean X y Y dos variables aleatorias, entonces también son variables
aleatorias: X + Y , X − Y , máx(X, Y ), mı́n(X, Y ), X · Y y X
Y
si Y (ω) 6= 0, ω ∈ Ω.
Definición 1.3.3 (Función de Distribución) Sea X una variable aleatoria definida so-
bre (Ω, A, P ) y que toma valores en (R, B(R), PX ), entonces su función de distribución
se define como
1. FX es no decreciente.
5. P (X = x) = FX (x) − FX (x− ).
En algunos textos se define la función de distribución como FX (t) = P (X < t). Esta
definición no afecta la formulación general, solamente algunas propiedades particulares.
Los conceptos de independencia y probabilidad condicional se discutirán más adelante
cuando se trate el tema de vectores aleatorios.
Existen muchos tipos de variables aleatorias. En el curso vamos a trabajar con las
variantes clásicas: variables aleatorias discretas y variables aleatorias continuas. En cada
caso ofreceremos las propiedades asociadas a cada caso.
PX (x) = P (X = x),
Teorema 1.3.5 Sea X una variable aleatoria discreta definida sobre (Ω, A, P ) entonces
X X
P (S = s) = P (X = s − y)P (Y = y) = P (X = x)P (Y = s − x),
y∈R x∈R
y X
P (C = c) = |y|P (X = cy)P (Y = y).
y∈R
P (X = x) = px (1 − p)1−x .
P (X = x) = (1 − p)x−1 p.
En algunos textos esta variable se define como el número de éxitos hasta el primer
fallo. Es importante aclarar que esta definición en sí no reporta cambio alguno,
solamente basta con redefinir el éxito como Ac y escribir p0 = 1 − p y el resultado
es exactamente el mismo.
λx e−λ
P (X = x) = .
x!
Una variable con distribución de Poisson se asocia a problemas donde se analizan
sucesos con probabilidades muy pequeñas. En general una variable Poisson se in-
terpreta como el número de veces que ocurre un suceso determinado en un cierto
intervalo de tiempo o una región específica, donde λ representa el número de veces
que se espera que ocurra el suceso en consideración.
La distribución de Poisson tiene un extenso rango de aplicaciones, usualmente se
puede utilizar para analizar el número de desintegraciones de átomos radioactivos,
el número de errores en una página de un libro, demandas de servicio, problemas de
colas, por mencionar algunos. También se puede obtener la distribución de Poisson
como la distribución límite de una binomial cuando n tiende a infinito, p tiende a
cero y np tiende a λ.
Analicemos esta última afirmación en un ejemplo. Supongamos que se tiene un
recinto con un volumen V con un número muy grande N de individuos que se
encuentran distribuidos uniformemente y se selecciona una parte de dicho recinto
cuyo volumen es D. ¿Cuál es la probabilidad de que se hallen x individuos en la
muestra? Por la formulación es inmediato que se debe utilizar una distribución de
Poisson, pero ¿cómo se debe proceder?
Si suponemos que los individuos están distribuidos al azar uniformemente en el
recinto en cuestión, entonces en la muestra seleccionada, la probabilidad de encontrar
individuos por unidad de volumen es D V
la cual puede considerarse constante para
una muestra con volumen D. De esa forma se obtiene que la probabilidad buscada
es
x N −x
N D D
P (X = x) = 1− .
x V V
La expresión anterior se puede reescribir de la siguiente forma
x N −x
N D D
P (X = x) = 1−
x V V
x N −x
N! DN DN
= 1−
x!(N − x)! V N VN
x N −x
N (N − 1) · · · (N − x + 1) DN DN
= 1− .
x!N x V VN
λx e−λ
P (X = x) = .
x!
Teorema 1.3.7 Sea X una variable aleatoria continua definida sobre (Ω, A, P ) entonces
1. f (t) ≥ 0, ∀ t ∈ R.
∂FX (t)
2. f (t) = ∂t
.
+∞
R
3. FX (+∞) = f (t)dt = 1.
−∞
5. P (X = x) = 0, ∀ x ∈ R.
Rb
6. P (a < X ≤ b) = FX (b) − FX (a) = a
f (t)dt.
Es interesante anotar que las variables aleatorias discretas se pueden escribir de forma
general desde el punto de vista de funciones de densidad. Sea X una variable aleatoria
discreta cuya imagen pertence a un cierto conjunto B ∈ R finito o a lo sumo numerable.
Supongamos P que X toma los valores (bi )i∈I con probabilidad pi = P (X = bi ), para todo
i ∈ I tal que i∈I pi = 1 entonces
X Z x
FX (x) = P (X = t) = δ(t)dt,
t≤x −∞
donde X
δ(t) = pi 1bi (t).
i∈I
Al igual que el caso discreto se obtiene el siguiente resultado concierne a la suma y al
cociente de variables aleatorias independientes
Teorema 1.3.8 Sean X y Y variables aleatorias independientes continuas con funciones
X
de densidad f y g respectivamente. Sean las variables aleatorias S = X + Y y C = Y
,
para Y 6= 0, entonces
Z Z
fS (s) = f (s − y)g(y)dy = f (x)g(s − x)dx,
R R
y Z
fC (c) = |y|f (cy)g(y)dy.
R
φ(−x) = 1 − φ(x).
Esta propiedad es inherente a todas las distribuciones continuas que sean simétricas
con respecto a cero.
Por tanto
∂ −1
g(y) = f ϕ−1 (y) ϕ (y) = f (µ + σy) |σ|
∂y
1 1 2 1 y2
= √ e− 2σ2 (µ+σy−µ) σ = √ e− 2 .
2πσ 2π
1 √
fZ 2 (t) = √ fZ ( t),
t
P
5. Si Xi ∼ P oisson(λi ), ∀ i entonces Sn ∼ P oisson( λi ).
6. Si Xi ∼ χ2 (ni ), ∀ i entonces Sn ∼ χ2 ( ni ).
P
P
7. Si Xi ∼ Γ(λ, αi ), ∀ i entonces Sn ∼ Γ(λ, σi ).
26 1. Probabilidades. Nociones elementales
Note que este teorema nos permite obtener relaciones muy interesantes e intuitivas, como
por ejemplo que una variable aleatoria binomial es la suma de variables aleatorias inde-
pendientes con distribución Bernoulli y que la binomial negativa se puede expresar de la
misma forma a partir de variables aleatorias independientes con distribución geométrica.
El valor esperado se puede interpretar como el valor que se espera que tome una variable
aleatoria, como una especie de promedio o media. Es importante aclarar que algunos casos
el valor esperado no es exactamente un valor que tome la variable aleatoria como tal. Esto
puede suceder frecuentemente con variables aleatorias discretas, es por ese motivo que se
debe prestar atención a la interpretación de E(X) en cada caso.
Por tanto
Es obvio que este razonamiento se puede aplicar para la suma de otras variables
aleatorias independientes, con lo cual se puede reducir el número de cálculos a
realizar si el problema así lo permite.
2. Sea X ∼ Geom(p).
∞
X ∞
X ∞
X
k−1
E(X) = kP (X = k) = kp(1 − p) =p k(1 − p)k−1
k=1 k=1 k=1
(Escribamos en la sumatoria q = 1 − p < 1)
∞ ∞
X
k−1
X ∂ k
= p kq =p q
∂q
k=1 k=1
(Intercambiamos sumatoria con derivada)
∞
!
∂ X k 1 1
= p q =p· 2
= .
∂q (1 − q) p
k=1
El paso donde sePintercambia derivada con sumatoria se puede realizar debido a que
la serie infinita ∞ k
k=1 q es convergente.
Hallemos E(X 2 ):
∞
X ∞
X ∞
X
2 2 2 k−1
E(X ) = k P (X = k) = k p(1 − p) =p k 2 (1 − p)k−1
k=1 k=1 k=1
(Escribamos en la sumatoria q = 1 − p < 1)
∞ ∞ ∞ ∞
X
2 k−1
X ∂ k
X ∂ k
X ∂ k
= p k q =p (kq ) = p (k + 1)q − p q
∂q ∂q ∂q
k=1 k=1 k=1 k=1
∞
!
∂ 2 X k+1 1 2 1 2 1
= p 2 q − =p· 3
− = 2− .
∂q p (1 − q) p p p
k=1
1.3. Variables aleatorias 29
Por tanto
3. Sea X ∼ Exp(λ).
Z Z ∞
E(X) = tf (t)dt = λte−λt dt
R 0
(Integrando por partes)
(u = t, dv = λe−λt dt ⇒ du = dt, v = −e−λt )
Z ∞
∞
−λt
= −te + λe−λt dt
0 0
1 ∞ 1
= − e−λt = .
λ 0 λ
Para hallar E(X 2 ) se realiza un procedimiento similar, pero integrando por partes
dos veces. Se recomienda al estudiante que realice el cálculo y compruebe que
2
E(X 2 ) = .
λ2
Por tanto
4. Sea X ∼ N (µ, σ 2 ).
Z Z
t 1 2
E(X) = tf (t)dt = √ e− 2σ2 (t−µ) dt
R R 2πσ
t − µ − 12 (t−µ)2
Z Z
1 1 2
= µ √ e− 2σ2 (t−µ) dt + √ e 2σ dt
R 2πσ R 2πσ
(Realizando un cambio de variable en la segunda integral x = t − µ)
Z
x x2
= µ+ √ e− 2σ2 dx
R 2πσ
(La función en la integral es impar sobre un intervalo simétrico)
= µ.
30 1. Probabilidades. Nociones elementales
(t − µ)2 − 12 (t−µ)2
Z
2
V (X) = E X − E(X) = √ e 2σ dt
R 2πσ
t−µ
Realizando un cambio de variable en la integral x =
σ
2 Z
σ x2
= √ x2 e− 2 dx
2π R
(Utilizando la identidad de la función Gamma (ver Anexo E))
= σ2.
1.4.1 Introducción
¿Cómo definir un vector aleatorio?
Definición 1.4.1 (Vector Aleatorio) Se dice que X = (X1 , · · · , Xn ) es un vector
aleatorio definido sobre el espacio de probabilidad (Ω, A, P ) si X es una función del
espacio muestral en Rn , tal que
Esta definición se puede interpretar como una generalización del concepto de variable
aleatoria. Sin embargo para los efectos del curso vamos a utilizar una definición más
intuitiva y que en algunos textos se presenta como teorema. Su demostración excede los
objetivos de este curso y por tal motivo la presentamos como una caracterización del
concepto de vector aleatorio.
Definición 1.4.2 (Vector Aleatorio. Segunda formulación) Diremos que el vector
X = (X1 , · · · , Xn ) es un vector aleatorio si cada una de sus componentes es una variable
aleatoria.
Como es de esperar se tiene además la siguiente definición
Definición 1.4.3 (Función de Distribución Conjunta) Sea X = (X1 , · · · , Xn ) un
vector aleatorio definido en (Ω, A, P ) que toma sus valores en Rn , entonces su función
de distribución conjunta se define como
3. Límites al infinito:
lı́m FX (x1 , x2 , · · · , xn ) = 0,
xj →−∞
para cada j = 1, · · · , n,
lı́m FX (x1 , x2 , · · · , xn ) = 1.
xj →+∞
j=1,··· ,n
Además se tiene el siguiente resultado relacionado con las distribuciones asociadas a cada
componente del vector aleatorio
FXi1 ,Xi2 ,··· ,Xik (xi1 , xi2 , · · · , xik ) = FXi1 (x1 )FXi2 (x2 ) · · · FXik (xk ), ∀ k : 1 ≤ k ≤ n,
y
1 ≤ i1 < i2 < · · · ik ≤ n.
32 1. Probabilidades. Nociones elementales
Teorema 1.4.4 Sea un vector aleatorio discreto (X, Y ) definido en (Ω, A, P ) con función
de distribución conjunta FX,Y , entonces
2. FX,Y es continua por la derecha en cada variable, dejando las demás fijas.
3. Límites al infinito:
XX
FX,Y (+∞, +∞) = lı́m FX,Y (x, y) = P (X = x, Y = y) = 1.
x→+∞
y→+∞ x∈R y∈R
4. P (a < X ≤ b, c < Y ≤ d) = FX,Y (b, d) − FX,Y (a, d) − FX,Y (b, c) + FX,Y (a, c).
P (X = x, Y = y) = P (X = x)P (Y = y), ∀ x, y ∈ R.
P (X ≤ x, Y = y)
F (x|Y = y) = P (X ≤ x|Y = y) = , ∀x ∈ R.
P (Y = y)
Esa definición tiene propiedades muy similares a las vistas antes para el valor esperado
de variables aleatorias, en particular cuando X y Y son independientes se cumple que
E(X|Y = y) = E(X).
X
1 2 3 PY
1 10 50 146
0 6 36 216 216
Y 7 20 62
1 0 36 216 216
1 2 8
2 0 36 216 216
1 1 1
PX 6 2 3
Se recomienda al estudiante que realice los cálculos correspondientes para verificar los
resultados que se muestran en la tabla anterior.
Note además como en la misma tabla donde se describe la función de probabilidad
conjunta se pueden escribir también las funciones de probabilidad marginal para cada
variable. En el caso de la función de distribución conjunta se obtiene la siguiente tabla
utilizando la definición
X
1 2 3
1 16 146
0 6 36 216
x −∞ 1 2 3 y −∞ 0 1 2
208 214 146 188
F (x) 0 216 216
1 G(y) 0 216 216
1
Es importante aclarar que las distribuciones marginales se pueden hallar por dos vías,
la primera a partir de la probabilidad marginal de la variable aleatoria en cuestión o a
partir del límite de la distribución conjunta. Este resultado es inmediato a partir de la
definición, o sea para el caso de X por ejemplo
X
F (x) = P (X ≤ x) = P (X = s)
s≤x
XX
= P (X = s, Y = y) = FX,Y (x, +∞) = lı́m FX,Y (x, y)
y→+∞
s≤x y∈R
X
= P (X = x, Y = y),
(x,y)∈Bs
1. P (X ≤ Y ).
Escribamos el conjunto B = {(1, 1); (1, 2); (2, 2)}, por tanto
X
P (X ≤ Y ) = P (X, Y ) ∈ B = P (X = x, Y = y)
(x,y)∈B
= P (X = 1, Y = 1) + P (X = 1, Y = 2) + P (X = 2, Y = 2)
1 1
= 0+0+ = .
36 36
P (X ≤ x, Y = 2)
F (x|Y = 2) = P (X ≤ x|Y = 2) = , ∀x ∈ {1, 2, 3},
P (Y = 2)
38 1. Probabilidades. Nociones elementales
P (X = s, Y = 2)
P (X = s|Y = 2) = , ∀s ∈ {1, 2, 3},
P (Y = 2)
o sea
x 1 2 3
3 1
P (X = x|Y = 2) 0 4 4
Por tanto
x −∞ 1 2 3
3
F (x|Y = 2) 0 0 4
1
Teorema 1.4.6 Sea un vector aleatorio continuo (X, Y ) definido en (Ω, A, P ) con función
de distribución conjunta FX,Y , entonces
2. FX,Y es continua por la derecha en cada variable, dejando las demás fijas.
∂2
f (x, y) = FX,Y (x, y).
∂x∂y
4. Límites al infinito:
5. P (a < X ≤ b, c < Y ≤ d) = FX,Y (b, d) − FX,Y (a, d) − FX,Y (b, c) + FX,Y (a, c).
6. P (X = x, Y = y) = 0.
Teorema 1.4.7 Sea X y Y dos variables aleatorias independientes con densidades f (x)
y g(y) respectivamente. Sea f (x, y) la densidad conjunta del vector (X, Y ), y sean
S =X +Y y C = X Y
, para Y 6= 0, entonces
Z Z
fS (s) = f (s − y, y) = f (s − y)g(y)dy,
R R
y Z Z
fC (c) = |y|f (cy, y)dy = |y|f (cy)g(y)dy.
R R
1.4. Vectores aleatorios 41
f (x, y) = f (x)g(y), ∀ x, y ∈ R.
En algunos casos con distribuciones continuas es sencillo hallar también otro tipo de
probabilidades condicionales tales como
P (X ∈ B1 , Y ∈ B2 )
P (X ∈ B1 |Y ∈ B2 ) = .
P (Y ∈ B2 )
P (X ∈ B1 ∩ B2 )
P (X ∈ B1 |X ∈ B2 ) = .
P (X ∈ B2 )
E(X|Y = y) = E(X).
Z +∞
E h(X)|Y = y = h(x)f (x|y)dx.
−∞
Veamos un ejemplo. Sea (X, Y ) un vector aleatorio con función de densidad conjunta
8xy 0 ≤ y ≤ x ≤ 1
f (x, y) =
0 otro caso
Y nos interesa
4. Calcular P (X + Y ≤ 1).
B = {(x, y) ∈ R2 : 0 ≤ y ≤ x ≤ 1},
0.5
B
x
0 1
0.5
por tanto
Z tZ x Z sZ t
FX,Y (s, t) = 8xy dydx + 8xy dydx = t2 (2s2 − t2 ).
0 0 t 0
Note que FX,Y (s, t) = F (s) si (s, t) ∈ Bx y FX,Y (s, t) = G(t) si (s, t) ∈ By .
2. Para hallar las densidades marginales se puede proceder de dos formas. Si tenemos
las funciones de distribución marginales para X y Y , entonces
∂ ∂ 4
f (s) = F (s) = (s ) = 4s3 .
∂s ∂s
∂ ∂
g(y) = G(t) = (t2 (2 − t2 )) = 4t − 4t3 .
∂t ∂t
O simplemente se pueden hallar a partir de la densidad conjunto, o sea
Z Z x
f (x) = f (x, y)dy = 8xy dy = 4x3 , x ∈ [0, 1].
ZR Z0 1
g(y) = f (x, y)dx = 8xy dx = 4y − 4y 3 , y ∈ [0, 1].
R y
A B
0.5
A∩B
x
0 1
0.5
1. cov(X, X) = V (X).
p
2. cov(X, Y ) ≤ V (X)V (Y ). (Desigualdad de Cauchy-Schwartz)
cov(aX +cX1 , bY +dY1 ) = ab cov(X, Y )+ad cov(X, Y1 )+cb cov(X1 , Y )+cd cov(X1 , Y1 ).
1. |ρ(X, Y )| ≤ 1.
Resumen de fórmulas
PP Rx Ry
FX,Y (x, y) = P (X = s, Y = t) FX,Y (x, y) = f (u, v)dudv
s≤x t≤y −∞ −∞
P s
P ((X, Y ) ∈ B) = P (X = x, Y = y) P ((X, Y ) ∈ B) = f (x, y)dxdy
(x,y)∈B B
∂2
f (x, y) = F (x, y).
∂x∂y X,Y
1. (Casi segura) Diremos que Xn converge casi seguramente a X, o con probabilidad uno
si:
P {ω ∈ Ω : Xn (ω) −−−→ X(ω)} = 1,
n→∞
y se denota como
c.s.
Xn −−−→ X.
n→∞
y se denota por
P
Xn −−−→ X.
n→∞
Estos modos de convergencia son muy utilizados en la práctica. Existen otros tipos de conver-
gencia, pero que no son objetivo de este curso. Además se tiene el siguiente resultado
P P
2. Si Xn −−−→ X entonces g(Xn ) −−−→ g(X).
n→∞ n→∞
c.s. c.s.
3. Si Xn −−−→ X entonces g(Xn ) −−−→ g(X).
n→∞ n→∞
Conjuntamente con el teorema anterior enunciaremos dos resultados sin demostración que se
utilizan para obtener muchos resultados asintóticos de utilidad práctica y teórica.
50 1. Probabilidades. Nociones elementales
D
Teorema 1.5.2 (Slutsky): Sean Xn , Yn , X variables aleatorias tales que Xn −−−→ X y
n→∞
P
Yn −−−→ c entonces:
n→∞
D
1. Xn + Yn −−−→ X + c.
n→∞
D
2. Xn · Yn −−−→ X · c.
n→∞
D
3. Xn · Yn−1 −−−→ X · c−1 si c 6= 0.
n→∞
donde {an } es una sucesión creciente al infinito, o sea an % ∞ y c una constante en R, entonces
para toda función ψ diferenciable en c se cumple que
D
an (ψ(Xn ) − ψ(c)) −−−→ ψ 0 (c)X.
n→∞
En la práctica se utilizan los siguientes teoremas para verificar la ley de los grandes números:
Teorema 1.5.4 (Khinchin) Sea {Xn } una sucesión de variables aleatorias i.i.d. tales que
EXk = µ < +∞ para Ptodo k = 1, 2, · · · . Entonces {Xn } satisface la Ley Fuerte de los Grandes
Números, o sea Sn = nk=1 Xk cumple que
Sn c.s.
X= −−−→ µ.
n n→∞
1.5. Teoremas Límites 51
Teorema 1.5.5 (Chebyshev) Sea {Xn } una sucesión de variables aleatorias independientes
que E(Xk ) = µk < +∞ para todo k = 1, 2, · · · , y V (Xn ) ≤ M para todo n. Sea
tales P
Sn = nk=1 Xk , entonces:
n
Sn 1X P
X= − µk −−−→ 0.
n n n→∞
k=1
Pn
Teorema 1.5.6 (Markov) Sea {Xn } una sucesión de variables aleatorias. Sea Sn = k=1 Xk ,
si Sn satisface que
1
V (Sn ) −−−→ 0,
n2 n→∞
entonces:
n
Sn 1X P
X= − µk −−−→ 0.
n n n→∞
k=1
Teorema 1.5.7 (Kolmogorov) Sea {Xn } una sucesión de variables Pn aleatorias tales que
2
E(Xk ) = µk < +∞ y V (Xk ) = σk para todo k = 1, 2, · · · . Sea Sn = k=1 Xk , si
+∞ 2
X σ k
< +∞,
k2
k=1
entonces:
n
Sn 1X c.s.
X= − µk −−−→ 0.
n n n→∞
k=1
Es importante aclarar que estos teoremas solamente ofrecen condiciones necesarias para que
se cumpla la ley de los grandes números, o sea, si en un problema no se satisfacen las condiciones
de uno de estos teoremas, entonces lo que ocurre es que no podemos verificar si se cumple o no
la ley de los grandes números. Al menos con los teoremas presentados aquí.
Veamos un ejemplo sencillo. Supongamos que se desea verificar si la siguiente sucesión de
variables aleatorias satisface la Ley de los Grandes Números. Sean {Xk } independientes para
k ≥ 2 con la siguiente función de probabilidad
√ √
xk − k 1 k
P (Xk = xk ) √1 1− √2 √1
k k k
52 1. Probabilidades. Nociones elementales
Es inmediato que no se puede utilizar el Teorema de Khinchin porque las variables no son
i.i.d.. Calculemos su valor esperado y varianza
√ √
1 2 1 2
E(Xk ) = − k · √ + 1 · 1 − √ + k· √ =1− √
k k k k
2
1 2 1 2
V (Xk ) = k · √ + 1 · 1 − √ +k· √ − 1− √
k k k k
√ 2 4
= 2 k+ √ − .
k k
Es inmediato que no existe M tal que
√ 2 4
V (Xk ) = 2 k + √ − < M, ∀ k = 2, 3, · · · .
k k
Por tanto, no se puede aplicar el Teorema de Chebyshev. Note sin embargo que
n n n
!
1 X √
1 X 1 X 2 4
V Xk = V (Xk ) = 2 2 k+ √ −
n2 n2 n k k
k=1 k=2 k=2
n
1 X √
2
≤ 2 k+ √ .
n2 k
k=2
Note que
n n n r
1 X √
r r r
2X k 1 2X 1 1
2 k = ≤ <2
n2 n n n n n n
k=2 k=2 k=2
n n
1 X 2 1 X 2(n − 1) 2
√ ≤ 2= < .
n2 k n2 n 2 n
k=2 k=2
O sea
n
! r
1 X 1 2
V Xk ≤ 2 +
n2 n n
k=1
Por tanto
n
!
1 X
V Xk −−−→ 0.
n2 n→∞
k=1
De esa forma por el Teorema de Markov se cumple que
Pn n
Sn k=1 Xk P 1X
X= = −−−→ µ = 0.
n n n→∞ n
k=1
Teorema 1.5.8 (Moivre-Laplace) Sea {Xn } una sucesión de variables aleatorias P Bernoulli
i.i.d tales que E(Xk ) = p y V (Xk ) = p(1 − p) para todo k = 1, 2, · · · , n. Sea Sn = nk=1 Xk ,
entonces Pn
k=1 Xk − np D
p −−−→ Z ∼ N (0, 1).
np(1 − p) n→∞
Teorema 1.5.9 (Linderbeg-Lévy) Sea {Xn } una sucesión de variables aleatorias tales que
E(Xk ) = µk < +∞ para todo k = 1, 2, · · · , n y V (Sn ) < +∞ donde Sn = nk=1 Xk , entonces
P
Pn
Xk − nk=1 µk D
P
k=1 p
−−−→ Z ∼ N (0, 1).
V (Sn ) n→∞
Si las variables son i.i.d. tales E(Xk ) = µ < +∞ y V (Xk ) = σ 2 < +∞ para todo k =
1, 2, · · · , n entonces Pn
k=1√Xk − nµ D
−−−→ Z ∼ N (0, 1).
nσ n→∞
Note que el Teorema 1.5.8 es un caso particular del Teorema 1.5.9. ¿En qué radica la impor-
tancia de la formulación de Linderbeg-Lévy? Una de las características más notables es que no
se requiere conocer la forma de la densidad de probabilidad de un conjunto de variables alea-
torias para poder realizar cálculos de probabilidad sobre las mismas. Además nos dice que si n
1 Pn
es suficientemente grande entonces X = n i=1 Xi sigue una distribución normal. Usualmente
el valor de n “suficientemente grande” que se utiliza en la práctica es 30. Para determinar las
probabilidades correspondientes a un problema donde se utilice el Teorema Central del Límite
se emplea la Tabla de los valores tabulados de la normal estándar.
Veamos dos ejemplos donde se aplica estos teoremas.
1. Sea X ∼ B(100, 0,1) y supongamos que se desea hallar P (X ≥ 13). En este caso se conoce
la distribución de X que es una Binomial y por tanto
100 100
X X 100
P (X ≥ 13) = P (X = k) = (0,1)k (0,9)100−k .
k
k=13 k=13
Note que a pesar de que la probabilidad que deseamos hallar tiene una expresión exacta,
no resulta trivial hallar su valor numérico. Utilizando un software posiblemente se pueda
obtener su valor, no sin el correspondiente costo computacional y numérico asociado a dicha
expresión.
P100 ¿Cómo proceder entonces? Utilicemos el Teorema Central del Límite para X =
k=1 Xk , donde Xk ∼ Bernouilli(0,1). Es inmediato que las Xk satisfacen las condiciones
del Teorema 1.5.8 de Moivre-Laplace, es decir, son i.i.d, EXk = 0,1 y V (Xk ) = 0,09, por
tanto P100
X − 100 · 0,1
√ k
k=1
≈ Z ∼ N (0, 1),
100 · 0,09
entonces
100
!
X
P (X ≥ 25) = P Xk ≥ 13
k=1
P100 !
X − 100 · 0,1 13 − 100 · 0,1
= P √ k
k=1
≥ √
100 · 0,09 100 · 0,09
≈ P (Z ≥ 1) = 1 − P (Z < 1) = 1 − φ(1) = 1 − 0,8413 = 0,1587.
54 1. Probabilidades. Nociones elementales
2, 2, 1, 2, 3, 3, 1, 1, 2, 3, 2, 2, 1, 2, 3, 3, 1, 1, 2, 3, 2, 2, 1, 2, 3 .
| {z }| {z }| {z }
Período 10 Período 10 5 números
Los generadores de números pseudoaleatorios son muy importantes para muchos problemas
ya que sirven para recrear situaciones reales a partir de modelos creados en una computadora.
En simulación, por ejemplo, juega un papel preponderante porque permiten modelar situaciones
complejas que dependen justamente de la generación de variables aleatorias: suponga que se
desea simular el número de mensajes que recibe un servidor, en ese caso se generar variables
aleatorias exponenciales para recrear su comportamiento. En algunos juegos de computadora
también resulta vital contar con buenos generadores de números aleatorios, imagine que sucedería
en un juego de estrategia si los rivales siempre utilizan el mismo patrón de ataque, resultaría
aburrido ¿no cree?
En general lo que se quiere usualmente es un generador de números pseudoaleatorios con
distribución uniforme en el intervalo (0, 1), el por qué se discutirá más adelante. En cuanto a los
generadores en sí, varias preguntas pueden surgir ¿Cuántos generadores hay? ¿Cuál es el mejor
para un problema dado? ¿Cuán bueno es un PRNG?
56 1. Probabilidades. Nociones elementales
Para responder a esta última interrogante debemos mencionar que existen algunos aspectos
que afectan la fortaleza o calidad de un generador, como por ejemplo: períodos más cortos que lo
esperado, correlación de valores sucesivos, no uniformidad de los resultados, por solo mencionar
algunos. Estos problemas entre otros, aparecen en algunos generadores; por ese motivo trabajar
con un generador “bueno” es crucial para validar muchos resultados aplicados. Como es de esperar
existen varias clases de generadores y en dentro de cada clase sus variantes. Uno de los más
conocidos es el llamado generador lineal congruente
Definición 1.6.1 (Generador lineal congruente) Se le llama así a un generador de números
pseudoaleatorios (Xn )n≥0 , donde la sucesión se obtiene a partir de la siguiente expresión
recurrente:
Xn+1 = (aXn + b) mód m,
donde X0 es conocido como la semilla (seed en inglés), a se le conoce como multiplicador, b se
toma usualmente como 0 y m es el mayor entero que se puede representar en una computadora.
Durante los años se han propuesto diferentes pares (a, m) para los generadores lineales con-
gruentes cuando b = 0, como por ejemplo: (23, 108 +1) propuesto por Lehmer en 1948, (65539, 229 )
utilizado por IBM en el programa RANDU pero que ofrecía resultados correlacionados cuando se
trabajaba en grandes dimensiones, (69069, 232 ) recomendado por Marsaglia en 1972 o el basado
en el criterio de l‘Ecuyer (742938285, 231 − 1).
Para generar variables pseudoaleatorias uniformes en el intervalo (0, 1) a partir de un gene-
rador lineal congruente, simplemente se divide el valor Xn+1 por su perído; o sea, si queremos
hallar una sucesión (Un )n≥0 con distribución pseudouniforme, entonces se procede como sigue:
Demostración
Digamos que G es la distribución de la variable aleatoria Y , entonces
G(t) = P (Y ≤ t) = P (F −1 (U ) ≤ t).
Como se asume que F es la distribución de una variable aleatoria continua, entonces solamente
existe un valor para el cual F −1 (U ) = t cualquiera sea el valor de t, por tanto el conjunto
{F −1 (U ) ≤ t} es equivalente a {U ≤ (t)}. Si denotamos por HU la distribución de U , entonces
como HU (t) = t se obtiene que
G(t) = P (Y ≤ t) = P (F −1 (U ) ≤ t)
= P (U ≤ F (t)) = HU (F (t))
= F (t).
Este sencillo resultado es fundamental para generar variables aleatorias continuas. Por ejem-
plo supongamos que se desea generar un valor de la distribución exponencial de parámetro θ. En
ese caso la distribución es
F (x) = 1 − e−θx ,
por ende
1
F −1 (U ) = − ln(1 − U ),
θ
sigue una distribución exponencial de parámetro θ. Note que la variable 1 − U sigue una dis-
tribución uniforme en (0, 1), por tanto una variable aleatoria exponencial Y de parámetro θ se
puede generar como
1
Y = − ln(U ),
θ
Veamos ahora el siguiente resultado relacionado con la generación de variables aleatorias en
un conjunto determinado.
58 1. Probabilidades. Nociones elementales
Corolario 1.6.2 (Método de la transformada inversa) Sea U una variable aleatoria uni-
forme en el intervalo (0, 1). Sea F la función de distribución de una variable aleatoria continua,
entonces la variable aleatoria
Y = F −1 (U ),
sigue una distribución condicional.
Demostración
Digamos que G es la distribución de la variable aleatoria Y , entonces
G(t) = P (Y ≤ t) = P (F −1 (U ) ≤ t).
Como se asume que F es la distribución de una variable aleatoria continua, entonces solamente
existe un valor para el cual F −1 (U ) = t cualquiera sea el valor de t, por tanto el conjunto
{F −1 (U ) ≤ t} es equivalente a {U ≤ (t)}. Si denotamos por HU la distribución de U , entonces
como HU (t) = t se obtiene que
G(t) = P (Y ≤ t) = P (F −1 (U ) ≤ t)
= P (U ≤ F (t)) = HU (F (t))
= F (t).
1.6. Generación de variables aleatorias 59
Teorema 1.6.3 (Método de aceptación- rechazo) Sean dos variables aleatorias X y Y con
funciones de densidad f y g respectivamente y se desea generar un valor de X a partir de Y .
Sea c un valor tal que
f (y)
≤ c, ∀y ∈ R,
g(y)
entonces el siguiente algoritmo produce un valor de la variable aleatoria X con densidad f :
1. Generar una variable aleatoria U ∼ U (0, 1) y una variable aleatoria Y con densidad g.
f (Y )
2. Si U ≤ cg(Y ) , entonces X = Y , si no, regresar al paso anterior.
Demostración
Sea k el número de iteraciones realizadas para obtener un valor de X, denotemos por Xk
dicho valor, entonces
f (Y )
P (Xk ≤ x) = P Y ≤xU ≤ .
cg(Y )
Como las variables Y y U son independientes, entonces
f (y, u) = g(y), u ∈ (0, 1),
por tanto
f (Y )
P (Xk ≤ x) = P Y ≤xU ≤
cg(Y )
f (y)
P Y f (Y )
≤ x, U ≤ cg(Y Zx cg(y)
Z
) 1
= = f (y, u)dudy
f (Y ) f (Y )
P U ≤ cg(Y ) P U≤ cg(Y ) −∞ 0
f (y) Rx
Zx cg(y)
Z f (y)dy
1 −∞
= g(y)dudy = .
f (Y ) f (Y )
P U≤ cg(Y ) −∞ 0
cP U ≤ cg(Y )
Teorema 1.6.4 Sea X una variable aleatoria discreta que toma valores (xk )k≥1 , tales que
X
P (X = xk ) = pk , pk = 1.
k≥1
Demostración
Es inmediata, solo basta comprobar que
k−1
X k
X
P (X = xk ) = P pj < U ≤ pj = pk .
j=1 j=1
Los métodos discutidos previamente no son los únicos para generar variables aleatorias. Exis-
ten diferentes acercamientos en el asunto. Una de las variantes más utilizadas es a partir de
transformaciones de variables aleatorias. Por ejemplo si Z se tiene a partir de un generador de
variables normales estándar (N (0, 1)) es inmediato que
X = µ + σZ ∼ N (µ, σ 2 ).
O cuando se utiliza la suma de variables aleatorias como en el caso de las variables independientes
Bernoulli y la distribución Binomial, ver Teorema 1.3.10 para otros casos donde se puede utilizar
la suma de variables aleatorias independientes para generar variables aleatorias.
En el caso de la distribución normal veremos un método que se utiliza para generar valores
de dicha distribución:
Transformación de Box-Muller
Sean Z1 y Z2 variables aleatorias independientes
deuna distribución normal estándar. Sean
2 2 2 Z1
además las variables D = Z1 + Z2 y Θ = arctan Z 2
. A partir del Teorema 1.4.3 de cambio
de variable para n = 2 se puede demostrar que D2 y Θ son independientes y además
D2 ∼ χ2 (2)
Θ ∼ U (0, 2π).
Se recomienda que el estudiante compruebe la afirmación previa. Sean U1 y U2 dos variables alea-
torias independientes con distribución uniforme en (0, 1). A partir del método de la transformada
inversa se obtiene que
p
Zu,1 = −2 ln(U1 ) sin(2πU2 )
p
Zu,2 = −2 ln(U1 ) cos(2πU2 ),
Los valores que se muestran en la tabla están asociados a una realización del método de
Monte Carlo para cada N . Es importante que el estudiante esté consciente que dichos valores
62 1. Probabilidades. Nociones elementales
varían cada vez que se realice un experimento para un N fijo. El proceso previo se basa en una
aproximación de la probabilidad geométrica, incluso si no hablamos de cálculo de probabilidades
como tal, pero puede ser costoso y no ofrecer buenos resultados.
Veamos la aplicación más importante, en mi opinión, del método de Monte Carlo: la apro-
ximación de valores esperados. Supongamos que se tiene una función h real y se desea hallar
de forma aproximada E(h(X)), donde X es una variable aleatoria continua con densidad de
probabilidad f y se supone además que |E(h(X))| < +∞. O sea nos interesa calcular
Z
E(h(X)) = h(x)f (x)dx.
R
c.s.
µmc −−−−→ µ,
N →∞
y
µmc − µ D
q −−−−→ Z ∼ N (0, 1).
σ2 N →∞
N
Demostración
La primera parte del teorema es una aplicación directa del Teorema de Khinchin y la segunda
parte es inmediata a partir del Teorema de Linderbeg-Lévy.
Note que la segunda parte del teorema se puede escribir de la siguiente forma
√ D
N (µmc − µ) −−−−→ Z ∼ N (0, σ 2 ).
N →∞
1
Es decir, la velocidad de convergencia de µmc a µ es N − 2 . Esta propiedad del método es muy
importante porque nos habla de la calidad de la aproximación a partir del número de variables
aleatorias que se generan. Más adelante discutiremos la velocidad de convergencia cuando estemos
en presencia de problemas de integrales múltiples.
En nuestro caso, para aproximar E(h(X)) se generan N variables aleatorias2 con densidad
f : x1 , x2 , · · · , xN y por tanto
Z N
1 X
E(h(X)) = h(x)f (x)dx ≈ µ
bmc = h(xi ).
R N
i=1
2
Es importante recordar que el valor de N debe ser suficientemente grande para que se puedan aplicar
los teoremas límites.
1.6. Generación de variables aleatorias 63
Este sencillo resultado nos ofrece una vía alternativa para la aproximación de valores espe-
rados. No obstante, el método de Monte Carlo descrito depende de generar variables aleatorias
con densidad f . Es evidente que esto pudiera resultar un problema extra si se desconoce como
generar estas variables aleatorias o resulta muy costoso desde el punto de vista computacional.
En ese sentido se puede realizar algunas modificaciones que permitan aplicar el método utilizan-
do solamente variables aleatorias con distribución uniforme en el intervalo (0, 1). La idea se basa
en llevar la integral de interés al intervalo (0, 1) utilizando cambios de variable. Veamos como
funcionaría en general para las siguientes integrales:
Rb
1. Sea una integral del tipo: a m(x)dx. Si se realiza el cambio
x = a + (b − a)t, dx = (b − a)dt,
entonces Z b Z 1
m(x)dx = (b − a) m(a + (b − a)t)dt.
a 0
Rb
2. Sea una integral del tipo: −∞ m(x)dx. Si se realiza el cambio
dt
x = b + ln(t), dx = ,
t
entonces Z b Z 1
m(b + ln(t))
m(x)dx = dt.
−∞ 0 t
R∞
3. Sea una integral del tipo: a m(x)dx, con a > 0. Si se realiza el cambio
dt
x = a − ln(1 − t), dx = ,
1−t
entonces
∞ 1
m(a − ln(1 − t))
Z Z
m(x)dx = dt.
a 0 1−t
R +∞
4. Sea una integral del tipo: −∞ m(x)dx. Si se realiza el cambio
dt
x = ln(t) − ln(1 − t), dx = ,
t − t2
entonces
+∞ 1
m(ln(t) − ln(1 − t))
Z Z
m(x)dx = dt.
−∞ 0 t − t2
O sea, las 4 integrales tipo se pueden llevar a una integral definida en el intervalo (0, 1).
Ahora si U es una variable uniforme definida en (0, 1) es inmediato que para cualquier función
n definida en el intervalo se cumple que
Z 1
E(n(U )) = n(t)dt.
0
Se deja como ejercicio la obtención de expresiones similares para las restantes integrales tipo.
Considero importante anotar que el método de Monte Carlo se puede utilizar también para
el cálculo de probabilidades. Sea X una variable aleatoria continua con densidad f , entonces
Z Z
P (X ∈ B) = f (x)dx = 1B (x)f (x)dx = E(1B (X)).
B R
El método de Monte Carlo se utiliza con el mismo espíritu en el caso multidimensional. Suponga
que se tienen d variables aleatorias independientes X1 , X2 , · · · , Xd . Sea h una función definida
en Rd con valores en R. Sean N realizaciones del vector X = (X1 , X2 , · · · , Xd ). Escribamos
Entonces
Y1 + Y2 + · · · + YN c.s.
−−−−→ E(h(X)),
N N →∞
Capítulo 2
Estadísticamente es más difícil capturar a un pez bayesiano que a otro frecuentista, incluso
si se utiliza un algoritmo estocástico.
68 2. Estadística básica. Aplicaciones
Definición 2.1.1 (Escalas de medición) Sea X una variable aleatoria, diremos que X es:
2. Cualitativa ordinal: si es una variable de escala nominal que tiene ímplicita una
relación de orden.
4. Cuantitativa de razón: si es una variable con escala de intervalo, pero con un cero
absoluto, es decir, el valor 0 indica la ausencia total de la característica.
Veamos algunos ejemplos de cada caso:
1. Nominal: color de los ojos, sexo, tipo de pelo, sabores de helados.
2. Ordinal: grados militares, notas en la universidad, categorías docentes.
3. Intervalo: temperatura en grados Celsius, notas en base a 100, test de inteligencia.
4. Razón: temperatura en grados Kelvin, distancia recorrida, peso.
Es importante notar que en el caso de la escala de intervalo no tiene sentido analizar el
cociente entre dos valores. O sea, si en un examen un estudiante saca una nota de 80 y
otro estudiante saca una nota de 40, no significa que el primero es dos veces mejor el que
el segundo, simplemente se dice que el primer estudiante tiene una nota que supera en 40
a la del segundo estudiante. No obstante en la escala de razón si tiene sentido analizar el
cociente entre valores, o sea una persona de 90kg pesa tres veces más que otra de 30Kg.
En cuanto a los datos en sí, una cuestión que surge es la siguiente: ¿cómo organizarlos?
Cuando se tiene una muestra de pocos valores es muy sencillo observar los patrones
inherentes al experiemento, pero ¿qué sucede cuando se tiene una gran cantidad de datos?
Una de las variantes usuales es organizar los datos a partir de una tabla de frecuencia.
Sea una variable aleatoria discreta que toma un conjunto de k valores: {d1 , d2 , · · · , dk }.
Si se toma una muestra de n valores {x1 , x2 , · · · , xn } del conjunto {d1 , d2 , · · · , dk } entonces
los datos se pueden organizar de la siguiente forma:
Tabla de Frecuencias
Frecuencia Frecuencia absoluta Frecuencia Frecuencia relativa
Clases
absoluta acumulada relativa acumulada
di ni Ni fi Fi
n1
d1 n1 N1 = n1 f1 = n
F1 = f1
n2
d2 n2 N2 = n1 + n2 f2 = n
F2 = f1 + f2
n3
d3 n3 N3 = n1 + n2 + n3 f2 = n
F2 = f1 + f2 + f3
.. .. .. .. ..
. . . . .
k k
P nk P
dk nk Nk = ni = n fk = n
Fk = fi = 1
i=1 i=1
y supongamos que sedesean establecer k clases para dichos datos. Sea x(1) el mínimo de
los valores observados y x(n) el máximo, escribamos R = x(n) − x(1) . Es evidente que R
nos ofrece el rango de valores en los cuales se mueven los datos continuos que se analizan.
Si denotamos por h = Rk , entonces podemos crear k intervalos de la misma longitud h.
Sea la sucesión de valores L0 , L1 , · · · , Lk tales que L0 = x(1) , Lk = x(n) y Li = Li−1 + i · h,
entonces se obtiene la siguiente tabla de frecuencias
Tabla de Frecuencias
Clases Marca Frecuencia Frecuencia absoluta Frecuencia Frecuencia relativa
Ii mi ni Ni fi Fi
L1 +L0 n1
[L0 , L1 ) m1 = 2
n1 N1 = n1 f1 = n
F1 = f1
L2 +L1 n2
[L1 , L2 ) m2 = 2
n2 N2 = n1 + n2 f2 = n
F2 = f1 + f2
.. .. .. .. .. ..
. . . . . .
k k
Lk +Lk−1 P nk P
[Lk−1 , Lk ] mk = 2
nk Nk = ni = n fk = n
Fk = fi = 1
i=1 i=1
Note que la tabla anterior es muy similar a la tabla del caso discreto. En la tabla
aparece un nuevo elemento: marca de clase, que se utiliza para identificar el intervalo y
funciona como la clase del caso discreto, en cuanto a identificación de clase, no representa
ningún valor de los datos, incluso cuando coincida con algún xi . Un hecho que ocurre en las
tablas de frecuencia de datos continuos es la pérdida de información. Si solamente se tiene
una tabla de frecuencia, pero no los datos originales, es evidente que para un intervalo
determinado no podremos identificar exactamente cuáles son los valores que pertenecen
a dicho intervalo, únicamente podremos decir la cantidad de elementos que contiene. En
el caso continuo, aunque usualmente los intervalos tienen la misma amplitud, en algunos
casos, atendiendo a su naturaleza se crean intervalos de diferente amplitud.
Note además que tanto en el caso discreto como continuo, la frecuencia relativa se
puede asociar a conceptos de probabilidad de variables aleatorias: función de densidad
en el caso continuo y función de probabilidad en el caso discreto. De la misma forma, la
frecuencia relativa acumulada se puede interpretar como la función de distribución.
Veamos un ejemplo. Suponga que se crea un algoritmo estocástico1 para descifrar
contraseñas. El algoritmo funciona de la siguiente forma: toma una contraseña y la clasifica
en cuanto a su fortaleza (fuerte, media, débil) y además ofrece el tiempo que consumió el
proceso para descifrarla. Supongamos que se analizaron 150 contraseñas y se obtuvieron
los valores correspondientes a fortaleza y tiempo en las variables (Ci )1≤i≤150 y (Ti )1≤i≤150
respectivamente. Para analizar el comportamiento de la fortaleza se tienen solamente 3
clases. En el caso del tiempo se deben crear intervalos, pero cuántos. Tiene sentido que
1
El término estocástico se refiere al concepto de aleatoriedad, o sea, que para un mismo estado inicial,
el resultado final no siempre es el mismo.
2.1. Estadística descriptiva 71
se creen 3 si se asume que el algoritmo debe ser consecuente con el tipo de contraseña
que analiza. Si se sabe que el tiempo mínimo en minutos fue de 5 y el máximo de 200,
entonces se obtienen las siguientes tablas de frecuencia.
ci ni Ni fi Fi
70 70
c1 = 1 (Débil) 70 70 f1 = 150
F1 = 150
50 120
c2 = 2 (Media) 50 120 f2 = 150
F2 = 150
30
c3 = 3 (Fuerte) 30 150 f3 = 150
F3 = 1
Ii ti ni Ni fi Fi
55 55
[5, 70) t1 = 37,5 55 55 f1 = 150
F1 = 150
67 122
[70, 135) t2 = 102,5 67 122 f2 = 150
F2 = 150
28
[135, 200] t3 = 167,5 28 150 f3 = 150
F3 = 1
Como desventaja fundamental se debe mencionar que la media se afecta por valores
extremos y, por ende se debe tener cuidado con su valor porque puede conducir a
interpretaciones erróneas.
2.1. Estadística descriptiva 73
¿Cómo interpretar estos valores como un todo? Existe una relación que resulta muy
útil para comprender la naturaleza de datos unimodales a partir del análisis conjunto de
estos tres valores y se puede resumir de la siguiente forma:
2. Si x > xmed > xmod , entonces se dice que la distribución de los datos es asimétrica a
la derecha, o sea, la mayor parte de los datos se ubican a la izquierda de la media.
3. Si x < xmed < xmod , entonces se dice que la distribución de los datos es asimétrica a
la izquierda, o sea, la mayor parte de los datos se ubican a la derecha de la media.
74 2. Estadística básica. Aplicaciones
Medidas de posición
Las medidas de posición están relacionadas con la distribución de la variable aleatoria.
1. Percentil:
Desde el punto de vista de probabilidades se tiene la siguiente definición
P (X ≤ Xα ) = α.
2. Cuartil:
Son tres valores que dividen a la muestra en 4 grupos con la misma cantidad de
elementos. Es un caso particular de percentil, usualmente se denotan por Q1 , Q2 y
Q3 :
Q1 = x0,25 ,
Q2 = x0,50 ,
Q3 = x0,75 .
Note que
xmed = Q2 = x0,50 .
2.1. Estadística descriptiva 75
Medidas de dispersión
Las medidas de dispersión son aquellas que nos permiten analizar la variabilidad de
los datos que se analizan.
1. Varianza muestral:
Este concepto está relacionado con el de varianza que se definió previamente para
variables aleatorias y justamente es la medida más utiliza para analizar la varia-
bilidad de los datos alrededor de la media, para una muestra su valor se define
como n
2 1X
sn = (xi − x)2 ,
n i=1
también se utiliza la expresión
n
2 1 X
s = (xi − x)2 .
n − 1 i=1
3. Coeficiente de variación:
Esta es una muy útil medida de variación que tiene como principal ventaja que no
se afecta por los valores de escala de medición de las variables y se define como
s
CV = × 100.
x
El coeficiente de variación se utiliza fundamentalmente para comparar la variabilidad
entre dos o más poblaciones.
4. Rango:
Es una medida que solamente utiliza dos valores y se define como
R = x(n) − x(1) .
O sea, es el rango donde se mueven las variables bajo análisis. Es una medida que
se afecta por los valores extremos y no disminuye cuando n aumenta, es decir, o se
queda invariante o aumenta.
En ese mismo sentido se define el rango intercuartil que mide la variabilidad de la
mitad central de los datos:
RQ = Q3 − Q1 = x0,75 − x0,25 .
Se exhorta a los estudiantes que calculen todas las medidas posibles en los ejemplos
descritos antes.
Histogramas
Es uno de los gráficos más utilizados en la estadística y popularmente se les conoce
como gráficos de barras, pero en el curso le llamaremos histogramas.
Los histogramas son una forma de representar los valores de la frecuencia absoluta
de una tabla de frecuencias en forma de gráfica. A veces se utiliza la frecuencia relativa,
pero a los efectos visuales el comportamiento es exactamente el mismo. El histograma
simplemente gráfica los valores de la frecuencia absoluta para cada marca de clase. En los
ejemplos anteriores los histogramas correspondientes serían:
fi fi
80 80
60 60
40 40
20 20
ci mi
c1 c2 c3 m1 m2 m3
Fortaleza Tiempo
Los histogramas tienen una desventaja cuando se analizan datos continuos. Su forma
puede cambiar de forma abrupta si los intervalos varían. Por ejemplo supongamos que se
crean ahora 5 intervalos en vez de 3 con una amplitud de 39. En ese caso el histograma
para los datos del tiempo queda de la siguiente forma
fi
80
60
40
20
mi
m1 m2 m3 m4 m5
Tiempo
78 2. Estadística básica. Aplicaciones
Polígonos de frecuencia
Los polígonos de frecuencia son representaciones de la frecuencia relativa y relativa
acumulada en forma de puntos conectados por líneas rectas. Por ejemplo para el caso del
tiempo con 5 clases o intervalos tendríamos los siguientes polígonos de frecuencia:
fi Fi
0.48 1
0.36 0.75
0.24 0.5
0.12 0.25
mi mi
m1 m2 m3 m4 m5 m1 m2 m3 m4 m5
2.1. Estadística descriptiva 79
Cajas y Bigotes
El nombre proviene de la frase en inglés box and whiskers y es un tipo de gráfico que
se utiliza para variables de tipo continuo e integra varias de las medidas descriptivas que
hemos presentado aquí. Para crear la gráfica de cajas y bigotes se puede trabajar con las
medidas de una tabla de frecuencia, pero se recomienda utilizar siempre que se pueda, los
datos originales.
210
xU(n) = x0,75 + 1,5(Q3 − Q1 )
180
x0,75 = Q3
150
90 x
60 x0,25 = Q1
30
xL(1) = x0,25 − 1,5(Q3 − Q1 )
Tiempo
80 2. Estadística básica. Aplicaciones
En cada uno de estos modelos las técnicas de estimación son diferentes. Durante el
curso veremos nociones básicas relacionadas con los enfoques estadísticos mencionados.
2.2. Nociones elementales de estimación 81
Pθ = {Pθ (x) : x ∈ Ω, θ ∈ Θ} .
T : Ω ⊂ Rn → Θ ⊂ Rk , k∈N
x T (x).
La definición previa resulta muy útil para eliminar teóricamente posibles estimadores,
pero resulta de muy poco ayuda para elgir un buen estimador. Por ejemplo si se desea
estimar la varianza de una muestra X = (X1 , X2 , · · · , Xn ) con valores x = (x1 , x2 , · · · , xn )
y se utiliza para ello el siguiente estimador
n
1X 2
T− (X) = − X .
n i=1 i
Tc (X) = 1.
El concepto de verosimilitud parte del hecho de que, una vez asumida una familia de
distribuciones de probabilidad como la clase de distribuciones de probabilidad que rige el
comportamiento de un fenómeno observado, la relación entre el fenómeno observado y las
diferentes distribuciones de probabilidad en la familia está dada en la probabilidad de ocu-
rrencia que le asignan al fenómeno observado las diferentes distribuciones de probabilidad
incluidas en la familia considerada.
Bajo el enfoque frecuentista y con un modelo paramétrico la definición previa se escribe
de la siguiente forma
Definición 2.2.3 (Verosimilitud) Sea X = (X1 , · · · , Xn ) una muestra con distribución
Pθ ∈ Pθ . Entonces llamaremos función de verosimilitud o verosimilitud L(θ, x) asociada
a la muestra aleatoria X con valores x = (x1 , · · · , xn ) a:
Pθ (X = x) = Pθ (x − ε < X ≤ x + ε),
Cuando los εi toman valores bien pequeños se puede asumir que f es prácticamente
constante en (xi − εi ; xi + εi ) y entonces ξi coincide con xi y se obtiene una especie
de verosimilitud aproximada que coincide con la expresión de (2.1). En consecuencia, la
función de verosimilitud es “proporcional” a la función de densidad.
n
Y
L(θ; x) = c(x)Pθ (X = x) = c(x)f (x; θ) = c(x) f (xi ; θ), (2.2)
i=1
técnicas del análisis matemático, o sea, hallar los ceros de la derivada de la función con
respecto al parámetro de interés θ y de ahí escoger de los valores críticos que se obtengan
(en caso de que sea más de uno).
En muchas ocasiones resulta muy conveniente para facilitar la determinación de la
estimación máximo verosímil, considerar el logaritmo natural de la función de verosimi-
litud, ya que por ser la función logaritmo continua y estrictamente creciente el punto de
máximo, en caso de existir, es el mismo para ambas. Aplicar el logaritmo en muchos de
los casos facilita enormemente el monto de cálculos a realizar.
Definición 2.2.5 (log-verosimilitud) Para un modelo de probabilidad (Ω, Pθ , Pθ ) indi-
zado por el parámetro θ con una verosimilitd asociada L(θ; x) a partir de una muestra
x = (x1 , x2 , · · · , xn ) se define la log-verosilitud como el logaritmo de la verosimilitud
X Hay que cerciorarse que la estimación máximo verosímil sea exactamente un punto
de máximo global. En caso de ser necesario un gráfico de la función a maximizar
suele ser de mucha ayuda.
La aplicación del método de la máxima verosimilitud se puede resumir en los siguientes
momentos o pasos:
3. Hallar el punto de máximo de l(θ; x). Para este propósito funciona de manera muy
general hallar la primera derivada de l(θ; x) respecto a θ e igualarla a cero. La
solución de esta ecuación (denominada ecuación de verosimilitud ) es la candidata a
ser la estimación máximo verosímil. Por lo tanto, hay que verificar que se obtiene
un máximo global. En el caso de que existan varias soluciones de la ecuación de
verosimilitud con más razón hay que discriminar cuál de ellas es la que maximiza a
l(θ; x).
En resumen podemos decir que hallar el estimador máximo verosímil de una distribu-
ción paramétrica se reduce en una gran parte de los casos a resolver el sistema (o ecuación)
siguiente con respecto a θ:
∂l(θ; x) ∂ ln L(θ; x)
= =0
∂θ ∂θ
En los casos en los cuales el “método clásico” no puede ser empleado, la forma de hallar
el estimador máximo verosímil en cada caso es ad hoc.
2.2. Nociones elementales de estimación 85
y por tanto
l(θ; x) = −n ln θ.
Se puede constatar que este caso el método usual no puede ser utilizado, porque la
ecuación de verosimilitud no tiene solución respecto a θ cuando se deriva. En consecuencia
por esta vía no es posible determinar el máximo de la función logaritmo de la verosimilitud.
Sin embargo, este tipo de modelo admite una estimación máximo verosímil de θ, pero su
86 2. Estadística básica. Aplicaciones
determinación hay que obtenerla desde la función de verosimilitud. No es difícil ver que La
función de verosimilitud en cuestión es decreciente respecto a θ, por lo tanto ella alcanzará
un valor máximo para un valor mínimo “permisible” de θ. Si se tomase como valor de θ un
valor más pequeño que alguno de los valores de las xi ’s la función de verosimilitud sería
cero y con ello no se alcanzaría un valor máximo. Sin embargo, si se toma el valor de θ
como el máximo de las xi ’s , entonces la función de verosimilitud sería diferente de cero y
ese sería su valor máximo. Por tanto, la estimación máximo verosímil de θ está dada por
el máximo de las observaciones.
θb = x(n) = máx xi .
Esto demuestra que no siempre es posible usar la técnica de derivar la función logaritmo de
la verosimilitud. Existen modelos indizados por más de un parámetro, como por ejemplo,
el modelo Normal con media µ y varianza σ 2 , el modelo Gamma con parámetros α y β y un
modelo Multinomial, por solo mencionar unos pocos. La estimación máximo verosímil se
define de manera
similar, solamente que ahora hay que determinar el vector de parámetros
θ,
b tal que L θ; b x ≥ L (θ; x) para todo θ ∈ Θ. Obviamente en la determinación del valor
máximo se puede utilizar la técnica de derivación, lo que en esta ocasión habrá que derivar
tantas veces como parámetros se deseen estimar y en cada ocasión respecto a cada uno
de ellos. De este proceso resultará entonces un sistema de ecuaciones de verosimilitud de
tantas incógnitas como ecuaciones. La comprobación de que se ha obtenido un punto de
máximo se realiza mediante el cálculo de la matriz de las segundas derivadas evaluadas
en el punto de extremo; si esta matriz resulta ser definida negativa, para lo cual bastará
que los menores principales de ella tengan signos alternos comenzando por el signo menos,
entonces el extremo alcanzado es un máximo.
En el siguiente ejemplo se considera un modelo Normal. La decisión de tomar este
modelo para ilustrar la estimación máximo verosímil para el caso de más de un parámetro
responde al hecho de la gran importancia que este modelo tiene en muchas aplicaciones
de la estadística.
Sea una muestra aleatoria de tamaño n de la variable aleatoria X con modelo proba-
bilístico Normal de parámetros (µ, σ 2 ). La función de verosimilitud esta dada por
" n
#
− n 1 X
L µ, σ 2 ; x = σ 2 2 exp − 2 (xi − µ)2 .
2σ i=1
De esta última expresión se obtiene la función logaritmo de la verosimilitud, la cual es
n
n 1 X
l µ, σ 2 , x = − ln σ 2 − 2 (xi − µ)2 .
2 2σ i=1
El sistema de ecuaciones de verosimilitud se obtiene entonces derivando la función
anterior respecto a µ y a σ 2 .
n
∂l (µ, σ 2 , x) 1 X
= (xi − µ) = 0.
∂µ σ 2 i=1
n
∂l (µ, σ 2 , x) n 1 X
2
= − 2+ 2 2
(xi − µ)2 = 0.
∂σ 2σ (2σ ) i=1
2.2. Nociones elementales de estimación 87
µ
b = x,
Hay que comprobar que (b b2 ) es un punto de máximo. Para ello se determinan las
µ, σ
segundas derivadas respecto a µ y σ 2 , y se sustituyen los valores de µ y σ 2 por µ b2 en
byσ
la matriz resultante de donde se obtiene que
− σ̂n2 0
.
n
0 − 2(σ̂2 )2
Para que el punto (b b2 ) sea un punto de máximo debe ocurrir que esta última ma-
µ, σ
triz sea definida negativa, para lo cual basta con que el término a11 sea negativo y el
determinante de la matriz positivo. Precisamente eso es lo que ocurre y se puede afirmar
que el par (b b2 ) es la estimación máximo verosímil de (µ, σ 2 ). La comprobación de los
µ, σ
elementos de la matriz se deja propuesta al lector.
Veamos el siguiente resultado que resulta muy útil para hallar estimadores máximo
verosímiles:
Teorema 2.2.1 (Invarianza del estimador máximo verosímil) Sea (Ω, Pθ , Pθ ) un
modelo estadístico. Sea θbemv el estimador máximo verosímil del parámetro θ y sea τ
una función definida sobre el espacio paramétrico Θ, o sea τ : Θ → Θ, entonces τ (θbemv )
es el estimador máximo verosímil de τ (θ).
µcr = E(X − µr )r .
µi = µ
bi , i = 1, 2, · · · , k.
Siempre y cuando el sistema tiene una solución única θb = (θb1 , · · · , θbk ) y pertenezca al
espacio paramétrico, se dice que θb es el estimador de θ por el método de los momentos.
En general el método se puede resumir en los siguientes pasos
Veamos ahora como funciona este procedimiento. Supongamos una vez más que se
tiene una muestra del modelo de Poisson. El primer momento teórico de una variable
con distribución de Poisson es λ. Ya con este momento teórico tenemos el parámetro que
se desea estimar. El momento muestral correspondiente, es decir de orden uno, es preci-
samente la media aritmética o promedio, llamada también media muestral. Al igualarse
ambos momentos se tiene que
n
1X
λ= Xi = X.
n i=1
El cuarto paso es inmediato, es decir, despejar λ en función del momento muestral. En
consecuencia, el estimador que produce el método de los momentos es la media muestral,
2.2. Nociones elementales de estimación 89
En esta misma situación otro estimador puede obtenerse si se consideran los momentos
muestrales respecto a la media. Puede comprobarse que tanto el momento central de orden
uno muestral y teórico resultan en este caso ser cero, por lo que nuevamente el primer
momento no aporta información para obtener el estimador; no obstante,
n
1X
bc2 =
µ (Xi − µ)2
n i=1
µc2 = σ 2 .
De lo cual resulta que al igualar los momentos centrales muestral y teórico, se obtiene
de manera inmediata que el estimador de la varianza es
n
1X
σ2
b = (Xi − µ)2 .
n i=1
Con este ejemplo se ha visto que para un mismo problema puede existir más de un
estimador.
90 2. Estadística básica. Aplicaciones
Supongamos ahora que estamos en un caso donde tanto µ como σ 2 son desconocidos.
Los estimadores de µ y σ 2 por el método de los momentos consistiría en igualar los
momentos muestrales de orden uno y dos con los correspondientes momentos teóricos. De
esto resulta que
b1 = X = µ.
µ
n
1X 2
µ
b2 = X = σ 2 + µ2 .
n i=1 i
1. Consistencia:
La consistencia de un estimador es una propiedad asintótica del mismo y está rela-
cionada con la capacidad que tiene un estimador de se acerque al verdadero valor
que está estimando con probabilidad 1 cuando el tamaño de la muestra crece. For-
malmente se tiene la siguiente definición:
c.s.
Si se cumple que Tbn −−−→ τ (θ) se dice que es consistente en sentido fuerte.
n→∞
2. Normalidad asintótica
La noción de normalidad asintótica de un estimador está relacionada con el Teorema
Central del Límite. La definición es la siguiente
4. Eficiencia
El concepto de eficiencia está relacionado con la variablidad de un estimador. ¿Qué
entenderemos por variabilidad? Una posible respuesta sería la varianza del estima-
dor. La definición formal es la siguiente
Note que la definición del Error Cuadrático Medio es muy similar al concepto de
varianza. De hecho si se conoce que Eθ (Tbn (X)) = τ (θ), entonces
Note que un estimador insesgado se puede definir como aquel con sesgo cero.
Es evidente que un buen estimador es aquel con el menor ECMτ (θ) (Tbn ). El con-
cepto en sí de eficiencia está ligado a la capacidad del estimador de alcanzar cierta
cota para su varianza o Error Cuadrático Medio. Más adelante volveremos a tocar
este tema. Veamos algunos resultados preliminares antes de discutir el concepto de
eficiencia.
f (x; θ? ).
3. La familia tiene soporte común, o sea el conjunto A = {x ∈ Ω : f (x; θ) > 0}
no depende de θ y f es diferenciable en A con respecto a θ.
4. Se puede derivar bajo el signo de la integral
Z Z
∂ ∂f (x; θ)
f (x; θ)dx = dx,
∂θ S S ∂θ
donde S ⊂ Ω.
5. La función f (x; θ) es tres veces diferenciable
R con respecto a θ, la tercera
derivada es un función continua y S f (x; θ)dx puede ser derivada tres veces
bajo el signo de la integral.
6. Para cualquier θ? ∈ Θ existe M y c, que pueden depender o no de θ? tal que
∂ 3 ln f (x; θ)
≤ M (x), ∀x ∈ Ω, θ ∈ (θ? − c, θ? + c),
∂θ3
∂ ln f (x; θ)
U (θ; x) = ∈ R.
∂θ
Además se cumple que
Eθ [U (θ; X)] = 0,
y
n n
X X ∂ ln f (xi ; θ)
U (θ; x) = U (θ; xi ) = .
i=1 i=1
∂θ
Las distribuciones clásicas como la normal, exponencial, Gamma, entre otras satisfa-
cen las condiciones de regularidad. Otras dsitribuciones conocidas como la uniforme
en [0, θ], sin embargo, no cumple la tercera condición de regularidad.
∂ 2 ln f (x; θ)
I(θ) = −Eθ .
∂θ2
V (T )
ERτ (θ) (T, S) = .
V (S)
Se puede decir entonces que cuando se habla de eficiencia nos referimos entonces a
estimadores que tienen la menor varianza posible cuando aumenta el tamaño de la
muestra.
En algunas situaciones donde las variables bajo análisis son discretas, puede que no sea
posible hallar un intervalo de confianza IC1−α cuya probabilidad de cubrimiento sea exac-
tamente 1 − α. Por ese motivo a veces se utiliza
P L(X) ≤ g(θ) ≤ U (X) ≥ 1 − α.
P (a ≤ Qp (X, θ) ≤ b) = P Q−1 −1
p (a, θ) ≤ θ ≤ Qp (b, θ) = FQp (b) − FQp (a).
Teorema 2.2.4 Sea f una densidad unimodal; si un intervalo [a, b] satisface las siguientes
condiciones
Rb
1. a f (x)dx = 1 − α, para un α determinado.
entonces [a, b] es el intervalo de menor longitud entre todos los intervalos que satisfagan
la primera condición.
Demostración
Supongamos que se tiene un intervalo [c; d] tal que d − c < b − a. Vamos a demostrar
Rd
entonces que para [c; d] se cumple que c f (x)dx < 1 − α. Con respecto a c pueden ocurrir
dos cosas: c ≤ a o c > a. Solamente se demostrará el resultado para el primer caso, para
el segundo se puede proceder de la misma forma.
Supongamos que c ≤ a, de esa forma pueden ocurrir 3 casos, el más elemental y trivial
es que d ≥ b y por ende d − c ≥ b − a y carece de sentido su análisis. Entonces nos quedan
dos casos que se deben analizar: d ≤ a y a < d ≤ b. Comencemos con el primero, o sea
c ≤ a y d ≤ a. Como se supone que a ≤ x? < b entonces f es no decreciente en [c; d], por
tanto
Z d Z b
f (x)dx ≤ f (d)(d − c) ≤ f (a)(d − c) < f (a)(b − a) ≤ f (x)dx
c a
= 1 − α.
Corolario 2.2.5 Sea X una variable aleatoria con densidad continua f (x; θ) unimodal y
simétrica con respecto a la moda x? = g(θ) entonces
[X α2 ; X1− α2 ],
donde Pn
2 i=1 (Xi − µ)2
σ
b = .
n
Intervalo de confianza para la varianza con la media desconocida
Sea una muestra X = (X1 , · · · , Xn ) con distribución Normal: N (µ, σ 2 ), entonces se
tiene que
2
2 Xi − X
χ (X) = ∼ χ2 (n − 1),
s
2
es un pivote para σ . Al igual que en el caso anterior el intervalo de confianza a un nivel
1 − α más utilizado para σ 2 es
" #
2 2
ns ns
IC1−α (σ 2 ) = ,
χ21− α (n − 1) χ2α (n − 1)
2 2
100 2. Estadística básica. Aplicaciones
Note sin embargo que a pesar que la función pivote tiene una distribución conocida, puede
resultar complicado despejar p de tal forma que se obtenga un intervalo de confianza
adecuado. Escribamos entonces
s
pb − p √ pb − p √ p(1 − p)
p n= p n .
pb(1 − pb) p(1 − p) pb(1 − pb)
Por tanto
n
!
2 1X
σM
E(b C) = E (Xi − µ)2 − (X − µ)2
n i=1
n
1X
= E(Xi − µ)2 − E(X − µ)2
n i=1
σ2 n−1 2
= σ2 − = σ .
n n
2 2
O sea σbM C no es insesgado para σ . No obstante se puede construir un nuevo estimador
insesgado a partir del razonamiento anterior:
n
1 X n
s2 = (Xi − X)2 = b2 .
σ
n − 1 i=1 n − 1 MC
s2
(n − 1) ∼ χ2 (n − 1).
σ2
En el Anexo F se pueden encontrar otras propiedades interesantes relacionadas con la
distribución normal y la varianza muestral s2 .
f (x; θ)π(θ)
π(θ|x) = R ,
f (x; t)π(t)dt
Θ
sea en verdad una función de densidad, además es inmediato que se puede afirmar lo
siguiente
π(θ|x) ∝ L(θ; x)π(θ),
donde L(θ; x) es la función de verosimilitud de X.
La inferencia según el paradigma bayesiano se deriva a partir de la distribución a
posteriori, considerándose que en la distribución a posteriori está contenida toda la in-
formación sobre el parámetro objeto de estimación que brinda por un lado la muestra
y por otro la información de la distribución de probabilidad del parámetro fijada por la
distribución a priori.
Para hallar las distribuciones a posteriori se prefiere trabajar con distribuciones que
cumplan ciertas propiedades, ya que de esa forma los cálculos son más sencillos. Por su
importancia solamente veremos las llamadas distribuciones conjugadas
Definición 2.2.23 (Distribuciones conjugas) Sea un modelo o familia de distribu-
ciones Pθ indizado por θ para una muestra X = (X1 , · · · , Xn ). Un modelo o familia de
distribuciones a priori Π se dice a priori conjugado para el modelo o familia Fθ si la
distribución a posteriori pertenece a Π, o sea si π(θ|x) ∈ Π para toda f (·, θ) ∈ Pθ y
toda π(θ) ∈ Π.
En la Tabla 2.1 algunas de las distribuciones a priori conjugadas para algunos modelos
de probabilidad
104 2. Estadística básica. Aplicaciones
Tabla 2.1: Distribuciones a priori conjugadas más utilizadas para ciertos modelos clásicos.
No obstante recordemos que el histograma tiene una desventaja que puede malograr el
sentido de la estimación en sí: cuando los datos son continuos el histograma adopta con-
figuraciones diferentes a partir de los intervalos que se definan en la tabla de frecuencia.
Es por ese motivo que no resulta confiable como estimación de la función de densidad de
probabilidad.
La estimación por Kernel es una herramienta no paramétrica que trata de evitar los
inconvenientes que surgen al utilizar los histogramas como medida de representación de
la densidad de una muestra. Veamos la definición de Kernel:
Definición 2.2.24 (Kernel) Se dice que la función K : R → R+ es un Kernel si es
integrable y además Z
K(u)du = 1.
R
Se dice que K es de orden ` si:
Z
µ` (K) = = u` K(u)du 6= 0,
ZR
µj (K) = = uj K(u)du = 0, ∀j = 1, · · · , ` − 1.
R
Kernel K(u)
1
Uniforme 1
2 (−1,1)
(u)
Triangular (1 − |u|)1(−1,1) (u)
3
Epanechnikov 4
(1 − u2 )1(−1,1) (u)
15 2
Biweight 16
(1 − u2 ) 1(−1,1) (u)
Gaussiano √1 exp(− 12 u2 )
2π
A partir del Kernel se define entonces el estimador por Kernel para la función de
densidad de probabilidad.
Definición 2.2.25 (Estimador por Kernel) Sea una muestra X = (X1 , · · · , Xn ) con
valores x = (x1 , · · · , xn ). Supongamos que los Xi siguen una distribución F con función
de densidad f . Se define el estimador por Kernel de f a partir de la muestra en un
punto x como
n
1X
fbh (x) = Kh (x − xi ),
n i=1
2.2. Nociones elementales de estimación 107
donde
1 x − xi
Kh (x − xi ) = K .
h h
El valor h se conoce como ancho de banda del estimador.
Note que el estimador por Kernel fbh (x) depende tanto del Kernel escogido como del ancho
de banda h. La determinación del Kernel no es decisiva en el proceso de estimación.
Sin embargo, la elección del ancho de banda es crucial para determinar la calidad del
estimador. El ancho de banda está relacionado con la suavidad del estimador. Valores
muy pequeños ofrecen estimaciones muy irregulares y valores grandes tienden a producir
estimaciones muy suaves de la densidad a partir de la muestra. Si se desea medir la calidad
del estimador por Kernel se debe analizar el Error Cuadrático medio correspondiente:
h i2
M SEf (fbh , x0 ) = E fbh (x0 ) − f (x0 )
= σf2b (x0 ) + b2fb (x0 ),
h h
donde σf2b (x0 ) representa la varianza del estimador y bfbh (x0 ) el sesgo del mismo en el punto
h
x0 . Cuando el Kernel es simétrico y de orden 2 y se asume que la densidad desconocida
f ∈ C 2 entonces la varianza y el sesgo se pueden escribir de la siguiente forma:
h2 00
b2fb (x) = f (x)µ2 (K) + o(h2 )
h 2
2 1 2 1
σfb (x) = kKk2 f (x) + o .
h nh nh
R
En la expresión anterior k · k22 se define para una función f como kf k22 = R f 2 (u)du.
Note además que el valor de h define el comportamiento del sesgo y la varianza de forma
opuesta: valores pequeños de h generan valores grandes en la varianza y el estimador en
sí prioriza los valores cercanos a los puntos xi de la muestra y se producen estimaciones
muy irregulares; cuando h es grande el sesgo aumenta y el estimador tiende a tratar por
igual a todos los puntos y como resultados obtenemos una densidad estimada demasiado
suave. Es por ese motivo que es extremadamente importante encontrar un buen ancho de
banda para el problema que se está analizando, porque como es de esperar no existe un
ancho de banda universal.
Muchos matemáticos han propuesto diversas formas para determinar el ancho de banda
para una muestra determinada. Por su importancia veremos el método llamado Rule-of-
Thumb. Definamos primero dos conceptos relacionados con el Error Cuadrático Medio
que se utilizan para hallar el ancho de banda óptimo bajo el método Rule-of-Thumb
Definición 2.2.26 (MISE y AMISE) Sea una muestra X = (X1 , · · · , Xn ) con densidad
f ∈ C 2 y que toma valores x = (x1 , · · · , xn ). Sea K un Kernel simétrico de orden 2,
entonces el Error Cuadrático Medio Integrado (MISE de sus siglas en inglés Mean
108 2. Estadística básica. Aplicaciones
h4 2 1
AM ISE(fbh ) = µ2 (K)2 kf 00 k2 + kKk22 .
4 nh
Método Rule-of-Thumb
El método Rule-of-Thumb fue propuesto por Silverman en 1986 y se basa en hallar
el valor de h que minimiza el AM ISE cuando se asumen ciertas condiciones sobre la
densidad f . En general el valor de h que minimiza el AM ISE se puede hallar a partir de
la siguiente expresión:
4
h 2 00 2 1 2
hopt (n) = arg mı́n µ (K)kf (x)k2 + kKk2
4 2 nh
15
kKk22
= .
nµ22 (K)kf 00 k22
El valor de hopt (n) nos ofrece un compromiso entre el sesgo y la varianza del estimador
para no caer en los casos extremos cuando la varianza es muy grande o el sesgo lo es. Note
sin embargo que hopt (n) aún depende de la densidad desconocida f . En ese sentido, hopt (n)
no representa ninguna utilidad práctica porque necesita conocer previamente quién es la
densidad f , la misma que se desea estimar.
En ese sentido Silverman propone utilizar una función conocida en vez de f para
determinar hopt (n). Su propuesta se basó utilizar la densidad de una distribución normal
de media µ y varianza σ 2 . De esa forma se obtiene que
3
kf 00 k22 = σ −5 √ ,
8 π
Digamos que σ
b es el estimador insesgado de σ a partir de la muestra, entonces
1/5
8πkKk22
hopt (n) = σ
b .
3µ22 (K)n
b
El supuesto normalidad utilizado por Silverman para hallar b hopt (n) ha sido amplia-
mente utilizado en diversos problemas debido a su versatilidad y fácil implementación
computacional. No obstante es necesario aclarar que este método ofrece buenos resulta-
dos cuando las densidades desconocidas no difieren mucho de una normal o sea densidades
unimodales, con cierta simetría y con un comportamiento asintotótico similar al Gaus-
siano. Eso no significa que para otro tipo de densidades no ofrezca resultados aceptables,
incluso buenos.
2.3. Rudimentos de pruebas de hipótesis 109
Una variación del método fue propuesta también por Silverman con el objetivo de
eliminar la influencia de valores extremos que se hayan observado en la muestra. La
idea se basó en un estimador más robusto para la variabilidad del estimador: el rango
intercuartil. Bajo el supuesto de normalidad de la muestra es fácil comprobar que
RQ = x0,75 − x0,25
= (µ + σz0,75 ) − (µ + σz0,25 )
= σ (z0,75 − z0,25 )
≈ 1,34σ.
Por tanto
√ 1/5
8 πkKk22
RQ
hrot (n) = mı́n σ
b b,
1,34 3µ22 (K)n
1
Si además trabajamos con el Kernel Gaussiano se puede verificar que que kKk22 = √
2 π
y µ22 (K) = 1. Luego, el ancho de banda toma la forma:
1/5
R 4
hrot (n) = mı́n σ
b b,
1,34 3n
R
≈ 1,06 mı́n σb, n1/5
1,34
Definición 2.3.1 Una hipótesis estadística o sencillamente una hipótesis es una afir-
mación o conjetura sobre la distribución de una o más variables aleatorias.
Obviamente si se trabaja bajo el supuesto de un modelo paramétrico, la familia de dis-
tribuciones posibles o modelo está indizado por un parámetro, la conjetura o afirmación
de la distribución se traducirá en el valor o valores que respectivamente pueda tomar el
parámetro. Usualmente para dar respuesta a la interrogante que se plantea en una prueba
de hipótesis se necesita un mecanismo que nos permita tomar una decisión. En ese sentido
se tiene la siguiente definición
Definición 2.3.2 Un test estadístico asociado a una prueba de hipótesis no es más que
una regla que permite a partir de la realización de la muestra llevarnos a concluir la
aceptación o rechazo de la prueba de hipótesis planteada.
En general, la toma de decisiones bajo la teoría de pruebas de hipótesis no consiste
en rechazar o aceptar la hipótesis que se plantea, más bien se trata de determinar la
información que ofrecen los datos en contra de la misma. Esto se puede ver como una
demostración por contradicción en matemática, pero en este caso no se llegan a contra-
dicciones lógicas, ya que en las aplicaciones estadísticas rara vez existen inconsistencias
lógicas entre los datos y la hipótesis.
Realmente, ¿en qué consiste el problema de pruebas de hipótesis? Ya desde el momento
en que se trata de definir en que consiste el problema comienzan las controversias.
Para la escuela de estadística inglesa, cuya modernidad fundara Fisher, se trata de
encontrar formas de medir la evidencia contenida en los datos, a favor o en contra de lo
que se ha hipotetizado. Como norma no se puede pretender probar la veracidad o falsedad
de una hipótesis estadística.
Si por ejemplo observamos cien realizaciones de un experimento binomial y las 100
resultan en éxitos, eso no demuestra que la probabilidad de ocurrencia de éxito en nuestro
experimento sea 1. La única certeza que podríamos tener en esa circunstancia es que la
probabilidad de éxito es mayor que 0. Si hubiésemos hipotetizado que la probabilidad de
ocurrencia de éxito es un valor pequeño, digamos 0.15. Los resultados obtenidos serían
ciertamente una fuerte evidencia en contra de esa hipótesis, pues es un evento muy poco
probable que con esa probabilidad de ocurrencia, resulten 100 éxitos en 100 repeticiones
del experimento.
La escuela moderna norteamericana, surgida bajo la influencia de los trabajos de
Neyman en la década del 30 del pasado siglo XX se plantea el problema en términos de
aceptar o rechazar una de dos hipótesis opuestas, confrontadas. En última instancia el
problemas es decidir cuál de las dos hipótesis se aceptará como cierta y cuál como falsa.
Como mencionamos anteriormente, rara vez, por la propia naturaleza aleatoria del
problema, se está en condiciones de decidir con certeza a partir de los datos si una hipótesis
estadística es cierta o falsa. A esto se suma que el propio modelo es una idealización y por
consiguiente parece poco relevante enfrascarse en el problema de si una hipótesis relativa
a esa idealización es verdadera o falsa.
Por otra parte es cierto que luego resolver un problema de pruebas de hipótesis, las
consecuencias desde el punto de vista práctico resultan en que se actúa como si la hipótesis
no rechazada fuese realmente cierta y se adoptan decisiones, de importancia sobre la base
de esos resultados.
2.3. Rudimentos de pruebas de hipótesis 111
H0 : θ ∈ Θ0
HA : θ ∈ ΘA
usualmente Θ = Θ0 ∪ ΘA .
Existen varios planteamientos relacionados con las pruebas de hipótesis, nosotros va-
mos a comenzar con el caso más sencillo, o sea cuando la familia de distribuciones esta
bien definida para cada hipótesis, este tipo de problemas se le conoce como simple contra
simple.
Una vez formuladas las hipótesis nula y alternativa, resta decidir a partir de la infor-
mación que brindan los datos (muestra) si no se rechaza la hipótesis nula o si se rechaza
y por tanto se acepta la alternativa. El no rechazar la hipótesis nula es equivalente en el
lenguaje común y corriente a aceptarla, pero en el marco de las pruebas de hipótesis la
connotación de no rechazar es un poco diferente a decir que se acepta. Esta sutil diferencia
se comprenderá más adelante.
Como la decisión se toma a partir de la información que brindan los datos, no se está
exento de error. Es posible que los datos indiquen una evidencia en contra de la hipótesis
nula y la rechacemos siendo ella cierta o que no la rechacemos y ella sea falsa. En el
primero de los casos se dice que se comete un error de tipo I y en el segundo, un error de
tipo II. La siguiente tabla resume el comportamiento general de la toma de decisiones:
Rechazar H0 Aceptar H0
H0 es cierta Error tipo I No se comete Error
H0 es falsa No se comete Error Error tipo II
La aspiración máxima sería determinar una regla de decisión que evitase cometer cualquie-
ra de los dos errores; pero esto, al igual que en la estimación estadística, sería equivalente
a realizar la prueba sin ningún tipo de error, lo cual ya se conoce que es imposible lograr-
lo en el trabajo estadístico. Antes esta imposibilidad pudiésemos conformarnos con una
regla que minimice la probabilidad de cometer cada uno de los errores. Es decir, que si
denotamos por
α = P (Rechazar H0 ; H0 ) β = P (Aceptar H0 ; HA ).
112 2. Estadística básica. Aplicaciones
Sin embargo, esta minimización simultánea es, desde el punto de vista matemático,
imposible, excepto para situaciones donde carece de utilidad práctica. Ante esta dificultad
se ha procede a fijar el tamaño o riesgo de uno de los dos errores y buscar entonces reglas
de decisiones que minimicen el tamaño o riesgo de cometer el otro error. Tradicionalmente
lo que se fija es el tamaño del error de tipo I, es decir, la probabilidad de cometerlo. El
tamaño del error se acostumbra a que sea un valor pequeño, los más comunes son: 0.10,
0.05, 0.01 y 0.001, aunque esto no impide que puedan fijarse otros.
Este proceder trae consigo una consecuencia inmediata y es la siguiente. Si a partir de
los datos observados se decide rechazar la hipótesis nula y esta es cierta, se puede aceptar
la hipótesis alternativa con el conocimiento de cual es la probabilidad de estar errados,
ya que esa ha sido fijada de antemano. Sin embargo, si no se rechazara la hipótesis nula,
aceptarla automáticamente no escaparía al riesgo de hacerlo con una probabilidad de error
lo suficientemente grande como para no estar seguro de la decisión que se toma. Y esto es
así, ya que no se conoce cuál es la probabilidad de cometer el error de tipo II. Hasta tanto
no se sepa el tamaño de este error, la ética estadística aconseja solamente declarar que
no hay suficiente evidencia en contra de la hipótesis nula, por lo tanto no se rechaza, lo
cual no significa que se acepte. Otra consecuencia es que en la hipótesis alternativa debe
colocarse lo que de aceptarse (cuando se rechace la hipótesis nula) se haga con un error
tan pequeño como se estime pertinente. Esto se puede comprender mejor analizando la
tabla anterior pero a partir de las probabilidades de error:
Rechazar H0 Aceptar H0
H0 es cierta α 1−α
H0 es falsa 1−β β
Como la regla de decisión para no rechazar o rechazar H0 se establece a partir de la
observación de la muestra, esto automáticamente está indicando que el espacio muestral se
particiona en dos subconjuntos (obviamente disjuntos), de manera tal que la pertenencia
del punto muestral observado a uno y solo uno de ellos indicará el rechazo o no de la
hipótesis nula. El nivel de significación en este marco se denota por α ∈ (0, 1)
Definición 2.3.3 (Regiones Críticas) Diremos que ωα es una región crítica (o de
rechazo) de tamaño α si a ωα pertenecen todos los puntos del espacio muestral que nos
dan evidencia en contra de H0 al nivel α, o sea
ωα = {x ∈ Ω : Se rechaza H0 } y sup P (X ∈ ωα ; H0 ) = α.
θ∈Θ0
¿Cómo se obtiene en la práctica una región crítica? Por lo general las regiones críticas
están definidas por una condición. Cuando la muestra verifica esa condición se dice que
pertenece a la región crítica. Supongamos que la región crítica se puede escribir de la
siguiente forma
ωα = {x ∈ Ω : Se rechaza H0 } = {x ∈ Ω : T (x) ∈ Aα },
donde Aα es un conjunto que depende del nivel de significación α y T (x) es una función
que depende de la muestra y se le llama estadígrafo del test o simplemente estadígrafo2 ,
el cual debe cumplir que su distribución bajo la hipótesis nula H0 debe ser conocido.
Esta última propiedad es fundamental para determinar la región crítica. Para conocer o
determinar Aα se utiliza la expresión
α = sup P (X ∈ ωα ; H0 ) = sup P (T (X) ∈ Aα ; H0 ).
θ∈Θ0 θ∈Θ0
Veamos un ejemplo. Supongamos que se tiene una muestra X = (X1 , · · · , Xn ) que proviene
de una distribución normal N (µ, 25) y nos interesa la siguiente prueba de hipótesis
H0 : µ = 2
HA : µ > 2
Utilizando el Lema de Neyman y Pearson, que veremos más adelante, se puede determinar
que la región crítica para el problema es
( n
)
X
ωα = {x ∈ Ω : Se rechaza H0 } = x ∈ Ω : xi ≥ d α .
i=1
Pn
En este caso T (x) = i=1 xi y Aα = {x ∈ R : x ≥ dα }. Para determinar el valor de dα se
procede como sigue
α = sup P (X ∈ ωα ; H0 ) = Pµ0 (T (X) ∈ Aα ; µ = 2)
θ∈Θ0
n
!
X
= Pµ0 Xi ≥ dα ; µ = 2
i=1
Es lógico además que un test estadístico debe estar definido por un conjunto de regiones
críticas que satisfagan que
Si α1 < α2 , entonces ωα1 ⊂ ωα2 .
P (X ∈ ωα ; H0 ) ≤ α
El complemento de la región crítica se denomina región de no rechazo o de aceptación,
aunque debe recordarse que si el punto muestral pertenece a esta región no se puede
aceptar automáticamente la hipótesis nula, debiéndose determinar el tamaño del error del
tipo II para saber si con cierta seguridad puede aceptarse.
Por ejemplo, si en un problema de prueba de hipótesis se establece que la hipó-
tesis nula se rechaza siempre que la media muestral de las observaciones sea mayor
que una cierta cantidad k, la región crítica puede describirse de manera general como
ωα = {x ∈ Ω : x > k}.
Las hipótesis en general, y por tanto la nula y la alternativa, se clasifican en simples
o compuestas.
Así por ejemplo, si se formula la hipótesis H0 : θ = 2 vs HA : θ > 2 para un modelo
de Poisson, la primera es una hipótesis simple, ya que bajo la misma, la distribución
de probabilidad es Poisson con media 2. Sin embargo, la segunda solo especifica que la
distribución posible es una Poisson con media mayor que 2, pero no dice exactamente cuál
es. Cuando una hipótesis una desigualdad en algún sentido ( <, >, ≤, ≥) se dicen que
son unilaterales, mientras que si la desigualdad es total, en cualquier sentido (6=) se dice
que bilateral. Obviamente las hipótesis unilaterales o bilaterales son del tipo compuestas.
En ocasiones el parámetro que indiza al modelo es un vector de parámetros, pensemos en
el modelo Normal con media µ y varianza σ 2 , ambas desconocidas y se formula la hipótesis
nula H0 : µ = 4. Esta hipótesis es compuesta, ya que aunque se especifica cuál es la media
de la distribución, no se establece un valor para el otro parámetro, la varianza.
Existen varias formas de determinar regiones críticas para un mismo problema. Por
su importancia solamente mencionaremos dos de las formulaciones más conocidas.
Test de la razón de verosimilitud
Aquí propondremos un test basado en la razón de verosimilitud que gana en utilidad
cuando las hipótesis son del tipo compuesto. Para el caso de simple contra simple el
resultado es también aplicable y lo veremos más adelante como un caso particular del
Teorema de Neyman-Pearson. La razón de verosimilitud generalizada para un problema
de pruebas de hipótesis
H0 : θ ∈ Θ0
HA : θ ∈ ΘA
2.3. Rudimentos de pruebas de hipótesis 115
se define como
supθ∈Θ0 L(θ; x)
Λ= . (2.5)
supθ∈Θ L(θ; x)
En el caso de Θ0 = {θ0 } entonces
L(θ0 ; x)
Λ= .
L(θbemv ; x)
H0 : θ ∈ Θ0
.
HA : θ ∈ ΘA
Asumiendo que se satisfacen las condiciones de regularidad entonces la región crítica
para el test a nivel α se define como
ωα = {x ∈ Ω : Λ ≤ Λ0 } ,
H0 : θ ∈ Θ0
HA : θ ∈ ΘA = Θ − Θ0
116 2. Estadística básica. Aplicaciones
pow(ωα ) = P (X ∈ ωα ; θ ∈ Θ).
Es decir, la función de potencia depende del parámetro que se somete a prueba. Cuando
θ ∈ Θ0 la función de potencia se convierte en la probabilidad del error tipo I, o sea α y
cuando θ ∈ ΘA se transforma en la potencia del test, o sea 1 − β, definido formalmente
como
Definición 2.3.6 (Potencia del test) Sea ωα una región crítica a nivel α relacionada
con el problema de prueba de hipótesis:
H0 : θ ∈ Θ0
HA : θ ∈ ΘA = Θ − Θ0
Entonces se define la potencia del test a nivel α como:
pot(ωα ) = P (X ∈ ωα ; HA ) = P (X ∈ ωα ; θ ∈ ΘA ).
Lema de Neyman-Pearson
Como hemos mencionado antes, la cuestión más importante en un problema de pruebas
de hipótesis es la búsqueda de una región crítica que maximice la potencia y que controle
el error de tipo I, es decir
máx pot(ωα )
s.a : P (X ∈ ωα ; θ ∈ Θ0 ) ≤ α
Una región crítica de nivel α que verifique la condición anterior sería preferible a otra
con el mismo nivel de significación. En ese sentido se define la siguiente región crítica
H0 : θ = θ0
HA : θ = θA
ωα = {x ∈ Ω : lRAO (x) ≥ cα },
donde
L(θA ; x)
lRAO (x) = . (2.6)
L(θ0 ; x)
No es ilógico definir una región crítica de esta forma, ya que guarda cierta relación con la
región crítica definida previamente a partir de la razón de verosimilitud generalizada. La
región crítica de la razón de verosimilitud es muy importante porque nos va a permitir
encontrar una región crítica óptima para una gran variedad de test estadísticos.
2.3. Rudimentos de pruebas de hipótesis 117
El siguiente teorema se debe a Neyman y Pearson, y es sin duda alguna uno de los
más importantes y trascendentales resultados de la teoría de las pruebas de hipótesis.
Teorema 2.3.1 (Neyman-Pearson) Para el problema de pruebas de hipótesis de simple
contra simple
H0 : θ = θ0
.
HA : θ = θA
La región crítica de la razón de verosimilitud es la más potente a nivel α para
cualquier otra dócima ωα0 de nivel α, o sea
pot(ωα ) ≥ pot(ωα0 ),
Demostración
Supongamos que tenemos una muestra de variables aleatorias X = (X1 , · · · , Xn ) que
siguen una distribución Fθ con densidad f (x; θ) para cada Xi . Sea ωα la región crítica de la
razón de verosimilitud asociada y ωα0 otra región crítica del mismo tamaño α. Supongamos
además que nos estamos en un problema de simple contra simple, o sea
H0 : θ = θ0 H0 : f (x; θ) = f (x; θ0 )
⇐⇒ .
HA : θ = θA HA : f (x; θ) = f (x; θA )
P (X ∈ ωα ; H0 ) = P (X ∈ ωα0 ; H0 ) = α,
Q
entonces si f (x; θ) = f (xi ; θ)
Z Z
α = f (x; θ0 )dx = f (x; θ0 )dx
ωα 0
ωα
Z Z Z Z
= f (x; θ0 )dx + f (x; θ0 )dx = f (x; θ0 )dx + f (x; θ0 )dx
0
ωα \ωα 0
ωα ∩ωα 0 \ω
ωα 0
ωα ∩ωα
α
Z Z
⇒ f (x; θ0 )dx = f (x; θ0 )dx
0
ωα \ωα 0 \ω
ωα α
Ahora
ωα \ωα0 ⊂ ωα ⇔ f (x; θA ) ≥ cα f (x; θ0 )
.
ωα0 \ωα ⊂ ωα0 ⇔ f (x; θA ) < cα f (x; θ0 )
Por lo tanto Z Z
f (x; θA )dx ≥ f (x; θA )dx
0
ωα \ωα 0 \ω
ωα α
118 2. Estadística básica. Aplicaciones
⇓
Z Z
f (x; θA )dx ≥ f (x; θA )dx
ωα 0
ωα
⇓
pot(ωα ) ≥ pot(ωα0 )
De lo cual se deduce que la región crítica de la razón de verosimilitud para el problema
de simple contra simple es la óptima, es decir la que tiene mayor potencia para un tamaño
determinado α.
Este resultado es en extremo importante porque nos dice que no existe mejor región crítica
para un problema de simple contra simple, que la región crítica que define el lRAO . Bajo
ciertas condiciones generales sobre la distribución de los datos, el Lema de Neyman y
Pearson se puede extender para problemas compuestos en las hipótesis, no obstante su
desarrollo y discusión excede los objetivos del presente texto.
Pruebas de hipótesis en la práctica
Como analizar un problema de pruebas de hipótesis en la realidad. El método, digamos,
clásico se basa en verificar si la muestra pertenece o no a la región crítica correspondiente
al problema en cuestión. En ese sentido se calculan los llamados estadígrafos asociados
al test y se verifica que cumplan o no la condición de la región crítica. Por ejemplo
supongamos que se tiene una muestra de tamaño 50 de una distribución de Poisson de
parámetro λ y se plantea la siguiente prueba
H0 : λ = 15
HA : λ < 15
y nos interesa hallar la región crítica de nivel α. Para este problema digamos que la región
crítica correspondiente es
( r )
X λ0
ωα = x ∈ Ω : xi ≤ λ0 + Zα ,
n
12 0,0003
14 0,0231
Por lo general los programas ofrecen el estadígrafo Tp (x) con el cual determinan el
p-value. Es importante aclarar que no tienen porqué coincidir el estadígrafo Tp (x) que se
utiliza en cada programa con el estadígrafo T (x) que se utiliza por el método descrito
antes. El programa, por supuesto, ofrece los valores de los p-value de cada prueba, que
son los valores que nos van a permitir tomar una decisión. En el primer caso se obtuvo
que pobs = 0,0003 < 0,01 = α, por tanto se rechaza la hipótesis nula y en el segundo caso
pobs = 0,0231 > 0,01 = α, por lo cual no existe evidencia para rechazar la hipótesis. Note
sin embargo que con este procedimiento se puede decir que el segundo caso rechaza la
hipótesis nula si se hubiese fijado α = 0,05. En ese sentido es muy útil conocer el valor del
p-value porque nos permite formarnos una idea de cuán fuerte es la evidencia que se tiene
en contra de H0 . Ahora si en algún problema se obtiene que pobs > 0,1, entonces podemos
asegurar que la evidencia en contra de H0 no es suficiente para rechazarla, al menos para
los valores clásicos de α que mencionamos antes.
120 2. Estadística básica. Aplicaciones
X − µ0 √ H 0
Estadígrafo Z= n ∼ N (0, 1)
σ
X − µ0 √ H 0 1
n
n ∼ t(n − 1), s2 = (Xi − X)2
P
Estadígrafo T = n−1
s i=1
pb − p0 √ H0 m
Estadígrafo Z=p n ∼ N (0, 1), pb = n, m : Casos favorables
p0 (1 − p0 )
s2 H0 2 1
n
s2 = (Xi − X)2
P
Estadígrafo χ = (n − 1) ∼ χ (n − 1), n−1
σ02 i=1
χ < χ2α (n − 1)
2
Región Crítica χ > χ21−α (n − 1) χ < χ2α (n − 1) o
χ > χ21− α (n − 1)
2
b2 H0 2
σ 1
n
b2 = (Xi − µ)2
P
Estadígrafo χ=n ∼ χ (n), σ n
σ02 i=1
χ < χ2α (n − 1)
2
Región Crítica χ > χ21−α (n) χ < χ2α (n) o
χ > χ21− α (n)
2
X −Y H0
Estadígrafo Z=q 2 2
∼ N (0, 1)
σ1 σ2
n1 + n2
X −Y H0
Estadígrafo T = q ∼ t(n1 + n2 − 2)
1 1
s n1 + n2
Región Crítica T > t1−α (n1 + n2 − 2) T < −t1−α (n1 + n2 − 2) |T | > t1− α2 (n1 + n2 − 2)
1 n 2 n
1 X 1 X
s21 = 2 2
(Xi − X) , s2 = (Yi − Y )2
n−1 n−1
i=1 i=1
Región Crítica T > t1−α (ν) T < −t1−α (ν) |T | > t1− α2 (ν)
pb1 − pb2 H0
Estadígrafo Z=r ∼ N (0, 1)
pb(1 − pb ) n11 + 1
n2
m1 + m2 m1 m2
pb = , pb1 = , pb2 = , m1 , m2 : Casos favorables
n1 + n2 n1 n2
s21 H0
Estadígrafo F = ∼ F (n1 − 1, n2 − 1),
s22
n1 n2
2 1 X 2 2 1 X
s1 = (Xi − X) s2 = (Yi − Y )2
n1 − 1 i=1 n2 − 1 i=1
F < F α (n1 − 1, n2 − 1)
Región Crítica 2
F > F1−α (n1 − 1, n2 − 1) F < Fα (n1 − 1, n2 − 1) o
F > F1− α (n1 − 1, n2 − 1)
2
2 2
Zi ∼ N (µD , σD ), donde µD = µ1 − µ2 , σD = σ12 + σ22 .
124 2. Estadística básica. Aplicaciones
Test para las medias. Datos pareados. Varianzas conocidas o muestras grandes (n > 30)
Caso I Caso II Caso III
H0 : µD = 0 H0 : µD = 0 H0 : µD = 0
Hipótesis vs vs vs
HA : µD > 0 HA : µD < 0 HA : µD 6= 0
Z √ H
Estadígrafo Z= n ∼ N (0, 1)
0
σD
4. Los test no paramétricos son más sencillos matemáticamente que los paramétricos
y se deducen, claro está, de expresiones más sencillas y dado que las hipótesis de
aplicación son menos restrictivas es más fácil su comprensión.
6. Los test de no paramétricos lo que evitan por lo general son los supuestos acerca de
la forma de la función de distribución.
Los test no paramétricos además de permitir estudiar una población cuando se des-
conoce la distribución de la misma, tiene otra utilidad como es la de comprobar que las
hipótesis exigidas para llevar a cabo un contraste paramétrico realmente son satisfechas.
H0 : P = P0
.
6 P0
HA : P =
Bajo H0 se plantea que los datos siguen una distribución P0 conocida y determinada
previamente atendiendo al problema en cuestión. Por ende en la hipótesis alternativa se
establece que la distribución de X no es P0 . Es importante aclarar que en algunos casos
126 2. Estadística básica. Aplicaciones
Note que esta corrección puede reducir el valor del estadígrafo y esto conllevaría a
aumentar la posibilidad de no rechazar la hipótesis nula.
5. Región crítica: n o
ωα = x ∈ Ω : χ2 > χ21−α (k − r − 1) ,
donde r es el número de parámetros libres bajo H0 , o sea, es el número de parámetros
que se han de estimar para el cálculo de las probabilidades.
H0 : F (x) = F0 (x)
.
HA : F (x) 6= F0 (x)
2.4. Test no paramétricos 127
Para obtener una región crítica para esta prueba se necesitaría determinar un estadí-
grafo que bajo H0 nos mida de cierta forma la cercanía entre F y F0 . En ese sentido se
puede plantear
D = máx |F (x) − F0 (x)|.
x
Note que F0 (x(i) ) es la distribución uniforme del i-ésimo estadígrafo de orden de una
uniforme en [0, 1]. Ahora podemos escribir
ωα = {x ∈ Ω : Dn ≥ Dα },
K = sup |B(t)|,
t∈[0,1]
Por ende
K1−α
Dα = √
n
128 2. Estadística básica. Aplicaciones
X
B1 B2 · · · Br Total
A1 O11 O12 · · · O1r n1•
A2 O21 O22 · · · O2r n2•
.. .. .. .. .. ..
Y . . . . . .
Ak Ok1 Ok2 · · · Okr nk•
Total n•1 n•2 · · · n•r n
En dicha tabla se tiene que Oij denota la cantidad de individuos, o casos que pertenecen
a las categorías Ai yPBj al mismo tiempo, ni• denota el total de casos que pertenecen a la
categoría Ai (ni• = rj=1 Oij ) y n•j denota el total de casos que pertenecen a la categoría
Bj (n•j = ki=1 Oij ) y además
P
k X
X r k
X r
X
n= Oij = ni• = n•j .
i=1 j=1 i=1 j=1
Independencia
Estamos interesados en determinar si dos cualidades o variables referidas a individuos
de una población están relacionadas. Se diferencia de otros contrastes en que en este
caso estamos interesados en ver la relación existente entre dos variables de una misma
población, no queremos contrastar la distribución teórica de una variable (prueba de
bondad de ajuste) ni en comparar la distribución de una única variable en dos poblaciones
(prueba de homogeneidad).
Supongamos que se tiene una muestra de n elementos de una población se han ob-
servado dos características X = (X1 , · · · , Xn ). Sobre la base de dichas observaciones se
desea contrastar si las características poblacionales X y Y son independientes o no. La
hipótesis de independencia se plantea de la siguiente manera:
H0 : X y Y son independientes
HA : X y Y no son independientes
Los pasos a seguir para este test son los siguientes
2. Hallar las frecuencias absolutas observadas (Oij )1≤i≤k en las clases creadas.
1≤j≤r
2.4. Test no paramétricos 129
3. Hallar las frecuencias absolutas esperadas (Eij )1≤i≤k en las clases creadas:
1≤j≤r
Eij = nPi Pj , donde Pi = P (Ai ), Pj = P (Bj ):
ni• n•j ni• · n•j
Eij = n · Pi · Pj = n · =
n n n
4. Construir el estadígrafo:
k X r
2
X (Oij − Eij )2
χ = .
i=1 j=1
Eij
5. Región crítica:
n o
2 2
ωα = (x, y) ∈ Ω : χ > χ1−α (k − 1)(r − 1) .
Homogeneidad
Estamos interesados en determinar si los datos correspondientes a dos o más muestras
aleatorias provienen de la misma población. Para este caso se utilizan también las tablas
de contingencia con una modificación conceptual. Ahora la variable o característica X va
a denotar el número de muestras bajo análisis (k) y Y se divide en r conjuntos disjuntos
B1 , · · · , Br pero clasificando en ellos las observaciones de cada muestra. O sea ahora Oij
representa el número de observaciones de la muestra i que pertenecen al conjunto Bj . La
hipótesis de homogeneidad se plantea de la siguiente manera:
H0 : Las k muestras provienen de la misma población
HA : Las k muestras no provienen de la misma población
La hipótesis de que las m poblaciones son homogéneas, se traduce en que cada conjunto
Bj debe tener una probabilidad teórica Pj , desconocida, pero que no cambia de la muestra
i a la muestra i0 . Esto debe verificarse para todas las categorías, i.e., las categorías deben
ser homogéneas en las diversas muestras.
Los pasos a seguir para este test son los siguientes
2. Hallar las frecuencias absolutas observadas (Oij )1≤i≤k en las clases creadas.
1≤j≤r
3. Hallar las frecuencias absolutas esperadas (Eij )1≤i≤k en las clases creadas:
1≤j≤r
Eij = nPi Pj , donde Pi = P (Ai ), Pj = P (Bj ):
ni• n•j ni• · n•j
Eij = n · Pi · Pj = n · =
n n n
130 2. Estadística básica. Aplicaciones
4. Construir el estadígrafo:
k X r
X (Oij − Eij )2
χ2 = .
i=1 j=1
E ij
5. Región crítica:
n o
2 2
ωα = (x, y) ∈ Ω : χ > χ1−α (k − 1)(r − 1) .
H0 : La muestra es aleatoria
.
HA : La muestra no es aleatoria
DD FF |{z}
FFF |{z} D FF |{z} DD FF DDD
D F |{z} FF D .
| {z } |{z} |{z} |{z} |{z} | {z } |{z} |{z}
1 2 3 4 5 6 7 8 9 10 11 12
FFFFFFFFFFFDDDDDDDDDDD,
2.4. Test no paramétricos 131
es fácil percatarse que solamente se observan dos rachas y es evidente que la aleatoriedad
es muy poco probable. Por otro lado si las rachas son muchas comparadas con el total de
la muestra se pudiera pensar que la muestra es aleatoria. No obstante, este caso puede
indicar la existencia de comportamientos cíclicos de corta duración que evidentemente
afectan el carácter aleatorio de los datos. Suponga que en el mismo ejemplo se obtuvo el
siguiente orden:
FDFDFDFDFDFDFDFDFDFDFD.
En este caso hay 22 rachas y es inmediato que hay un comportamiento cíclico en los datos,
por lo cual la aleatoriedad no debe ser cierta. Un hecho curioso es que en ambos casos si
se utiliza la prueba χ2 de bondad de ajuste se hubiese obtenido que la muestra pudiera
provenir de una variable aleatoria Bernouilli con probabilidad 0.5; sin embargo en ambos
casos falla la aleatoriedad de la muestra. Evidentemente si se desconoce el orden de la
muestra no se puede aplicar el test como tal.
Para la formulación de la prueba se definen los siguientes valores, n1 : número de rachas
asociadas al primer símbolo y n2 : número de rachas del segundo símbolo. Sea Rs la variable
aleatoria que cuenta el número de rachas, entonces se cumple que
2n1 n2
µR = E(Rs ) = + 1.
n1 + n2
2n1 n2 (2n1 n2 − n1 − n2 )
σR2 = V (Rs ) = .
(n1 + n2 )2 (n1 + n2 − 1)
Cuando n1 o n2 son mayores que 20 se utiliza la aproximación normal para obtener una
región crítica aproximada:
n o
ωα = r ∈ Ω : |Zr | > Z1− α2 ,
donde R α2 (n1 , n2 ) y R1− α2 (n1 , n2 ) son valores que se pueden encontrar en tablas específicas.
En el Anexo G, en la Tabla G.20 y en la Tabla G.21 se pueden hallar los valores de
R α2 (n1 , n2 ) y R1− α2 (n1 , n2 ) respectivamente.
132 2. Estadística básica. Aplicaciones
Yij = µi + εij i = 1, 2, · · · , k. j = 1, 2, · · · , ni ,
Yij = α + αi + εij i = 1, 2, · · · , k
j = 1, 2, · · · , ni ,
1. E[Yij ] = µi = α + αi .
2. V [Yij ] = V (εij ) = σ 2 .
Yij = µ + δi + εij i = 1, 2, · · · , k
j = 1, 2, · · · , ni ,
donde µ = α + α y δi = αi − α = µi − µ y α = k1 ki=1 αi .
P
Esta última formulación resulta útil por sus propiedades. Note que
k
X k
X
δi = (αi − α) = 0.
i=1 i=1
Estos nuevos parámetros se pueden interpretar de forma sencilla: µ se puede ver como
la media global del modelo y los δi como el efecto diferencial respecto a la media global
del i-ésimo nivel. En particular, note que si los niveles aportan la misma información,
entonces µi son iguales y por ende lo son los αi . Específicamente se cumple que αi = α y
por ende δi = 0. O sea, no se diferencian los efectos de cada nivel.
Establecido el modelo, quedan dos problemas por analizar: validación del modelo, la
estimación de sus parámetros y las pruebas de hipótesis relacionadas con la igualdad o no
de los efectos de los niveles del factor analizado.
k
X
n= ni .
i=1
134 2. Estadística básica. Aplicaciones
Cuando se procede con el método, o sea, derivar con respecto a µ y a todos los δi se llegan
a k + 1 ecuaciones. Es muy fácil comprobar que el sistema en cuestión no tiene solución
única. Con el objetivo de obtener una única solución se añade la siguiente reestricción
k
X
ni δbi = 0.
i=1
σ2
µ
bi ∼ N µi , , i = 1, · · · , k.
ni
sb2
(n − k) 2 ∼ χ2 (n − k) .
σ
De esa forma se pueden obtener intervalos de confianza para los µi utilizando la relación
de la normal con la t-student y la χ2 . En particular se tiene que
√ y i• − µi
ni ∼ t(n − k).
sb
Por ende
sb sb
IC1−α (µi ) = y i• − t1− α2 (n − k) √ ; y i• + t1− α2 (n − k) √ .
ni ni
H0 : µ1 = µ2 = · · · = µk = µ
HA : ∃i : µi 6= µ.
¿Por qué utilizar una prueba de hipótesis con esas características? ? ¿No se pudiera
pensar que la hipótesis del ANOVA se pudiera constrastar utilizando comparaciones dos
a dos con las medias de todos los niveles en lugar de una sola prueba? La respuesta a esta
última pregunta es positiva. Evidentemente si para un factor de k niveles se realizan las
(k − 1)! pruebas indepedientes entre las medias de los niveles, entonces obtendremos una
respuesta al problema en sí.
Suponga que estamos en una situación con solamente 4 factores y la probabilidad del
error de tipo I para H0 : la igualdad de sus medias es α. Si se realizan las 6 pruebas dos a
dos y en al menos una se rechaza H0ij (hipótesis de igualdad entre las medias del i-ésimo
y j-ésimo nivel) con probabilidad de error de tipo I igual a α, entonces se rechaza la
igualdad H0 entre todas las medias y por ende se puede concluir que la influencia de los
4 niveles no es la misma sobre la variable respuesta. ¿Qué sucede cuando no se rechaza
136 2. Estadística básica. Aplicaciones
ninguna hipótesis del tipo H0ij ? En ese caso, la probabilidad de no rechazar H0ij es 1 − α
cuando H0ij es cierta. A partir de la independencia de estas pruebas, la probabilidad de no
rechazar H0 cuando la hipótesis es cierta se convierte en (1 − α)6 , que es un valor menor
que el 1 − α que se debería obtener si se realiza la prueba para H0 .
El Análisis de Varianza, como hemos comentado antes, se basa en la descomposición
de la variabilidad total de los datos. Veamos la siguiente definición
Definición 2.5.2 (ANOVA. Variabilidad) En un modelo ANOVA, clasificación simple
se definen las siguientes medidas de variabilidad:
ni
k X
X 2
SCT = yij − y ••
i=1 j=1
ni
k X
X 2
SCD = yij − y i•
i=1 j=1
ni
k X k
X 2 X 2
SCE = yi• − y •• = ni yi• − y •• .
i=1 j=1 i=1
X ni
k X k
X ni
X
(yij − y i• )(y i• − y •• ) = (y i• − y •• ) (yij − y i• ) = 0,
i=1 j=1 i=1 j=1
| {z }
=0
Las sumas de cuadrados SCD y SCE aumentan con el tamaño de la muestra, con el
objetivo de mitigar este efecto se definen los cuadrados medios para dichas variabilidades
SCE
CM E = (Cuadrado Medio Entre)
k−1
SCD
CM D = (Cuadrado Medio Dentro).
n−k
2.5. Análisis de Varianza 137
¿Cómo utilizar las medidas definidas previamente para crear una región crítica para el
problema? Note que
k ni
SCD 1 XX
CM D = = (yij − yi• )2 = sb2 .
n−k n − k i=1 j=1
Por tanto
E(CM D) = σ 2 .
Luego E(CM E) ≥ E(CM D). Note que la igualdad se cumple solamente cuando todos los
δi = 0. Recuerde que δi = αi − α = µi − µ. En ese sentido, si el cociente
E(CM E)
,
E(CM D)
toma valores cercanos a uno se pudiera decir que la influencia de los niveles del factor son
muy similares; y si toma valores significativamente mayores que uno, entonces se puede
asegurar que existen diferencias entre ellos. Es evidente que el cociente anterior no se
puede calcular en la práctica, por lo que se trabaja con el siguiente estadígrafo
CM E
F = .
CM D
Como variable aleatoria se puede verificar que F sigue una distribución de Fisher-Snedecor,
o sea, F = F (Y ) ∼ F (k − 1, n − k). Los valores k − 1 y n − k se conocen usualmente como
grados de libertad del modelo.
Luego para el problema
H0 : µ1 = µ2 = · · · = µk = µ
HA : ∃i : µi 6= µ,
ni
k X
X 2 SCE CM E
Entre SCE = yi• − y •• k−1 CM E = F =
i=1 j=1
k−1 CM D
k X ni
X 2 SCD
Dentro SCD = yij − y i• n−k CM D = ×
i=1 j=1
n−k
H0 : µr = µs
6 µs ,
HA : µr =
Note que esta prueba es muy similar a la prueba de comparación de medias de dos
poblaciones normales. En este caso aunque la región crítica se determina utilizando la
distribución t-student, también tiene en cuenta el número de comparaciones que se desean
realizar.
En un modelo ANOVA de clasificación simple con k niveles se pueden hacer k2 com-
donde
|y − y s• |
trs = qr• .
sb n11 + n12
Note que el test de Bonferroni aunque se realiza para comparar dos medias específicas
s) y tiene en consideración el número total de
utiliza información de toda la muestra (b
comparaciones que se desean realizar (mk ).
2.5. Análisis de Varianza 139
Existen otras variantes para analizar hacer comparaciones múltiples, se pueden men-
cionar por ejemplo el Test de Tukey, el Test de rango múltiple de Duncan; el Test de
Newman-Keuls o el Test de Scheffé, por solo mencionar algunos.
Validación del Modelo
Como es de esperar, antes de utilizar un modelo ANOVA se deben confirmar que las
hipótesis del modelo se satisfacen. Recordemos que el modelo ANOVA de clasificación
simple:
Yij = µ + δi + εij i = 1, 2, · · · , k
j = 1, 2, · · · , ni ,
se basa en la aleatoriedad de la muestra {Yij }, la normalidad de εij ∼ N (0, σ 2 ) y en la
homocedasticidad de los errores (σ 2 constante).
1. Aleatoriedad:
Para analizar la aleatoriedad se hace uso del Test de Rachas que se estudió previa-
mente.
2. Normalidad:
En cuanto a la normalidad se puede utilizar el test clásico de Kolmogorov-Smirnov
o una prueba de bondad de ajuste χ2 .
3. Homocedasticidad:
Para analizar la homocedasticidad del modelo, o lo que es lo mismo, si en cada nivel
la varianza es la misma, se utilizan ciertas pruebas de hipótesis para la comparación
múltiple de varianzas, o sea:
donde
k
s2 ) − (ni − 1) ln (s2i )
P
(n − k) ln (b
χ2 = ki=1 ,
1
P 1 1
1 + 3(k−1) ni −1
− n−k
i=1
140 2. Estadística básica. Aplicaciones
y
k
2 1 X
sb = (ni − 1)s2i .
n − k i=1
3
Un algoritmo estocástico se puede interpretar, en su formulación más simple, como un método que
produce valores aleatorios para el mismo estado inicial.
2.5. Análisis de Varianza 141
Tiempos de ejecución
MATLAB C++ Phyton R
12,94 12,33 12,27 11,53 13,82 12,24 14,38 12,16
12,00 12,31 10,75 12,52 13,49 12,31 12,29 14,77
12,60 11,63 10,80 12,80 13,77 11,86 13,22
13,70 12,68 8,80 10,88 13,78 13,31 13,63
12,62 10,23 10,68 11,52 15,11 12,15
11,46 9,61 13,54 13,13 13,95
11,64 10,61 12,91 13,41
Sea la prueba
H0 : µ1 = µ2 = µ3 = µ4 = µ
HA : ∃i : µi 6= µ,
Si α = 0,01, entonces
F1−α k − 1, n − k = F0,99 3, 41 = 4,29.
Luego F = 14,44 > 4,29 = F0,99 3, 41 , o sea la muestra pertenece a la región crítica:
n o
ωα = {yij } ∈ Ω : F > F1−α k − 1, n − k ,
por tanto existe evidencia en contra la igualdad de las medias en H0 . Es decir, el tiempo
de cálculo por cada uno de los programas no es el mismo. Este resultado puede resultar
intuitivo, incluso antes de realizar el análisis, si se conocen las características generales
reportadas para cada programa. No obstante, pudiera suceder que algunas propiedades del
algoritmo en sí se adaptaran mejor a las características de uno o varios de estos programas.
Antes de continuar se deberían verificar los supuestos del modelo. La aleatoriedad ya
está implícita por el diseño. Para analizar la normalidad de los datos debemos hallar los
ruidos, o sea εbij , recordemos que
εbij = yij − y i• , ∀i = 1, 2, 3, 4; j = 1, 2, · · · , ni .
142 2. Estadística básica. Aplicaciones
En nuestro caso
t1− αBr n − k = t0,9958 41 = 2,772.
2mk
En la siguiente tabla se obtienen los valores de trs correspondientes a las seis pruebas:
Test de Bonferroni
Prueba Estadígrafo Decisión
H0 : µ1 = µ2 t12 = 3,482 Se rechaza H0
H0 : µ1 = µ3 t13 = 1,583 No se rechaza H0
H0 : µ1 = µ4 t14 = 2,489 No se rechaza H0
H0 : µ2 = µ3 t23 = 4,910 Se rechaza H0
H0 : µ2 = µ4 t24 = 6,178 Se rechaza H0
H0 : µ3 = µ4 t34 = 0,711 No se rechaza H0
Analizando la tabla anterior se puede notar que el segundo programa (C++) tiene una
media diferente al resto de los programas y a su vez no se pueden establecer diferencias
entre las medias del resto de los programas.
2.6. Introducción a las Redes Bayesianas 143
Se dice que el grafo es simple si E no contiene ningún arco del tipo (vi , vi ), ∀i, y el
arco (vi , vj ) ∈ E solamente aparece una sola vez.
Si (vi , vj ) ∈ E diremos que el arco es directo y lo escribiremos como vi vj y, vi se
considera el “padre” de vj y a su vez vj es llamado “hijo” de vi . Si además se cumple que
(vj , vi ) ∈ E, entonces el arco es llamado indirecto y lo denotaremos por vi ! vj . Si todos
los arcos de un grafo son directos, entonces se dice que el grafo es dirigido.
Definición 2.6.2 (Trayectoria) Sea un grafo G = (V, E). Se dice que T(`) es una tra-
yectoria entre dos nodos a y b si existe una sucesión de nodos diferentes (τ0 , τ1 , · · · , τ` )
tales que τ0 = a, τ` = b y τi−1 τi , i = 1, 2, · · · , `. Se dice que la trayectoria tiene
longitud `. Si ocurre que b = a, o sea, τ0 = τ` se dice que existe un ciclo de longitud `.
Se dice que el grafo es acíclico si no existe ningún ciclo de longitud ` > 1.
Se dice que el grafo es conexo si para cualquier par de vértices de G existe una
trayectoria entre ellos.
Una red bayesiana se puede definir formalmente como sigue
Definición 2.6.3 (Red Bayesiana) Una red bayesiana RB es un grafo G = (V, E) diri-
gido y acíclico (DAG de su nombre en inglés: acyclic directed graph), donde cada nodo
Xi de G representa a una variable aleatoria con un número finito de estados mutua-
mente excluyentes y además, cada nodo Xi contiene la distribución de probabilidad
condicional que solamente depende de los nodos padres de Xi , o sea, si RB tiene k
nodos (X1 , X2 , · · · , Xk ), entonces para cada Xi se cumple que
Cuando se trabaja con redes bayesianas los nodos son usualmente variables aleatorias
discretas. En algunos ejemplos se trabajan nodos con valores continuos, sin embargo en el
curso solamente se discutirá el caso discreto. Veamos la siguiente definición:
Definición 2.6.4 (Independencia condicional) Sean las variables discretas X, Y y
Z, diremos que X y Y son condicionalmente independientes dado Z si se cumple que
Sea una red bayesiana RB de k nodos (X1 , X2 , · · · , Xk ). Escribamos para cada Xi los
conjuntos siguientes: Πi : conjunto de nodos padres de Xi , Φi : conjunto de nodos hijos de
Xi y Θi : conjunto de los nodos restantes sin contar a Xi , o sea
{X1 , X2 , · · · , Xk } = {Xi } ∪ Πi ∪ Φi ∪ Θi .
Sea ahora Y ⊂ Φi ∪ Θi , entonces por la propiedad Markoviana de la red bayesiana se
cumple que
P (Xi |Y, Πi ) = P (Xi |Πi ).
A partir de la definición usual de probabilidad condicional se tiene que
P (Xi , Y, Πi )
P (Xi |Y, Πi ) = .
P (Y, Πi )
Entonces
P (Xi , Y, Πi ) = P (Xi |Y, Πi )P (Y, Πi )
= P (Xi |Πi )P (Y, Πi )
= P (Xi |Πi )P (Y |Πi )P (Πi ).
O sea, Xi es condicionalmente independiente con Y ⊂ Φi ∪ Θi dado Πi .
O sea, para crear una red bayesiana se necesita la información inicial del modelo:
probabilidad a priori de los estados de cada variable, orden parcial entre los nodos, las
probabilidades condicionales. Es importante que la red sea una representación adecuada
de la realidad que se analiza, si no carece de sentido su utilización. Finalmente, si para
un problema en específico se pudieran construir varias redes bayesianas, debemos escoger
por lo general, la red bayesiana más simple.
Supongamos X, Y son dos nodos en una red bayesiana, donde X es el padre de Y , o
sea X Y . Supongamos que X tiene k estados y su padre tiene m estados. En ese caso,
para el nodo X se deben conocer los siguientes valores
• El vector de dimensión k de las probabilidades a priori de los estados de X:
0
πX = (π10 , · · · , πk0 )t = (P (X = x1 ), · · · , P (X = xk ))t .
• La matriz de probabilidades condicionales de los estados del hijo dado los estados
del padre
P (Y = y1 |X = x1 ) · · · P (Y = ym |X = x1 )
.. ..
MY |X = P (Y = yj |X = xi ) 1≤i≤k =
..
.
. . .
1≤j≤m
P (Y = y1 |X = xk ) · · · P (Y = ym |X = xk ) k×m
0
Utilizando el Teorema de Bayes con πX y MY |X se obtienen las probabilidades a priori
0
de los estados del hijo: πY , o sea,
Veamos ahora un ejemplo concreto. Un juego de beisbol se puede jugar con una proba-
bilidad dada solo si ese día no llueve, pero la probabilidad de que llueva depende si llovió
el día anterior y a su vez el que haya llovido el día anterior o no, influye en la probabilidad
de que el transporte llegue a un nivel dado: bueno, normal o malo. Se sabe además que
la calidad del transporte a su vez influye en la puntualidad de comienzo del juego.
Para construir la red debemos identificar los posibles nodos. Es inmediato que se
pueden definir 5:
• A: Llueve el día del juego (Dos estados: llueve (A1 ) o no llueve(A2 )).
B = (B1 , B2 )
A = (A1 , A2 ) D = (D1 , D2 , D3 )
C = (C1 , C2 ) E = (E1 , E2 )
O sea,
2.6. Introducción a las Redes Bayesianas 147
B = (B1 , B2 )
0 = (0,3; 0,7)t
πB
MA|B MD|B
A = (A1 , A2 )
0 D = (D1 , D2 , D3 )
πA = (0,55; 0,45)t
0 = (0,31; 0,43; 0,26)t
πD
MC|A
ME|D
C = (C1 , C2 )
0 = (0,56; 0,44)t E = (E1 , E2 )
πC
0 = (0,433; 0,567)t
πE
cuenta nueve bajas más; si este proceso sigue, se tendría en poco tiempo la información
de que toda la tropa está muerta por causa de una sola baja.
Para ilustrar la propagación de un mensaje o información vamos a trabajar con los
nodos X = (Xi )1≤i≤k , Y = (Yi )1≤i≤m y Z = (Zi )1≤i≤r de una red bayesiana RB , tal que
X Y Z, o sea, X es padre de Y y este a su vez es padre de Z. Supongamos además
que Y tiene d hijos entre los cuales se encuentra Z. En lo adelante vamos a asumir que
X es el nodo raíz de la red.
Para evitar duplicidad de información en la red cada nodo de la red se va a equipar
con tres campos: uno con las probabilidades a priori (β·|π ), otro con la memoria de los
mensajes que ha recibido la red directamente por este nodo o por sus hijos (λM |· ) y un
tercero con las probabilidades actualizadas a posteriori de todos los estados (π·|λ∩π ). Por
ejemplo, los campos de Y se pueden escribir como
t
βY |π = P (Y1 | ∩ Mπ ), · · · , P (Ym | ∩ Mπ )
t
λM |Y = P (∩Mλ |Y1 ), · · · , P (∩Mλ |Ym )
t
πY |λ∩π = P (Y1 | ∩ Mπ ∩ Mλ ), · · · , P (Ym | ∩ Mπ ∩ Mλ ) ,
donde ∩Mλ es la información que ha recibido la red directamente por el nodo Y o por sus
hijos y ∩Mπ es la información que proviene del padre de Y .
El primer paso consiste en la inicialización de la red. En ese caso no existe información
adicional en la red y se asume en todos los nodos que
∩Mπ = ∩Mλ = Ω.
t
βY |π = πY0 = MtY |X · πX 0
= P (Y1 ), · · · , P (Ym )
t t
λM |Y = P (Ω|Y1 ), · · · , P (Ω|Ym ) = 1, · · · , 1
t
πY |λ∩π = P (Y1 |Ω), · · · , P (Ym |Ω) = πY0 .
t t 0
βX|π = P (X1 |Ω), · · · , P (Xk |Ω) = P (X1 ), · · · , P (Xk ) = πX .
t t
λM |X = P (Ω|X1 ), · · · , P (Ω|Xk ) = 1, · · · , 1 .
t
πX|λ∩π = P (X1 |Ω), · · · , P (Xk |Ω) = βX|π .
1.3. Actualizar las probabilidades a priori de los hijos del nodo raíz
t
βY |π = MtY |X · βX|π = P (Y1 ), · · · , P (Ym ) = πY0 .
t t
λM |Y = P (Ω|Y1 ), · · · , P (Ω|Ym ) = 1, · · · , 1 .
πY |λ∩π = βY |π .
M = M0 ∩ (∩Mλ ).
Por tanto
P (M |Y1 ) P (M0 ∩ (∩Mλ )|Y1 )
λM |Y = .. ..
=
. .
P (M |Ym ) P (M0 ∩ (∩Mλ )|Ym )
P (M0 |Y1 ) P (∩Mλ |Y1 )
.. ..
= • ,
. .
P (M0 |Ym ) P (∩Mλ |Ym )
150 2. Estadística básica. Aplicaciones
entonces
λM |Y = λ0|Y • λ·|Y . (2.7)
πY |λ∩π = α · λM |Y • βY |π , (2.8)
donde
m
X
α−1 = P (∩Mλ |Yj )P (Yj | ∩ Mπ ).
j=1
2.6. Introducción a las Redes Bayesianas 151
m
P (∩Mλ ∩ Mπ ) X P (∩Mλ ∩ Mπ |Yi )P (Yi )
=
P (∩Mπ ) P (∩Mπ )
j=1
Xm
= P (Yj | ∩ Mπ )P (∩Mλ |Yj )
j=1
Xm
= λM |yj βyj |∩π = α−1 .
j=1
por tanto
t
πY |λ∩π = α · λM |Y • βY |π = 0, · · · , 0, 1, 0 · · · , 0 .
152 2. Estadística básica. Aplicaciones
M = MZ ∩ (∩Mλ ).
λM |Y = λMZ |Y • λ·|Y ,
o sea:
P (MZ |Y1 ) P (∩Mλ |Y1 )
= λMZ |Y • λ·|Y .. ..
λM |Y = • .
. .
P (MZ |Ym ) P (∩Mλ |Ym )
r
X r
X
P (Zi |Yj )P (MZ |Zi ) = P (Zi |Yj )P (MZ |Zi , Yj )
i=1 i=1
r
1 X
= P (Zi |Yj )P (MZ |Zi , Yj )P (Yj )
P (Yj )
i=1
P (MZ Yj )
= = P (MZ |Yj ).
P (Yj )
Por tanto
λM |Y = MZ|Y · λMZ |Z • λ·|Y . (2.9)
Note además que si un hijo le pasa un mensaje por segunda vez a su padre,
entonces se replicaría la información. Es por ese motivo que cuando un
nodo recibe la información de un hijo por λ, se debe eliminar primero la
información previa que esta guardada en λ·|Y . O sea, cuando se actualiza la
red a partir de un hijo, digamos Z, se debe utilizar la siguiente expresión:
Y
b·|Y = P (M 0 |Y ) •
λ •P (Mλ |H),
λ
H∈H:H6=Z
Q
donde H representa al conjunto los hijos de Y . Se define además • como
la productoria término a término de vectores y P (Mλ0 |Y ) es el valor de
λM |Y con la información externa que ha entrado a la red por el nodo Y .
Luego, se debe utilizar
λM |Y = MZ|Y · λMZ |Z • λ b·|Y . (2.10)
πY |λ∩π = α · λM |Y • βY |π ,
donde m
X
−1
α = λM |yj βyj |∩π .
j=1
βY |π = MtY |X · π
bX|λ∩π . (2.11)
k
X k
X
P (Yj |Xi )P (Xi |Mλ∩π ) = P (Yj |Xi , Mλ∩π )P (Xi |Mλ∩π )
i=1 i=1
k
1 X
= P (Yj |Xi , Mλ∩π )P (Xi |Mλ∩π )P (Mλ∩π )
P (Mλ∩π ) i=1
k
1 X
= P (Yj , Xi , Mλ∩π )
P (Mλ∩π ) i=1
P (Yj , Mλ∩π )
= = P (Yj |Mλ∩π ).
P (Mλ∩π )
πY |λ∩π = α · λM |Y • βY |π ,
donde m
X
−1
α = λM |yj βyj |∩π .
j=1
λM |Y = λMe |Y • λ·|Y .
Lo usual es que se conozca λMe |Y , en caso contrario se debe tener la matriz de probabili-
dades condicionales del “nodo mensaje” E dado el padre Y : ME|Y , donde Me es un estado
156 2. Estadística básica. Aplicaciones
B C
Tanto B como C pueden tener otros hijos y otros padres, al igual que A puede tener
otros hijos. Veamo como ajustar el método de propagación de la información en redes
con estructura de árbol adaptada a este caso. Note que si la situación anterior solamente
se repite una sola vez en la red, entonces la actualización de los restantes nodos se hace
utilizando el método usual.
En esta situación supongamos que el nodo B tiene k estados: B = (Bi )1≤i≤k ; el nodo C
tiene r estados: C = (Cj )1≤j≤r y el nodo A tiene m estados: A = (Au )1≤u≤m . A partir de la
relación descrita entre los nodos A, B y C es inmediato que las probabilidades conjuntas
de los estados de ambos padres son necesarias para determinar las probabilidades de los
estados del hijo. Este razonamiento lógico induce el primer cambio del método: ahora
se tiene una nueva matriz de probabilidades condicionales de los estados del hijo, dado
los estados conjuntos de los padres. En este caso particular se tienen n = k · r “nuevos
estados”, digamos D = (D` )1≤`≤n , donde D` = Bi` · Cj` ,
y
P (A1 |D1 ) · · · P (Am |D1 )
.. ..
MA|BC = MA|D = P (Aj |D` ) 1≤`≤n =
..
.
. . .
1≤j≤m
P (A1 |D` ) · · · P (Am |D` ) `×m
2.6. Introducción a las Redes Bayesianas 157
En este tipo de red la matriz MA|BC permanece invariante. Si se tiene en cuenta el orden
que se utilizó para obtener D, entonces la matriz MA|BC se puede descomponer de la
siguiente forma:
MtA|D = MtA|D1,1:r MtA|D2,1:r · · · MtA|Dk,1:r ,
donde
P (A1 |Bi · C1 ) · · · P (A1 |Bi · Cr )
MtA|Di,1:r =
.. .. ..
.
. . .
P (Am |Bi · C1 ) · · · P (Am |Bi · Cr ) m×r
De la misma forma se puede establecer otro orden para MA|BC . Sea E = (E` )1≤`≤n , donde
E` = Bj` · Ci` ,
y
P (A1 |E1 ) · · · P (Am |E1 )
.. ..
MA|BC = MA|E = P (Aj |E` ) 1≤`≤n =
..
.
. . .
1≤j≤m
P (A1 |E` ) ··· P (Am |E` ) `×m
donde
P (A1 |Ci · B1 ) · · · P (A1 |Ci · Bk )
MtA|Ei,1:r =
.. .. ..
.
. . .
P (Am |Ci · B1 ) · · · P (Am |Ci · Bk ) m×k
P (A1 |Bi · C1 ) · · · P (A1 |Bi · Cr ) P (C1 )
MtA|Di,1:r · πC
0 .. .. .. ..
= ·
. . . .
P (Am |Bi · C1 ) · · · P (Am |Bi · Cr ) P (Cr )
Pr P r
P (A1 |Bi · Cj )P (Cj ) P (A1 |Bi · Cj )P (Cj |Bi )
j=1 j=1
= .. ..
=
r . r .
P P
P (Am |Bi · Cj )P (Cj ) P (Am |Bi · Cj )P (Cj |Bi )
j=1 j=1
P (A1 |Bi )
= ..
.
.
P (Am |Bi )
Note que a partir de las expresiones que se obtuvieron para las matrices MA|B y MA|C
ambas se van a modificar cuando la red se actualice. No obstante, pueden existir situacio-
nes en las cuales se conozcan algunos valores de MA|B o MA|C . En esos casos se producen
sistemas de ecuaciones que determinan el comportamiento de MA|D y por ende de MA|E .
Luego, en el proceso de actualización los valores que se conocen a priori no sufren cambios
durante el proceso de actualización.
Supongamos que se tiene la siguiente red bayesiana genérica:
R1 B C
En la red previa, R es el nodo raíz y R1 denota una rama formada por uno o varios
nodos donde cada uno tiene solamente un solo padre. Vamos a asumir que no se tiene
información acerca de MA|B o MA|C . Veamos como se actualiza específicamente la red en
los nodos A, B y C:
1. Inicialización de los nodos
Nodo C: Es un nodo raíz se actualiza como R.
Nodo B: Utilizando el procedimiento usual.
Nodo A: Se utiliza MA|D y D = (D` )1≤`≤n
t
βA|π = MtA|D · βD|π = P (A1 ), · · · , P (Am ) = πA
0
.
t
λM |A = 1, · · · , 1 .
πA|λ∩π = βA|π .
donde
MtA|B t t t
= MA|D1,1:r · πC|λ∩π MA|D2,1:r · πC|λ∩π · · · MA|Dk,1:r · πC|λ∩π
MtA|C = MtA|E1,1:k · πB|λ∩π MtA|E2,1:k · πB|λ∩π · · · MtA|Er,1:k · πB|λ∩π .
Note que tanto πB|λ∩π como πC|λ∩π son los valores de ambos nodos sin
actualizar con la nueva información que proviene de A. Al igual que an-
tes, se debe efectuar el producto usual de matrices antes que el producto
componente a componente.
2.2.2. Actualizar las probabilidades a priori β·|π
El valor de β·|π no se afecta porque no hay información nueva del padre,
o sea:
t
βB|π = P (B1 | ∩ Mπ ), · · · , P (Bk | ∩ Mπ )
t
βC|π = P (C1 | ∩ Mπ ), · · · , P (Cr | ∩ Mπ ) .
πB|λ∩π = αB · λM |B • βB|π
πC|λ∩π = αC · λM |C • βC|π ,
donde
k
X
−1
αB = λM |bi βbi |∩π
i=1
r
X
αC−1 = λM |cj βcj |∩π .
j=1
βA|π = MtA|D · π
bD|λ∩π .
πA|λ∩π = α · λM |A • βA|π ,
donde m
X
−1
α = λM |au βau |∩π .
u=1
3. Propagación de los mensajes
3.1. Nodo instanciado
3.1.1. Algún padre instanciado: B o C
En ese caso el algoritmo se detiene en el nodo en cuestión
3.1.2. El hijo instanciado: A
La información del nodo A no cambia, no obstante si el nuevo mensaje
proviene de B, se debe pasar la información al nodo C. Este compor-
tamiento se debe a que la matriz MA|C cambia si los estados de B se
actualizan y por ende, cambian las probabilidades de los estados de C. De
forma equivalente se procede si la información proviene de C.
Si el nodo A tuviera hijos el algoritmo se detiene en el nodo.
3.2. Nodo no instanciado
3.2.1. Mensaje del hijo
Recibe un λ-mensaje: λM |A .
En este caso se debe tener en cuenta que se requiere la información de los
otros padres del nodo A. No es necesario crear campos nuevos.
3.2.2. Mensaje del padre
Recibe un π-mensaje: π bD|λ∩π .
Note que para enviar este π-mensaje se requiere conocer de donde vino la
información de los hijos, por tanto el campo relativo a λ se debe crear un
vector de dimensión d + 2 para un padre con d hijos para guardar los λ-
mensajes correspondientes. Las dos componentes extras son para guardar
la información inicial y final del nodo referida a λ.
2.6. Introducción a las Redes Bayesianas 161
MA|B MD|B
A = (A1 , A2 ) D = (D1 , D2 , D3 )
t
βA|π = (0,55; 0,45) βD|π = (0,31; 0,43; 0,26)t
λM |A = (1; 1)t λM |D = (1; 1; 1)t
πA|λ∩π = (0,55; 0,45)t πD|λ∩π = (0,31; 0,43; 0,26)t
MC|A ME|D
C = (C1 , C2 ) E = (E1 , E2 )
t
βC|π = (0,56; 0,44) βE|π = (0,433; 0,567)t
λM |C = (1; 1)t λM |E = (1; 1)t
πC|λ∩π = (0,56; 0,44)t πE|λ∩π = (0,433; 0,567)t
Supongamos que el se conoce que el transporte el día del juego estuvo bueno, o sea D = D1 ,
¿qué información nos brinda sobre los restantes nodos? El mensaje es M = {D1 }, entonces
1. Nodo D:
λM |D = (1; 0; 0)t (Paso 2.1.1.)
βD|π = (0,31; 0,43; 0,26)t (Paso 2.1.2. : No cambia)
πD|λ∩π = (1; 0; 0)t (Paso 2.1.3.)
2. Nodo E:
3. Nodo B:
λM |B = (0,1; 0,4)t (Paso 2.2.1.)
βB|π = (0,3; 0,7)t (Paso 2.2.2. : No cambia)
t
πB|λ∩π = (0,097; 0,903) (Paso 2.2.3.)
4. Nodo A:
λM |A = (1; 1)t (Paso 2.3.1. : No cambia)
t
βA|π = (0,448; 0,552) (Paso 2.3.2.)
πA|λ∩π = (0,448; 0,552)t (Paso 2.3.3.)
5. Nodo C:
λM |C = (1; 1)t (Paso 2.3.1. : No cambia)
t
βC|π = (0,642; 0,358) (Paso 2.3.2.)
πC|λ∩π = (0,642; 0,358)t (Paso 2.3.3.)
B = (B1 , B2 )
βB|π = (0,3; 0,7)t
λM |B = (0,1; 0,4)t
πB|λ∩π = (0,097; 0,903)t
MA|B MD|B
A = (A1 , A2 ) D = (D1 , D2 , D3 )
t
βA|π = (0,448; 0,552) βD|π = (0,31; 0,43; 0,26)t
λM |A = (1; 1)t λM |D = (1; 0; 0)t
πA|λ∩π = (0,448; 0,552)t πD|λ∩π = (1; 0; 0)t
MC|A ME|D
C = (C1 , C2 ) E = (E1 , E2 )
t
βC|π = (0,642; 0,358) βE|π = (0,8; 0,2)t
λM |C = (1; 1)t λM |E = (1; 1)t
πC|λ∩π = (0,642; 0,358)t πE|λ∩π = (0,8; 0,2)t
Note por ejemplo como aumentó la probabilidad de que se haya realizado el juego, de 0,56
a 0,642; de la misma forma ocurre con la probabilidad de comenzar puntual, de 0,433 a
0,8 y al mismo tiempo la probabilidad de que haya llovido el día anterior se redujo de 0,3
a 0,097. Todas estas probabilidades son las asociadas a π·|λ∩π , o sea, las probabilidades a
posteriori de los nodos.
Ahora si se conoce que se ha accidentado un pelotero el día del juego y esto ocurre
con probabilidad 0,2 si hay juego y 0,1 si no lo hay. ¿Cómo afecta esta información al
resto de la red? Primero note que el mensaje entraría a la red por la variable juego. Sea
Me = Accidente, entonces
λMe |C = (0,2; 0,1)t .
O sea
2.6. Introducción a las Redes Bayesianas 163
B = (B1 , B2 )
βB|π = (0,3; 0,7)t
λM |B = (0,1; 0,4)t
πB|λ∩π = (0,097; 0,903)t
MA|B MD|B
A = (A1 , A2 ) D = (D1 , D2 , D3 )
t
βA|π = (0,448; 0,552) βD|π = (0,31; 0,43; 0,26)t
λM |A = (1; 1)t λM |D = (1; 0; 0)t
πA|λ∩π = (0,448; 0,552)t πD|λ∩π = (1; 0; 0)t
M
C = (C1 , C2 ) E = (E1 , E2 )
t
βC|π = (0,642; 0,358) βE|π = (0,8; 0,2)t
λM |C = (1; 1)t λM |E = (1; 1)t
πC|λ∩π = (0,642; 0,358)t πE|λ∩π = (0,8; 0,2)t
B = (B1 , B2 )
βB|π = (0,3; 0,7)t
λM |B = (0,013; 0,067)t
πB|λ∩π = (0,075; 0,925)t
MA|B MD|B
A = (A1 , A2 ) D = (D1 , D2 , D3 )
βA|π = (0,448; 0,552)t βD|π = (0,31; 0,43; 0,26)t
λM |A = (0,12; 0,2)t λM |D = (1; 0; 0)t
πA|λ∩π = (0,328; 0,672)t πD|λ∩π = (1; 0; 0)t
Me
C = (C1 , C2 ) E = (E1 , E2 )
t
βC|π = (0,642; 0,358) βE|π = (0,8; 0,2)t
λM |C = (0,2; 0,1)t λM |E = (1; 1)t
πC|λ∩π = (0,782; 0,218)t πE|λ∩π = (0,8; 0,2)t
Supongamos ahora que se tiene una nueva información. La temperatura depende de las
condiciones del tiempo. Digamos que las temperaturas son bajas cuando llueve con una
probabilidad de 0.8 y con una probabilidad de 0.3 cuando no lo hace. Si se conoce que el
día anterior al juego las temperaturas fueron bajas, ¿cómo se afecta la red?
Note que en este caso el mensaje entra a la red por el nodo raíz B. Denotemos el nuevo
mensaje por Mt = T emperatura, entonces
O sea,
2.6. Introducción a las Redes Bayesianas 165
B = (B1 , B2 )
MA|B MD|B
A = (A1 , A2 ) D = (D1 , D2 , D3 )
t
βA|π = (0,448; 0,552) βD|π = (0,31; 0,43; 0,26)t
λM |A = (0,12; 0,2)t λM |D = (1; 0; 0)t
πA|λ∩π = (0,328; 0,672)t πD|λ∩π = (1; 0; 0)t
Me
C = (C1 , C2 ) E = (E1 , E2 )
t
βC|π = (0,642; 0,358) βE|π = (0,8; 0,2)t
λM |C = (0,2; 0,1)t λM |E = (1; 1)t
πC|λ∩π = (0,782; 0,218)t πE|λ∩π = (0,8; 0,2)t
1. Nodo B:
λM |B = (0,010; 0,020)t (Paso 2.2.1.)
βB|π = (0,3; 0,7)t (Paso 2.2.2. : No cambia)
πB|λ∩π = (0,176; 0,824)t (Paso 2.2.3.)
Note que en este paso, la información que se trasmite del nodo B a su hijo A contiene
la información que previamente A le envió cuando pasó el mensaje Me . Es evidente
que se debe eliminar esa información de πB|λ∩π , o sea, se debe hallar π
bB|λ∩π . Como
mencionamos antes, el nodo B debe tener la siguiente información
Por tanto
λD1 |D λMt |B λ
bM |B
2. Nodo A:
Utilizando π
bB|λ∩π se obtiene que
3. Nodo C:
Utilizando π
bA|λ∩π se obtiene que
4. Nodo D:
λM |D = (1; 0; 0)t (No cambia)
t
βD|π = (0,31; 0,43; 0,26) (No cambia)
πD|λ∩π = (1; 0; 0)t (No cambia)
5. Nodo E:
B = (B1 , B2 )
MA|B MD|B
A = (A1 , A2 ) D = (D1 , D2 , D3 )
t
βA|π = (0,511; 0,489) βD|π = (0,31; 0,43; 0,26)t
λM |A = (0,12; 0,2)t λM |D = (1; 0; 0)t
πA|λ∩π = (0,385; 0,615)t πD|λ∩π = (1; 0; 0)t
Me
C = (C1 , C2 ) E = (E1 , E2 )
t
βC|π = (0,591; 0,409) βE|π = (0,8; 0,2)t
λM |C = (0,2; 0,1)t λM |E = (1; 1)t
πC|λ∩π = (0,743; 0,257)t πE|λ∩π = (0,8; 0,2)t
168 2. Estadística básica. Aplicaciones
2. La regresión lineal múltiple: Es una generalización del caso anterior donde se utilizan
k variables predictoras X = (X1 , X2 , · · · , Xk ).
Yi = β0 + β1 Xi1 + εi , i = 1, 2, · · · , n,
Y = Xβ + ε,
donde
Y1 1 X11 ε1
Y = ... , X =
.. .. , β = β0 , ε = ..
. . β1
.
Yn 1 Xn1 εn
Más adelante veremos en qué consiste que una variable Y se pueda describir por un
modelo de regresión lineal. Cuando nos enfrentamos a un problema de regresión lineal,
además de la característica de continuidad de la variable respuesta, es importante que el
estudiante tenga presente que se debe siempre verificar que los ruidos son variables alea-
torias independientes cuya distribución es N (0, σ 2 ). Este supuesto es el más problemático
en el análisis de regresión y en muchas ocasiones no se comprueba correctamente.
¿Cómo determinar si un problema se corresponde con un análisis de regresión lineal
simple? El primer paso para aplicar un método de regresión, sea cual sea el modelo, con-
siste en establecer si existe o no una relación entre la variable respuesta y el conjunto de
variables explicativas. En ese sentido puede suceder que la variable respuesta intuitiva-
mente dependa de la variable o variables explicativas: la estatura depende de la edad, la
producción de azúcar depende del número de campos sembrados, la calidad de la caña y
la temperatura.
Supongamos que estamos en presencia de un problema donde ciertamente existe una
relación entre la variable respuesta y la variable explicativa. En ese caso se debe analizar
la gráfica de los valores observados de Y y X1 , la cual se conoce como diagrama de
dispersión. A partir de la observación de dicha gráfica se determina o no continuar con
el procedimiento de ajuste por un modelo de regresión lineal simple. Es decir, si en el
diagrama de dispersión no se distingue un comportamiento lineal en los datos, carece de
sentido aplicar un ajuste de regresión lineal simple a los mismos. No se debe perder de
vista que un método de regresión se construye con el objetivo de modelar un problema, por
170 2. Estadística básica. Aplicaciones
200 18 2
190 0
16
180 −2
Y Y
Y
170 −4
14
160 −6
150 12 −8
40 50 60 70 80 90 100 6 8 10 12 14 0 10 20 30 40 50 60
X1 X1 X1
Note que la figura previa, las situaciones correspondientes a los gráficos de los extremos
muestran cierto comportamiento lineal, creciente para el primero y decreciente para el
último. En ambos casos se justifica visualmente que un modelo de regresión lineal simple
pudiera explicar la relación entre ambas variables. No obstante, en la situación de la
segunda gráfica los valores parecen completemante aleatorios y no se observa ninguna
relación inmediata entre las variables. O sea, aplicar un modelo de regresión lineal simple
en este caso carece de sentido.
Coeficiente muestral de correlación lineal
Es evidente que la utilización de los diagramas de dispersión para analizar la posible
dependencia de los datos no ofrece una medida exacta de dicha relación. En ese sentido
se utiliza el coeficiente de correlación lineal de Pearson para medir la fuerza de la relación
lineal entre dos variables X y Y :
cov(X, Y )
ρ(X, Y ) = p .
V (X)V (Y )
Si se tienen (x1 , y1 ), (x2 , y2 ), · · · , (xn , yn ) observaciones asociadas a las variables X y
Y entonces el coeficiente muestral de correlación lineal se obtiene a partir de la siguiente
expresión:
Pn
(xi − x)(yi − y)
σ
bxy i=1
ρbxy = =rn n
,
σ
bx σby P 2
P 2
(xi − x) (yi − y)
i=1 i=1
donde n
P
(xi − x)(yi − y)
i=1
σ
bxy =
,
n
es la estimación de la covarianza entre X, Y y se conoce como covarianza muestral. De la
misma forma σ bx2 y σ
by2 son las estimaciones de las varianzas respectivas de X y Y :
n n
1X 1X
bx2
σ = (xi − x)2 , by2
σ = (yi − y)2 .
n i=1 n i=1
2.7. Modelos de Regresión 171
6 f (x) = β0 + β1 x
4
Y
2
−2
0 2 4 6 8 10
X
172 2. Estadística básica. Aplicaciones
Es evidente que si todos los errores fueran nulos, los datos en cuestión estarían en la
recta β0 + β1 x. Es evidente que resulta muy poco probable que esta situación ocurra. El
razonamiento lógico nos indica que se deberían buscar valores que minimicen todos estos
errores. El procedimiento habitual consiste en hallar los valores de β0 y β1 que minimicen
la suma de los cuadrados de estos errores:
n
X n
X
SCEβ = 2i = (yi − β0 − β1 xi )2 .
i=1 i=1
Se trabaja con los cuadrados porque de esta forma se evita que se puedan cancelar los
errores debido a los cambios de signos que pueden presentar los mismos. Un análisis similar
se puede hacer utilizando |i | en lugar de 2i , no obstante se prefiere este último por las
ventajas teóricas y prácticas que tiene.
Para hallar los valores que minimizan
n
X
SCEβ = (yi − β0 − β1 xi1 )2 ,
i=1
βb0 = y − βb1 x.
2.7. Modelos de Regresión 173
E(βb0 ) = β0 , E(βb1 ) = β1 .
Para obtener una estimación para la varianza de los ruidos σ 2 se utiliza el método de
máxima verosimilitud y el supuesto de normalidad de los errores. A partir de la estimación
de la recta de regresión se pueden estimar los residuos del modelo:
n
P
• i xi = 0.
b
i=1
n
P
• i ybi = 0.
b
i=1
donde
E(s2 ) = σ 2 .
4
Esta propiedad se basa en el supuesto de normalidad de los errores.
174 2. Estadística básica. Aplicaciones
Intervalos de confianza
A partir de las propiedades de los estimadores puntuales obtenidos previamente se
pueden obtener intervalos de confianza para β0 , β1 y para cualquier valor y0 ∈ [y(1) ; y(n) ]
dado x0 .
donde
Pruebas de hipótesis
Usualmente se realizan las siguientes pruebas de hipótesis sobre los parámetros de la
recta de regresión:
Test para β0
Caso I Caso II Caso III
H0 : β0 = β0? H0 : β0 = β0? H0 : β0 = β0?
Hipótesis vs vs vs
HA : β0 > β0? HA : β0 < β0? HA : β0 6= β0?
βb0 − β0? H0
h i2
s2
Estadígrafo T = ∼ t(n − 2), s2β0 = n 1 + σbxx
sβ−
Test para β1
Caso I Caso II Caso III
H0 : β1 = β1? H0 : β1 = β1? H0 : β1 = β1?
Hipótesis vs vs vs
HA : β1 > β1? HA : β1 < β1? HA : β1 6= β1?
βb1 − β1? H0 1
h
s
i2
Estadígrafo T = ∼ t(n − 2), s2β1 = n σ
sβ1 bx
Para β1 existe otra prueba basada en el análisis de varianza cuando β1? = 0. Es intuitivo
que en un modelo de regresión lineal simple la variación del sistema se debe solamente a
dos fuentes principales: una debida a la regresión en sí y la otra al error. Al igual que en
el caso de ANOVA (clasificación simple), se puede plantear lo siguiente
n
X n
X n
X
2 2
(yi − y) = yi − y) +
(b (yi − ybi )2 .
|i=1 {z } |i=1 {z } |i=1 {z }
SST SSR SSE
H0 : β1 = 0
HA : β1 6= 0,
se tiene la siguiente tabla ANOVA
n
X SSR M SR
Regresión SSR = yi − y)2
(b 1 M SR = F =
i=1
1 M SE
n
X SSE
Error SSE = (yi − ybi )2 n−2 M SE = ×
i=1
n−2
Total SST = SSR + SSE n−1 × ×
El no rechazo de esta prueba nos dice que el ajuste del modelo de regresión lineal para el
problema pudiera no ser el adecuado.
176 2. Estadística básica. Aplicaciones
i
b 0
−2
0 5 10 15 20
ybi
3σ
i
b 0
−3σ
0 5 10 15 20
ybi
3σ
i
b 0
−3σ
0 5 10 15 20
ybi
3σ
i
b 0
−3σ
0 5 10 15 20
ybi
Nos podemos percatar que el análisis de los residuos a partir de los gráficos resulta
muy informativo. En cuanto a la normalidad se procede de la forma usual, es decir se
utiliza el test de normalidad de Kolmogorov-Smirnov.
Transformaciones
Como hemos visto el modelo de regresión lineal simple puede resultar muy útil para
una gran variedad de problemas. No obstante, y como es lógico, uno de sus mayores
inconvenientes radica en que este modelo no es capaz de captar otros comportamientos
178 2. Estadística básica. Aplicaciones
Predicción
Uno de las principales aplicaciones de la regresión en general es la de predecir. Uno
de los principales aspectos a tener en cuenta cuando se desea realizar una predicción a
partir de un modelo de regresión lineal simple es ¿dónde se puede realizar? Supongamos
que sedesea conocer el valor estimado de una variable Y en un punto x? . Supongamos
además que se realizó un ajuste de regresión lineal simple y se obtuvo para una muestra
(x1 , y1 ), (x2 , y2 ), · · · , (xn , yn ) la recta de regresión:
y = βb0 + βb1 x.
x? ∈ (x(1) , x(n) ).
Si este supuesto se viola, no existen garantías de que el estimador sea razonable. Luego
la predicción o estimación deseada es
Veamos un ejemplo. Supongamos que se desea establecer una relación entre la edad de las
personas y su estatura. En ese sentido se tomó una muestra de 40 personas con edades
2.7. Modelos de Regresión 179
173
Estatura(cm)
130
88
7 16 25 35 50
Edad
173
ρb = 0,9885
Estatura(cm)
130
y = 77,22 + 1,97x
88
7 16 25 35 50
Edad
Figura 2.6: Ajuste de regresión lineal simple para el problema de la estatura y edad. Recta
de regresión y coeficiente muestral de correlación lineal.
180 2. Estadística básica. Aplicaciones
Es evidente entonces que la estatura depende de la edad de forma lineal entre las
edades de 7 y 50 años. Nos queda entonces analizar el comportamiento de los residuos. A
partir de los datos del problema se obtiene que s ≈ 3,74, luego
11,225
i 0
b
−11,225
ybi
y = Xβ + ε,
donde
y 1 x11 · · · x1k β ε
1 0 1
. .. .. . . . . .
y = .. , X = . .. , β = .. , ε = .. .
. .
yn 1 xn1 · · · xnk βk εn
mı́n ky − Xβk.
β
Xt y = Xt Xβ.
La ecuación anterior forma un conjunto de ecuaciones lineales y es justamente la expresión
general de las ecuaciones normales que vimos en el caso del modelo de regresión lineal
simple. Este sistema tiene solución única si y solo si existe la matriz inversa (Xt X)−1 . En
ese caso se obtiene
b = (Xt X)−1 Xt y.
β
Si sucede que no existe (Xt X)−1 , entonces β
b no es único y la solución al problema de
minimización puede ser cualquier valor que satisfaga
Xt y = Xt Xβ.
182 2. Estadística básica. Aplicaciones
A partir de β
b se obtienen los valores aproximados de y:
y b = X(Xt X)−1 Xt y.
b = Xβ
Usualmente se escribe
y
b = Hy,
donde H = X(Xt X)−1 Xt se conoce como hat matrix.
• β
b es insesgado, i.e.:
E(β)
b = β.
• β
b sigue una distribución normal multivariada
O sea
Los residuos del modelo se obtienen de la misma forma que antes en el modelo lineal
simple:
ε=y−y
b b = (In − H)y.
De la misma forma que antes podemos escribir
n
X n
X n
X
2 2
(yi − y) = yi − y) +
(b (yi − ybi )2 .
|i=1 {z } |i=1 {z } |i=1 {z }
SST SSR SSE
εt · b
SSE = b b t Xt y = yt (In − H)y.
ε = yt · y − β
• Intervalo de confianza para y0 ∈ [y(1) ; y(n) ] dado x0 = (1, x01 , x02 , · · · , x0k )t :
h i
IC1−α (y0 ) = yb0 − t1− α2 (n − k − 1)Dy0 ; yb0 + t1− α2 (n − k − 1)Dy0 ,
donde
yb0 = xt0 β
b
Dy0 = s 1 + xt0 (Xt X)−1 x0 .
2 2
Pruebas de Hipótesis
De forma similar al caso de regresión lineal simple se pueden realizar pruebas para los
parámetros βi . El test general se puede escribir de la siguiente forma:
Test para βi
Caso I Caso II Caso III
H0 : βi = βi? H0 : βi = βi? H0 : βi = βi?
Hipótesis vs vs vs
HA : βi > βi? HA : βi < βi? HA : βi 6= βi?
βbi − βi? H0
Estadígrafo T = ∼ t(n − k − 1), s2βi = s2 (Xt X)−1
ii
sβi
Para analizar la validez del modelo se utiliza la prueba basada en el Análisis de Varian-
za. O sea, la prueba que de cierta forma mide la validez del modelo de regresión múltiple
se puede escribir de la siguiente forma:
H0 : β1 = β2 = · · · = βk = 0
.
HA : βj 6= 0, para algún j
Para este problema de prueba de hipótesis se tiene la siguiente tabla ANOVA
n
X SSR M SR
Regresión SSR = yi − y)2
(b k M SR = F =
i=1
k M SE
n
X SSE
Error SSE = (yi − ybi )2 n−k−1 M SE = ×
i=1
n−k−1
Total SST = SSR + SSE n−1 × ×
184 2. Estadística básica. Aplicaciones
El no rechazo de esta prueba nos dice que el ajuste del modelo de regresión múltiple para
el problema pudiera no ser el adecuado.
2 2 n−1 SSE/(n − k − 1)
R
bxy = 1 − (1 − Rxy ) =1− .
n−k−1 SST /(n − 1)
• Outliers: A partir de la misma gráfica se comprueba que los valores de los residuos
se encuentren dentro de un intervalo específico alrededor de cero, por lo general se
utiliza ±3s.
2.7. Modelos de Regresión 185
yi = θx + εi ,
donde εi = 1 − θx si yi = 1 y εi = −θx si yi = 0.
Note que los ruidos asociados al modelo de regresión logística no pueden ser Gaussianos.
Enrealidad
son variables aleatorias de tipo Bernoulli. En la definición previa, a la cantidad
θx θx
ln 1−θx se le conoce como logit y a la razón π(x, β) = 1−θ x
, como odds ratio o cociente
de probabilidades. La probabilidad θx se obtiene a partir del modelo como sigue:
eβ0 +β1 x1 +···+βk xk
θx = .
1 + eβ0 +β1 x1 +···+βk xk
Note que
θx = P (Y = 1|X = x).
2.7. Modelos de Regresión 187
Estimación de parámetros
El método clásico de mínimos cuadrados no es el adecuado para determinar los es-
timadores de los parámetros involucrados en el modelo debido a las características de
la variable respuesta (dicótomica y por ende no continua). En este caso se utiliza el
enfoque máximo verosímil para determinar dichas estimaciones. Si se desean hallar los
valores de β = (β0 , β1 , · · · , βk )t que maximizan la ocurrencia del evento aleatorio de-
finido por los valores de y = (y1 , y2 , · · · , yn )t a partir de x = (x1 , x2 , · · · , xn )t , donde
xi = (xi1 , xi2 , · · · , xik )t . En ese caso para cada valor de i = 1, 2, · · · , n, se cumple que
l(β; x, y) = ln L(β; x, y)
Xn
= yi ln θxi + (1 − yi ) ln(1 − θxi )
i=1
n n
X X θxi
= ln 1 − θxi + yi ln
i=1 i=1
1 − θxi
n n k
β0 + kj=1 βj xij
X P X X
= − ln 1 + e + y i β0 + βj xij .
i=1 i=1 j=1
Si se asume que existen las derivadas parciales de l(β; y) con respecto a β se obtiene para
cada j = 0, 1, · · · , k que
Pk
n
X eβ0 + j=1 βj xij n
∂ X
l(β; x, y) = − Pk xij + yi xij
∂βj i=1 1 + e β0 + j=1 βj xij
i=1
Xn
= yi − θxi (β) xij .
i=1
b (π) = π
D b(xi )(1 − π
b(xi )), i = 1, 2, · · · , n,
ii
βbj − βj D
(x)
−−−→ Z ∼ N (0, 1),
sbj n→∞
donde q
(x) (β)
sbj = Vbjj .
De esa forma se obtienen los intervalos de confianza correspondientes para los parámetros
del modelo:
θx P (Y = 1|X = x)
π(x, β) = = .
1 − θx P (Y = 0|X = x)
Si por ejemplo, un coeficiente estimado es positivo, entonces el valor del odds ratio
π(x, β) aumentará cuando el valor de la variable explicativa correspondiente aumente.
De forma similar el odds ratio disminuirá cuando el coeficiente sea negativo. Si dicho
coeficiente estimado es cero, entonces nos indica que la influencia de la variables explicativa
en cuestión no aporta información acerca del comportamiento del odds ratio.
Pruebas de Hipótesis
En cuanto a los test de hipótesis relacionados con la regresión logística, solamente
mencionaremos algunos de los más importantes.
En ese caso se puede utilizar el test de Wald:
Definición 2.7.4 (Test de Wald) Sea una muestra x = (x1 , x2 , · · · , xn ) cuya función de
distribución depende de un parámetro real θ0 ∈ R. Si θb es un estimador asintóticamente
normal de θ0 con desviación estándar σθ (x), entonces para la prueba
H0 : θ = θ0
6 θ0
HA : θ =
donde
θb − θ0
TW = .
σθ (x)
Test para βj
Caso I Caso II Caso III
H0 : βj = βj H0 : βj = βj?
?
H0 : βj = βj?
Hipótesis vs vs vs
HA : βj > βj HA : βj < βj?
?
HA : βj 6= βj?
† ‡
donde θbemv y θbemv son los estimador máximo verosímiles de los parámetros que definen
a los modelos M , M ‡ respectivamente.
†
donde θbxi es el estimador máximo verosímil de θxi para el modelo ajustado, o sea
†
θbemv = θbxi .
La región crítica para la prueba se define por
n o
ωα = {xi , yi } ∈ Ω : Dx,y > χ21−α (N − K) ,
Luego
†
Dx,y = −2 ln L(θbemv ; x, y) .
2.8. Métodos de Clasificación 191
Capítulo 3
Ejercicios de Probabilidades y
Estadística
En este capítulo se ofrecen los ejercicios para el trabajo individual y en las clases
prácticas del curso.
194 3. Ejercicios de Probabilidades y Estadística
Probabilidad Clásica
1.1 Se colocan aleatoriamente los 7 tomos de una obra en un estante. Halle la probabi-
lidad de que queden en orden.
1.2 Tres atletas A, B, C toman parte en una competencia, si se sabe que los lugares
pueden ser compartidos. ¿Cuál es la probabilidad de que B llegue solo en primer
lugar a la meta?
1.3 Se lanzan 2 dados homogéneos al mismo tiempo. ¿Cuál es la probabilidad de que la
suma de sus valores sea 8?
1.4 Se desconocen las últimas 3 cifras de un número telefónico y solamente se sabe que
son diferentes. ¿Cuál es la probabilidad de marcar el número correcto?
1.5 Hallar la probabilidad de obtener carabina en un juego de cubilete en un solo lan-
zamiento o tirada.
1.6 Se tiene una caja con 6 bolas azules, 3 bolas blancas y 5 bolas negras. Se toman
5 de ellas sin reposición. Hallar la probabilidad de que estas sean 2 bolas azules, 2
bolas blancas y 1 bola negra.
1.7 Si en la pregunta anterior las bolas se toman una a una pero con reposición y se
extraen 3 bolas. ¿Cuál es la probabilidad de que hayan exactamente 2 bolas azules
entre las 3 bolas extraídas?
1.8 Un dado balanceado es lanzado 12 veces. Halle la probabilidad de obtener una
secuencia de resultados en la que cada número aparezca exactamente 2 veces.
1.9 Doce bolas numeradas son colocadas en doce urnas al azar de manera tal que cada
bola tiene la misma probabilidad de caer en cualquier urna.
1. Hallar la probabilidad de que las bolas caigan en diferentes urnas.
2. Hallar la probabilidad de que la primera urna contenga exactamente dos bolas.
3. Resolver el mismo problema pero asumiendo que las bolas no están numeradas.
1.10 En una fila de un aula se sientan 3 niñas y 3 niños al azar en seis sillas. Halle la
probabilidad de que:
1. Se sientan los 3 varones juntos.
2. Se sientan alternados varones y hembras.
3. Analice el inciso a) asumiendo que son 7 sillas. ¿Cree usted que se necesiten
consideraciones adicionales?
1.11 En una mesa redonda de siete puestos se sienta a comer una familia compuesta por 7
personas ¿Cuál es la probabilidad de que las dos personas de mayor edad se ubiquen
en dos puestos consecutivos?
3.1. Ejercicios del Capítulo 1 195
1.13 Se tiene una moneda homogénea de radio r y se lanza sobre una mesa cuadrada de
lado `. Si se asume que la moneda cae siempre por una de sus caras y no se mueve,
entonces cuál es la probabilidad de que si la moneda toca la mesa no se caiga de la
misma.
1. Que el producto de las caras sea un cuadrado perfecto y que la suma de las
caras sea no menor que 5
2. Que la suma de las caras sea un número par o mayor que 7
3. Que en el primer dado salga un primo y en el segundo un impar o que los dos
dados tengas cifras mayores que 3
1.15 Se lanzan 3 monedas balanceadas y se definen los sucesos A: sale exactamente una
cara, B: sale al menos una cara y C: no salen caras. Calcule la probabilidad de los
siguientes eventos A · B, A + B, B\C c , A + B + C, Ac · B.
1.19 En los siguientes circuitos la probabilidad de fallo de cada resistencia en 200 horas
de trabajo es 0.1 y se asume que los cables no fallan. Hallar la probabilidad de
que circule corriente entre A y B. Las resistencias fallan independientemente una de
otras.
1.
A R1 R2 B
196 3. Ejercicios de Probabilidades y Estadística
2.
R1
A B
R2
3.
R1 R4
A R3 B
R2 R5
1.20 Se tienen dos agujeros donde se lanzan 3 bolas rojas y 3 verdes. Cada bola roja tie-
ne la misma probabilidad de caer en cada hueco y las verdes caen con probabilidad
3/4,1/4 en los huecos 1 y 2 respectivamente. Halle la probabilidad de los sucesos
A: Hay sólo una bola roja en el hueco 1,
B: Hay exactamente 1 bola verde en el hueco 2 y
C: Hay exactamente 1 bola en el hueco 1.
1.21 Se lanzan dos dados. ¿Cuál es la probabilidad de que su suma sea 8 si se conoce que
en el primero de ellos hay un número par?
1.22 Se colocan al azar bolas en N cajas hasta que quede ocupada la primera caja. Halle
la probabilidad de que el proceso termine en el paso n.
1.23 Si se sabe que al lanzar cinco veces una moneda balanceada aparecieron al menos 2
caras, cuál es la probabilidad de que número exacto de caras haya sido 3.
1.24 En una urna se encuentran diez bolas: 3 blancas y 7 negras. Se selecciona una
primera bola y sin reponerla se selecciona una segunda. Sea A el evento de haber
seleccionado la primera vez una bola blanca, sea B el evento de haber seleccionado
la segunda vez una bola blanca y sea C el evento de que al menos una de las dos
bolas seleccionadas sea blanca. Determine
1. P (B|A)
2. P (A|B)
3. P (A|C)
1.25 Cuatro bolas numeradas son colocadas en cuatro celdas de modo que cada arreglo
es igualmente probable. Dado que las 2 primeras bolas están en diferentes celdas,
cuál es la probabilidad de que una celda contenga tres bolas.
1.28 Dos gestores de información A y B reciben al azar las peticiones que van llegando a
un servidor con probabilidades de 3/5 y 2/5 respectivamente cuando están funcio-
nando. El primer gestor queda fuera de servicio un 80 % del tiempo en el que debería
estar trabajando y B un 25 %. Calcule la probabilidad de que un gestor funcione
cuando llega una petición.
1.29 (Paradoja de Monty Hall ) Considere tres puertas, una de las cuales contiene un
premio. Usted selecciona una de las puertas al azar, y luego, de las dos restantes,
un moderador le muestra una puerta vacía. A continuación puede seguir una de las
dos siguientes estrategias:
Calcule las probabilidades de obtener el premio con cada una de las estrategias.
1.30 Se tienen dos urnas, la primera tiene 2 bolas blancas y 7 negras, la segunda tiene
5 blancas y 6 negras. Se lanza una moneda y se selecciona una bola de la primera
urna si sale cara y de la segunda si sale escudo. Halle la probabilidad de que salió
cara si la bola que se seleccionó es blanca.
1.31 Si un avión se encuentra en cierta región del Medio Oriente un radar registra su
presencia con probabilidad 0,9. Si ninguno se encuentra presente, el radar puede
registrar una señal falsa de presencia de avión con probabilidad 0,1. Se supone que
la probabilidad de que algún avión se encuentre en la región es 0,2.
1.33 En un cajón hay 20 pelotas de las cuales 15 son nuevas y 5 están usadas, se extraen
dos pelotas para un juego y después se vuelven a colocar en la caja. Si se toman dos
pelotas de la misma caja para un nuevo juego. ¿Cuál es la probabilidad de que este
segundo juego se lleve a cabo con pelotas nuevas?
1.34 Una urna contiene 3 bolas negras, 3 blancas y 2 rojas. Se sacan 3 bolas y se colocan
en una caja negra, después se extraen 3 bolas y se colocan en una caja blanca y
las dos restantes en una caja roja. ¿Cuál es la probabilidad de que todas las bolas
caigan en cajas de su mismo color?
1.36 Se tienen 3 cajas con bolas, cada una con 6 bolas blancas y 4 bolas negras. Se pasan
2 bolas de la primera caja a la segunda y se toman 2 bolas de la segunda y se pasan
a la tercera caja. Si se toma una bola de la tercera caja, cuál es la probabilidad de
que las bolas que se pasaron de la primera a la segunda caja sean del mismo color
dado que la bola que se extrajo de la tercera caja sea negra.
1.37 Diez estudiantes contestan preguntas independientemente uno del otro, y cada uno
hasta el primer fallo. Si la probabilidad de fallar al contestar una pregunta no de-
pende de los anteriores resultados y es de 0.8 para cualquier pregunta. ¿Cuál es la
probabilidad de que al menos 8 estudiantes lleguen a la quinta ronda de preguntas?
1.38 Una fábrica usa en su sistema de producción crudo de dos pozos petroleros distintos.
Del primer pozo le enviaron 10 barriles de crudo y del segundo, 8 barriles. Si la
fábrica utiliza 5 barriles de crudo diario y estos son tomados al azar entre los dos
lotes. Calcule la probabilidad de que al tercer día solamente quede crudo del primer
lote.
1.39 Hay 6 cajas con 12 tornillos, buenos y malos. Una caja contiene 8 buenos y 4 malos,
2 cajas tienen 6 buenos y 6 malos y 3 cajas tienen 4 buenos y 8 malos. Se elige una
caja al azar y se extraen 3 tornillos sin reemplazamiento de los cuales 2 son buenos
y 1 malo. ¿Cuál es la probabilidad de que la caja elegida tenía 6 tornillos buenos y
6 tornillos malos?
1.40 Se tienen 2 cajas con bolas, la primera con 5 bolas blancas y 5 bolas negras, la
segunda con 3 bolas blancas y 7 bolas negras. Se toman aleatoriamente 2 bolas de
cada caja y se unen. Si entre las 4 bolas hay 3 bolas negras y una bola blanca. ¿Cuál
es la probabilidad de que se haya sacado una bola blanca de la primera caja?
3.1. Ejercicios del Capítulo 1 199
1.41 Se tienen dos cajas de bolas con bolas amarillas, blancas y rojas, tres de cada color
en cada caja. Se sacan bolas sin reposición de la primera caja hasta que salga una
amarilla y luego se toman todas las que se sacaron y se arrojan en la segunda caja,
si de esta última se tomó una bola y fue blanca, ¿cuál es la probabilidad de que
provenga de la primera caja?
1.42 Se tienen dos cajas con tres bolas blancas, tres bolas azules y tres bolas rojas. Se
toman aleatoriamente 2 bolas de la primera caja y se echan en la segunda y luego
se toman 2 de la segunda y se echan en la primera. ¿Cuál es la probabilidad de que
la composición de ambas cajas sea la misma al final?
1.43 Dos baterías de 6 cañones cada una disparan a un mismo blanco, la primera está a
3 Km. del blanco y la probabilidad de impacto para cada cañón es de 0.2 en cada
disparo y la segunda batería está a 5 Km. y la probabilidad de impacto en cada
disparo de cañón es de 0.1. Diga cuál es la probabilidad de que en una andanada de
disparos independientes para cada batería, den al menos 2 impactos en el blanco.
1.44 En un campo de tiro 6 tiradores disparan a un blanco hasta que logran el tercer
impacto. La probabilidad de impacto en cada disparo es de 0.3 y los disparos son
independientes uno del otro para el mismo tirador y de tirador a tirador. Si se conoce
que un tirador realizó al menos 5 disparos. Calcule la probabilidad de qué el primer
tirador haya efectuado al menos 8 disparos.
1.45 Una batería antitanque se compone de 10 cañones y para el primer grupo de 6 caño-
nes las probabilidades de que, al producirse un disparo, ocurra un impacto corto, un
impacto bueno o un impacto largo son iguales a 0, 3; 0, 5 y 0, 2 respectivamente. Para
cada uno de los 4 restantes estas probabilidades son: 0, 2; 0, 6 y 0, 2 respectivamen-
te. Tres cañones escogidos al azar realizan tres disparos contra un blanco y de ellos
exactamente 2 producen como resultado un impacto largo, uno bueno y uno corto.
¿Cuál es la probabilidad de que los dos cañones con este resultado pertenezcan al
primer grupo?
1.47 Se tiene una caja con 3 bolas blancas y 4 bolas negras. Se selecciona indistintamente
y al azar si se van a hacer las extracciones con o sin reposición y luego se sacan cinco
bolas de la caja en forma sucesiva. Si al final se sacaron exactamente tres blancas,
¿cuál es la probabilidad de que la primera bola fuera blanca?
1.48 Tres deportistas realizan pruebas eliminatorias para una competencia, son cinco
pruebas que se realizan en forma consecutivas con posibilidad de ser eliminado en
cualquiera de ellas y no seguir en la competencia. Las probabilidades de éxito para
el primer deportista son: 0, 5; 0, 8; 0, 9; 0, 4; 0, 7 para el segundo estas probabilidades
200 3. Ejercicios de Probabilidades y Estadística
1.49 Cinco aviones salen a una misión de combaten y se dividen en dos grupos de 2 y
3 aviones respectivamente, el más pequeño va a bombardear una fábrica de arma-
mento donde la artillería antiaérea puede derribar a cada avión con probabilidad
0, 2. El segundo grupo se dirige primero hacia un emplace de tanques donde pue-
den ser derribados cada uno con probabilidad 0, 4 y posteriormente a bombardear
una hidroeléctrica cercana donde la probabilidad de derribar k aviones de los n que
2(k+1)
vienen juntos al ataque es de (n+1)(n+2) . ¿Cuál es la probabilidad de que más de 4
aviones regresen a la base? Si regresó un solo avión, ¿Cuál es la probabilidad de que
estuviera en la hidroeléctrica?
1.50 La probabilidad de que cada aparato falle durante un experimento no depende de los
fallos de los demás aparatos y es igual a 0, 2. Se han ensayado 9 aparatos. La variable
aleatoria X es el número de aparatos que han fallado durante las pruebas. Calcule
la función de distribución de X y las probabilidades de los sucesos: A = {X = 0},
B = {X < 3} y C = {X ≥ 6}.
1.51 Una variable aleatoria discreta X toma los valores {−2, −1, 0, 1, 2}. Se conoce que
1 1 3
FX (−1) = , FX (0) = , FX (2) = .
8 2 4
Halle la función de distribución y de probabilidad de X, si se conoce además que
P (X = 1) = 3P (X = 0).
1.52 Un libro de Estadística de 500 páginas contiene 300 erratas. Considerando aplicable
una ley de Poisson con parámetro igual al promedio de erratas por página, hallar el
número más probable de erratas en una página de texto y la probabilidad de este
número.
1.53 Una moneda es lanzada tres veces. Considere la variable aleatoria definida como el
número de caras obtenidas en los tres lanzamientos.
1.55 Se realizan disparos contra un blanco que se aleja. Con el primer disparo, la proba-
bilidad de dar en el blanco es de 0, 8 y en cada disparo sucesivo la probabilidad de
impacto disminuye a la mitad.
1.56 En un cierto juego de tiro con arco, cada jugador tiene una probabilidad de acertar
en el blanco de 13 . Si acierta recibe dos flechas y en caso contrario pierde la flecha
lanzada. Un jugador tiene al inicio 5 flechas y el juego termina cuando se llega a
la tercera ronda de lanzamiento. Halle la función de probabilidad para la variable
aleatoria número de flechas al concluir el juego para un jugador.
k
1.57 Sea X una variable aleatoria con función de probabilidad P (X = x) = x
, para
x = 1, 2, 3, 4. Halle el valor de k y P (1 < X < 4).
1.58 Se tienen 2 urnas. En la primera urna hay 6 bolas blancas y 4 negras y en la segunda 6
negras y 4 blancas. Se saca al azar una bola de la primera caja, se observa y se repone
y luego, cualquiera que haya sido el resultado se pasa una bola de la segunda caja a
la primera y se repite toda la operación una segunda vez. ¿Cuál es la probabilidad
del número de bolas blancas que con mayor probabilidad fue sacado de la primera
caja?
1.59 Un jugador tiene una probabilidad de 0.5 de ganar una determinada partida cada
vez. Diga qué es más probable ganar 3 partidas de 4, 5 u 8.
1.60 Se lanzan una vez tres dados iguales. La variable aleatoria S toma el valor 1 si al
menos en un dado sale el 6; vale 0 si el 6 no aparece pero sale al menos un 5 y toma
el valor −1 en los demás casos. Describa su función de probabilidad y calcule su
función de distribución.
1.61 Sea U una variable aleatoria con distribución uniforme: U (a, b). Calcular la proba-
bilidad de que como resultado de un experimento, U tome valores entre (a + b)/4 y
(a + b)/2.
1. Determine el valor de k para que la función anterior sea una función de densidad
de una variable aleatoria X.
2. Hallar P (X > 2) y P (1 ≤ X < 5).
202 3. Ejercicios de Probabilidades y Estadística
1.63 El tiempo de duración de un cierto tipo de lámpara es una variable aleatoria conti-
nua, cuya densidad es:
Ax
f (x, A) = si 5 ≤ x ≤ 10
50
y cero en otro caso.
1. Calcule el valor de A.
2. Hallar la probabilidad de que una lámpara funcione más de 8 horas.
3. Si 7 lámparas funcionan independientemente, hallar la probabilidad de que
menos de 3 funcionen más de 8 horas.
1.64 Una variable aleatoria en el intervalo [0, 2] tiene la siguiente función de distribución:
1 a
FX (x) = (x + 4)2 − .
20 5
Determine la densidad de X y halle el valor de a.
1.65 Sea la variable aleatoria X con distribución N (µ, σ 2 ). Halle la probabilidad de que
X se encuentre en los siguientes intervalos:
1. [µ − σ; µ + σ].
2. [µ − 2σ; µ + 2σ].
3. [µ − 3σ; µ + 3σ].
1.66 Se selecciona un número real X del intervalo [2, 10] con densidad
f (x) = Cx,
1. Halle C.
2. Halle P (E), donde E = [a, b] es un subintervalo de [2, 10].
3. Halle P (X > 5), P (X < 7), y P (X 2 − 12X + 35 > 0).
1. Halle el valor de a.
2. Calcule P (X > 1) y P ( 13 < X < 74 ).
3.1. Ejercicios del Capítulo 1 203
1. Poisson de parámetro λ.
λx e−λ
P (X = x) = , x = 0, 1, 2, · · · .
x!
2. Exponencial de parámetro θ
3. Gamma de parámetros α y λ.
λ(λx)α−1 e−λx
f (x) = 1(0,+∞) (x).
Γ(α)
1.70 Si el tiempo está bueno (lo cual ocurre con probabilidad 0,6), Alice va caminando
2 km a la universidad a una velocidad de 5 km/h, si el tiempo es malo entonces va
en bicicleta a una velocidad de 20 km/h. Halle el tiempo medio que le toma a Alice
llegar a clases.
1.71 Dos equipos juegan un torneo determinado. Cada juego es ganado por el equipo
A con probabilidad p y por B con probabilidad 1 − p. El ganador del torneo es el
equipo que primero gane 4 juegos. Halle el valor esperado de del número de juegos
que se deben realizar para terminar el torneo.
1.73 Una moneda se lanza n veces. La probabilidad de obtener cara es p. Se dice que
hay un cambio cuando el resultado del lanzamiento es diferente al anterior. Halle el
valor esperado del número de cambios realizados en n intentos.
204 3. Ejercicios de Probabilidades y Estadística
1.74 Una compañía aseguradora paga por día de hospitalización 100 $, durante los tres
primeros días y 50 los siguientes. Considerando que los días de hospitalización X es
una variable aleatoria discreta con función de probabilidad
(
6−k
para k = 1, 2, 3, 4, 5
P (X = k) = 15
0 en otro caso.
1.75 Sea X una variable aleatoria con valor esperado EX = − 12 y función de densidad
(
1
kx + 2
x ∈ [−1, 1]
f (x) =
0 en otro caso.
Determine el valor de k y halle la varianza de X.
1.76 Una moneda perfecta se lanza 6 veces. La variable aleatoria X es la diferencia entre
el número de caras que han salido y el de escudos. Halle su función de probabilidad,
su función de distribución, así como su valor esperado y varianza.
1.77 Considere el siguiente juego donde a una persona se le proponen dos preguntas para
responder. La pregunta A puede ser respondida correctamente con probabilidad
0,8, y en tal caso la persona obtendría un premio de 100e mientras que la pregunta
B tiene una probabilidad de 0,5 de ser respondida correctamente y un premio de
200e. Si la persona responde correctamente la primera pregunta seleccionada gana el
premio correspondiente y tiene derecho a responder la segunda pregunta. Diga cuál
pregunta debe responder la persona primero para maximizar la ganancia esperada.
1.78 Un servidor de correo envía un mensaje por minuto. Se conoce que dicho servidor
tiene una probabilidad de 0.7 de enviar correctamente el mensaje. Si el servidor
falla en el envío entonces el correo se pierde. Si el servidor falla un total de 3 veces
se desconecta y entra a funcionar otro servidor que envía su primer mensaje con
probabilidad 0.9, pero después falla en cada mensaje con probabilidad 0.6.
1.79 Sea (X, Y ) un vector aleatorio discreto con función de probabilidad conjunta dada
por
3.1. Ejercicios del Capítulo 1 205
1.80 Sea (X, Y ) un vector aleatorio discreto cuya función de probabilidad está represen-
tada en la siguiente tabla:
X Calcule
2 3 4
1 0.2 0.1 0.2 1. Calcule PX , PY y F(X,Y )
Y
4 0.1 0.3 0.1 2. FY
3. PX|Y =4
4. E[Y |X > 2]
5. V [X|Y = 4]
1.81 Sea (X, Y ) un vector aleatorio discreto con función de probabilidad dada por
X
4 6 8 10
0 0 0.1 0.2 0.1
Y 1 0 0 0 0.2
2 0.2 0.1 0 a
1. Halle el valor de a.
2. Halle las funciones de probabilidad marginales y la distribución conjunta.
3. Halle V [Y ] y E[X|Y = 2].
4. Diga si X y Y son independientes. Justifique.
1.82 Se lanza 3 veces un dado homogéneo y se definen las variables aleatorias siguientes:
X: número de veces que aparece el 6; Y : número de apariciones de una cifra impar.
1.83 Sea (X, Y ) un vector aleatorio discreto con función de probabilidad conjunta dada
por
206 3. Ejercicios de Probabilidades y Estadística
X Calcule
-1 0 1
-1 1/6 0 1/6 1. La función de distribución conjunta y
Y 0 0 1/3 0 las probabilidades marginales
1 1/6 0 1/6 2. P (X < 0, Y < 1) y P (X ≥ 0, Y = 1)
3. PX|Y =1
4. V [X]
5. V [Y |X > −1]
6. P (X > Y )
1.84 Sea (X, Y ) un vector aleatorio discreto con función de probabilidad conjunta dada
por
Y
1 3 6 8
0 0.1 0.1 0.1 0
X 2 0.1 0.2 0.1 0
4 0.1 0.1 0 0.1
1.85 Cuatro amigos deciden enviar cada uno una carta a cualquiera de los otros 3 del
grupo. Sea X la v.a. número de cartas que recibe el primero de ellos y Y la v.a.
número de cartas que recibe el segundo de ellos. Complete en la tabla la función de
probabilidad conjunta.
X
0 1 2 3
0 4/81
1 10/81 17/81
Y
2 8/81
3 2/81
1. Halle PY y FY .
2. Halle E[X/Y = 1].
3.1. Ejercicios del Capítulo 1 207
es una densidad conjunta para un vector aleatorio (X, Y ). Determine las distribu-
ciones marginales de ambas variables y calcule P (X ≤ 1,5, Y ≤ 0,5).
1.87 La función de densidad de un vector aleatorio continuo es:
f (x, y) = c(xy + y 2 )
cuando 0 ≤ x ≤ 2; 0 ≤ y ≤ 1.
1. Determine el valor de la constante c.
2. Determine si las variables X y Y son independientes.
3. Halle las funciones de distribución marginal.
1.88 Sea (X, Y ) un vector aleatorio continuo con distribución conjunta
(1 − e−βx )(1 − e−λy ) x ≥ 0, y ≥ 0
F (x, y) =
0 otro caso
1. Encuentre las distribuciones y densidades marginales de X y Y .
2. Calcule la probabilidad asociada a los siguientes eventos:
A = {X ≤ 1, Y ≤ 1}.
B = {1 < X ≤ 2, 2 < Y < 5}.
1.89 Sea (X, Y ) un vector aleatorio con función de densidad conjunta
1
2x2
|x| < 1, 0 ≤ y ≤ x2
f (x, y) =
0 otro caso
1. Halle las funciones de densidad marginal de X y Y .
2. Calcule P (Y > 0,25) y P (X > −0,5, Y < 0,64).
3. Diga si las variables son independientes.
1.90 La densidad conjunta del vector aleatorio (X, Y ) está definida por la siguiente ex-
presión
cxy(1 − x) 0 < x < 1, 0 < y < 1
f (x, y) =
0 otro caso
208 3. Ejercicios de Probabilidades y Estadística
1. Determine el valor de c
2. Halle las distribuciones marginales de X y Y .
3. Calcule V X y V Y .
4. Diga si las variables son independientes.
1.93 Sea (X, Y ) un vector aleatorio continuo, cuya densidad f (x, y) = k está definida en
la región limitada por las rectas x = 0, y = 0, x + y = 1
1. Encuentre el valor de k.
2. Calcule P (X > 0, Y < 21 )
3. Calcule V X.
X
1 2 3
-1 0 0.1 0.1
Y 0 a 0 0.2
1 0.3 b 0
3.1. Ejercicios del Capítulo 1 209
Además se conoce que la variable aleatoria X toma sus valores con probabilidad
0,75, 0,25 y 0 cuando Y = 1.
1. Halle el valor de las constantes a y b.
2. Halle la esperanza de X y la varianza de Y .
3. Calcule el coeficiente de correlación entre ambas variables.
1.95 Diga si X y Y son independientes si la función de densidad conjunta es
1. f (x, y) = 4xy si 0 < x < 1 y 0 < y < 1, y f (x, y) = 0 en otro caso.
2. f (x, y) = x + y si 0 < x < 1 y 0 < y < 1, y f (x, y) = 0 en otro caso.
Halle la correlación entre X y Y .
1.96 El número X se escoge al azar en un conjunto de números enteros {1; 2; 3}. Luego
se escoge aleatoriamente, en el mismo conjunto, el número Y , que es mayor o igual
que X.
1. Calcule las funciones de probabilidades marginales.
2. Diga si las dos variables aleatorias son independientes.
3. ¿Están incorrelacionadas las variables aleatorias?
1.97 Sea un vector aleatorio continuo (X, Y ) con función de densidad conjunta definida
por la siguiente expresión
−(x+y)
2e 0 < y ≤< x
f (x, y) =
0 otro caso
Halle corr(X, Y ).
1.98 Se colocan al azar 3 bolas numeradas en 5 urnas. Cada urna puede contener más
de una bola. Sean las siguientes variables aleatorias, X: número bolas en la primera
urna, Y : número de urnas ocupadas.
1. Halle la función de probabilidad conjunta del par (X, Y ).
2. Calcule el coeficiente de correlación lineal entre ambas variables.
1.99 Sea un vector aleatorio continuo (X, Y ) con función de densidad conjunta definida
por la siguiente expresión
−(x+y)
xe x > 0, y > 0
f (x, y) =
0 otro caso
Halle cov(X, Y ).
1.100 Se tiene una urna con una pelota negra, tres pelotas blancas y dos pelotas rojas. Se
toman pelotas al azar y sin reemplazamiento hasta que salga una bola blanca. Sea
X la v.a. número de pelotas extraídas y Y la v.a. número de pelotas rojas extraídas.
Complete en la tabla la función de probabilidad conjunta.
210 3. Ejercicios de Probabilidades y Estadística
X
1 2 3 4
0 0.5 0.1
Y 1
2
1.102 El ancho de banda que utiliza un usuario de la universidad es una variable aleatoria
independiente para cada usuario y con la misma distribución. Se conoce que su valor
esperado es 1kbps y la varianza 0,25kbps. Suponga que hay 100 usuarios conectados
en un momento determinado. Calcule la probabilidad de que el ancho de banda que
se está utilizando sobrepasé los 256kbps.
1.103 Se conoce que los errores de redondeo distribuyen U (−5 × 10−k ; 5 × 10−k ) donde k es
la precisión del resultado. Si en un método numérico el error total puede considerarse
como la suma de todos los errores de redondeo, los cuales son independientes y se
realizaron 104 operaciones, ¿Cuál es la probabilidad de que el resultado tenga dos
cifras exactas?
1.104 Se tiene una caja con 3 bolas blancas y 2 bolas negras y se toma al azar una bola,
después de anotar el color se devuelve a la caja. Si esta experiencia se repite 1000
veces de forma independiente, cuál es la probabilidad de que al menos 410 bolas
hayan sido bolas negras.
1.105 Sea un grupo de N personas, donde N es muy grande. A cada persona se le pregunta
si conoce el Teorema de Bayes y se obtiene que la probabilidad de conocer dicho
teorema es p = 0,2. Si se vuelve a formular la misma pregunta pero a un grupo de
n personas del mismo grupo, cuál es el menor valor de n que se debe tomar para
que la probabilidad observada de conocer el Teorema de Bayes en el nuevo grupo
pn cumpla que P (|pn − p| < 0,03) > 0,95.
1.106 Se tiene una línea de producción con 500 tornos iguales que trabajan en forma
independiente. En un tiempo de cinco minutos la pieza se termina y se revisa.
Existe una probabilidad de 0.2 de que la pieza no tenga problemas, pero si los tiene
se repara con una probabilidad de 0.6. Si en 5 minutos solamente se puede terminar
una pieza con el proceso de revisión incluido, diga cuál es la probabilidad de que se
obtengan al menos 360 piezas sin defectos en cinco minutos.
3.1. Ejercicios del Capítulo 1 211
1.109 Demuestre que las siguiente sucesiones de variables aleatorias cumplen la Ley de los
Grandes Números
xk −1 2 4
1 1 1
P (Xk = xk ) 4 4 2
xk − ln k 0 ln k
1 2 1
P (Xk = xk ) k2
1− k2 k2
1.110 Sea una sucesión de variables aleatorias independientes {Xk } para k ≥ 1 tales que
1
P (Xk = −k a ) = P (Xk = k a ) = ,
2
para a < 12 . Demuestre que la sucesión cumple con la Ley de los Grandes Números.
212 3. Ejercicios de Probabilidades y Estadística
1.113 (Programación) Se desea generar los resultados del lanzamiento al azar de una
moneda simétrica, pero solo se posee una moneda sesgada que tiene probabilidad p
desconocida de aparición de escudo. Compruebe que con el siguiente procedimiento
la probabilidad de aparición de cada cara es igual a 1/2:
1. Lanzar la moneda.
2. Lanzar la moneda otra vez.
3. Si en ambos lanzamientos aparece la misma cara reiniciar con el paso a).
4. El resultado del último lanzamiento es el resultado deseado.
1.114 (Programación) Sea U ∼ U (0, 1) y 0 < q < 1. Compruebe que la variable aleatoria
X = [ log U
log q
] + 1, donde [x] denota la parte entera de x, tiene distribución geométrica
con parámetro 1 − q.
1.115 Una variable aleatoria X con densidad f (x) = λ2 e−λ|x| , x ∈ R, λ > 0, se dice que
tiene distribución de Laplace con parámetro λ. Sean X ∼ Exp(λ) y U ∼ U (0, 1)
variables aleatorias independientes. Compruebe que la variable aleatoria Y tal que
X si U ≤ 1/2
Y = ,
−X si U > 1/2
1.116 (Programación) Proponga un método para generar variables aleatorias con distri-
bución Γ(λ, n).
1.117 (Programación) Proponga un algoritmo que permita generar al azar una permu-
tación de los primeros n números naturales.
3.2. Ejercicios del Capítulo 2 213
Estadística descriptiva
2.3 Sea x = (x1 , x2 , · · · , xn ) los valores de una cierta muestra aleatoria. Determine, a
partir de x, el valor cv que minimiza
n
X
(xi − cv )2 .
i=1
2.5 (Programación) Suponga que se desea realizar una encuesta en una de cinco uni-
versidades donde se estudia Ciencia de la Computación. La encuesta consiste en
preguntarles a los estudiantes su opinión acerca de la calidad de su universidad en
cuanto a la docencia: Excelente, Buena, Normal, Regular y Mala. Se sabe que las
opiniones en cada una de las universidades se comportan de forma diferente. Simu-
le la selección al azar de una universidad si se supone que todas tienen la misma
probabilidad de ser elegidas. Después de seleccionada la universidad, simule los re-
sultados de la encuesta si se supone que la muestra fue de 120 estudiantes. Debe
tener en cuenta que los resultados en cada universidad deben ser, de cierta forma,
diferentes. Explique cómo lograría usted obtener comportamientos diferentes de for-
ma simulada para cada universidad. Realice un estudio descriptivo completo de los
datos simulados: tabla de frecuencia, medidas descriptivas, gráficos. Comente los
resultados. Compare estos resultados con otra simulación donde se seleccione una
universidad diferente.
2.6 Sea x = (x1 , x2 , · · · , xn ) los valores de una cierta muestra aleatoria. Demuestre que
n
P
1. (xi − x) = 0.
i=1
214 3. Ejercicios de Probabilidades y Estadística
n n
(xi − x)2 = x2i − n(x)2 .
P P
2.
i=1 i=1
2.7 A partir de los valores de una muestra de una variable aleatoria discreta X se obtuvo
el siguiente histograma
fi
40
30
20
10
xi
1 2 3 4 5
X
2.8 Una muestra de n artículos son examinados en una jornada por un equipo deter-
minado, la muestra es tomada de una población. El número de artículos buenos en
una jornada sigue una distribución binomial de parámetros n y p(probabilidad de
que un artículo no esté defectuoso). La jornada es aceptada si los n artículos son
buenos y no lo es en otro caso.
De m jornadas x son aceptadas. Halle el estimador máximo verosímil de p.
2.9 La longitud (en centímetros) de los huevos en un nido de una especie ave están en
la siguiente tabla:
22 23.9 20.9 23.8 25 24 21.7
23.8 22.8 23.1 23.1 23.5 23 23
2.10 Sea X una variable aleatoria que sigue una distribución hipergeométrica HG(n, m, N )
con función de probabilidad definida por
n N −n
x m−x
f (x; n, m, N ) = N
.
m
2.11 Sean θb1 y θb2 dos estimadores insesgados para un cierto parámetro θ. Demuestre que
para α ∈ (0, 1) el estimador θbα = αθb1 + (1 − α)θb2 es también insesgado para el
parámetro.
g(xk )
xk+1 = xk − ,
g 0 (xk )
2.13 Se observan los tiempos de vida de n elementos a partir de un mismo instante t0 hasta
un instante de tiempo determinado t. De los n elementos, k concluyen su ciclo de
vida con tiempos y1 , · · · , yk y n − k siguen con vida en el instante t. Suponiendo que
los tiempos de vida sigan una distribución exponencial de parámetro β. Determine la
verosimilitud inducida de este hecho y además calcule el estimador máximo verosímil
para β.
Estimación por intervalos
2.14 En una zona del país se ha seleccionado aleatoriamente la cantidad de 100 niños
entre 4 y 10 años de edad, reportándose que 36 de ellos padecen de asma. De una
estimación puntual y por intervalo de confianza al nivel 0.90 de la proporción de
niños que padecen de asma.
216 3. Ejercicios de Probabilidades y Estadística
2.15 Por experiencia se conoce que la longitud de los camarones que se crían en una
represa posee una desviación típica de 0.35cm. Se desea realizar una estimación por
intervalo de la longitud promedio por camarón en uno de los tanques donde se crían
los mismos. Si se fija un coeficiente de confianza de 0.95 ¿Cuántos camarones hay
que seleccionar aleatoriamente para que la amplitud del intervalo sea de 0.22cm?
Asuma normalidad en los datos.
2.16 Una fábrica de baterías de celulares ha recibido en los últimos meses quejas de
clientes por la poca duración de su producto. El gerente se plantea realizar un
estudio para controlar el nivel de calidad que ofrece. Suponiendo que la variable
aleatoria que mide la duración de las baterías sigue una distribución Exponencial,
selecciona una muestra de 200 baterías obteniendo que su duración es de 30 horas.
¿Cuáles son el número mínimo y máximo de horas que puede ofrecer el gerente para
la duración media de las baterías, con una confianza de 0,95?
2.17 Un analista desea obtener una aproximación de los ingresos de las familias residentes
en un barrio. El analista dispone de información referente a 50 familias seleccionadas
aleatoriamente, de forma que los ingresos totales de las 50 familias ascienden a
10 millones de euros con una desviación típica de 2000 euros. ¿Podría dar una
estimación de la renta familiar media con una confianza del .95 ?
2.18 Un banco determinado, estudia la posibilidad de cerrar una sucursal situada en cierto
barrio. La dirección decide cerrar la sucursal si el número de clientes promedio no
sobrepasa los 22 servicios diarios. Para efectuar el estudio se considera el número de
clientes que demandan diariamente servicios en la sucursal sigue una distribución de
Poisson. Después de registrar el número de servicios prestados durante 150 días, se
concluye que la media es 20 servicios al día. Obtener un intervalo de confianza del
.95 al estimar el número medio de servicios prestados diariamente. ¿Cree usted que
esta información es suficiente para tomar una decisión? En caso contrario proponga
una solución al problema.
2.19 En una central telefónica hay un único teléfono público con línea internacional.
La variable aleatoria que mide el tiempo de espera en la cola de dicho teléfono se
admite que sigue una distribución exponencial. La dirección quiere averiguar cuál
el tiempo medio de espera de los usuarios, con vistas a ampliar el número de líneas
internacionales. Preguntando a 150 clientes seleccionados al azar, se ha obtenido un
tiempo medio de espera para los mismos de 20 minutos. Obtenga un intervalo para
el tiempo promedio de espera con una confianza de ,99.
2.20 En una imprenta existen dos responsables distintos A y B de los trabajos de impre-
sión. De los resultados del último año se conoce que el número medio de erratas por
página cometidas por el responsable A es de 0.15 y el de B es de 0.10. A cierto autor
le han impreso un libro de 180 páginas y se han encontrado un total 25 erratas, y
se asume que el responsable de su impresión fue A. Suponiendo que el número de
3.2. Ejercicios del Capítulo 2 217
erratas por página se modela por una distribución de Poisson y utilizando un nivel
de significación del 0.05, decida si efectivamente el responsable de la impresión fue
A y no B.
2.21 El Ayuntamiento de una ciudad desea averiguar si el inicio de las obras del metro,
ha repercutido de alguna forma en la fluidez del tráfico. Para ello decide centrar el
análisis en el servicio que realiza una línea de autobus urbano. Antes de iniciarse
las obras, a las horas centrales del día, un autobús tardaba un tiempo medio de
60 minutos en completar su recorrido, con una desviación típica de 5 min. En la
actualidad después de medir el tiempo de recorrido de 36 autobuses, se calcula para
los mismos un tiempo medio de recorrido de 65 min con una desviación de 8 min.
¿Puede asegurarse que las obras de la construcción del Metro han modificado la
fluidez del tráfico en la ciudad?
2.24 Un combinado lácteo tiene como normas producir leche con un promedio de cinco
gramos de mantequilla por litro. En un control de la calidad; se tomó una muestra
aleatoria de 16 litros, obteniéndose una media de 4,7 gramos de mantequilla por
litro con una desviación típica de 0,8 gramos por litro ?
2.25 El instituto de protección e higiene del trabajo calibra periódicamente el efecto que
produce la aplicación de determinadas normas. En una comprobación de 30 centros
de trabajos se halló que la variabilidad fue de 0,9; la cual es mayor que la establecida
de 0,7 ¿Puede afirmarse que para α = 0, 05 la variabilidad del efecto que produce
las normas ha cambiado respecto a la establecida a partir de los datos obtenidos?
218 3. Ejercicios de Probabilidades y Estadística
2.26 Como resultado de observaciones prolongadas una clínica ha establecido que la pro-
babilidad de curación completa de un enfermo que toma el medicamento A es 0,8.
La clínica ha experimentado un nuevo medicamento B en 800 enfermos y 660 de
ellos se curaron totalmente. Se puede considerar el nuevo medicamento más eficaz
que el medicamento A con un nivel de significacio?n del 5 %.
2.27 Una organización llevo a cabo dos encuestas idénticas en 1990 y en 2000. Una de las
preguntas planteadas a las mujeres eran ¿la mayoría de los hombres son amables,
atentos y gentiles?. En 1990, de 3000 mujeres interrogadas, 2010 dijeron que si. En
2000, 1530 de las 3000 encuestas contestaron afirmativamente. ¿Puede concluirse
que en el año 2000 las mujeres creen que los hombres son menos amables, atentos y
gentiles que en el 1990 para α = 0,05?
2.29 El total de alumnos que promueven de secundaria, mostró una variabilidad durante
el quinquenio 2000 al 2005 de 0,4. Una muestra aleatoria de 100 estudiantes corres-
pondientes al quinquenio 2005 al 2010, mostró una desviación típica de 0,5. ¿Hay
razones suficientes para creer que la variabilidad de los alumnos que promueven
fuera menos estable durante el quinquenio 2005 al 2010 que durante el quinquenio
2000 al 2005? Considere α = 0, 05.
2.30 Se consideran válvulas eléctricas del mismo tipo, procedentes de dos fábricas distin-
tas. La duración de las válvulas es una variable aleatoria normal de parámetros µ
y σ 2 . Para la primera fábrica, dicha distribución es N (µ1 ; 242 ), y para la segunda,
N (µ1 ; 282 ). Se extraen en las dos fábricas muestras aleatorias simples de tamaños
respectivos n1 = 10 y n2 = 200. La duración media de las válvulas de la primera
muestra es X = 1452h, mientras que en la segunda se obtiene Y = 1459h. Pue-
de admitirse con un nivel de significación α = 0,1 que la segunda fábrica produce
válvulas con mayor duración media que la primera?
Test no paramétricos
2.36 Una cadena de supermercados europea necesita conocer la frecuencia del número de
veces en la semana que las familias van a una de sus dependencias. Se realizó una
encuesta a 100 familias y los resultados fueron los siguientes:
xi 0 1 2 3
Oi 22 42 28 8
220 3. Ejercicios de Probabilidades y Estadística
Para su análisis asumieron que el número de veces en la semana que las familias van
a una de sus dependencias sigue una distribución binomial B(3, 0.5). Cree usted que
tengan razón con un nivel de significación α = 0,05.
2.37 Analice el problema anterior sin especificar el valor de p en la binomial. O sea, asuma
que los datos provienen de B(3, p). Cree usted que tengan razón con un nivel de
significación α = 0,05.
2.38 Un estudio sobre tabaquismo en tres comunidades, mediante tres muestras aleatorias
de tamaño 100, proporciona los siguientes resultados:
2.39 Se desea verificar que un dado está balanceado. Con ese objetivo se lanzó 60 veces,
obteniendo los siguientes resultados
xi 1 2 3 4 5 6
Oi 7 12 10 11 8 12
2.41 Se desea evaluar la efectividad de una nueva vacuna antigripal. Para ello se sumi-
nistra de manera voluntaria y gratuita, en una pequeña comunidad. La vacuna se
administra en dos dosis, separadas por un período de dos semanas, de forma que
algunas personas han recibido una sola dosis, otras han recibido las dos, y otras
personas no han recibido ninguna. La siguiente tabla indica los resultados que se
registraron durante la siguiente primavera en 1000 habitantes de la comunidad ele-
gidos al azar.
3.2. Ejercicios del Capítulo 2 221
Proporcionan estos datos suficiente evidencia estadística (al nivel α = 0,05) para
indicar dependencia entre el número de dosis recibidas y la protección frente a la
gripe.
(Li−1 ; Li ] Oi
(1; 1,25] 2
(1,25; 1,5] 6
(1,5; 1,75] 29
(1,75; 2] 20
(2; 2,25] 64
(2,25; 2,5] 16
(2,5; 2,75] 31
(2,75; 3] 10
(3; 3,25] 5
(3,25; 3,5] 12
(3,5; 3,75] 3
(3,75; 4] 2
2.43 Un estudio que se realizó con 81 personas referente a la relación entre la cantidad
de violencia vista en los video juegos y la edad del televidente produjo los siguientes
resultados
Proporcionan estos datos suficiente evidencia estadística (al nivel α = 0,01) para
indicar dependencia entre la violencia y la edad de las personas.
Redes Bayesianas
222 3. Ejercicios de Probabilidades y Estadística
2.44 (Programación) A una consulta llegan pacientes con tres posibles enfermedades: A
(50 %), B (20 %) y C (30 %). Se realizan dos análisis de sangre a cada persona y una
radiografía. La probabilidad de tener la enfermedad A si la radiografía tiene manchas
aproximadamente circulares es de 0.9 y de tener la enfermedad B es de 0.1. Si se ven
manchas sin forma la probabilidad de tener A es de 0.5, la de B es de 0.3 y la de C de
0.2. Si no se observan manchas las probabilidades son 0.1, 0.2 y 0.7 respectivamente.
El primer examen de sangre de positivo con probabilidad 0.1 si la persona tiene la
enfermedad A, 0.9 si tiene la enfermedad B y 0.7 si tiene la enfermedad C; para
el segundo examen las probabilidades son 0.3, 0.9 y 0.2. Construya el diagrama
de la red. Cree un programa que permita actualizar el comportamiento de la red
bayesiana.
2.45 (Programación) Supongamos que una persona desea saber si su esposa está en la
casa por la noche. En ese sentido se tiene la siguiente información. Si la esposa sale de
casa, usualmente (pero no siempre) enciende la luz de la entrada. Hay otras ocasiones
en las que también se enciende la luz de la entrada. Cuando no hay nadie en casa,
el perro está afuera. Si el perro tiene problemas intestinales, también se deja fuera.
Si el perro está afuera, oigo sus ladridos, aunque pudiera escuchar ladridos y pensar
que son de mi perro aunque no fuera así. Construya el diagrama de la red. Cree un
programa que permita actualizar el comportamiento de la red bayesiana. Genere los
valores iniciales de la red de forma tal que se correspondan con la información del
problema.
2.46 (Programación) Suponga que usted tiene un carro y sabe que cuando tiene poco
combustible el carro arranca con probabilidad 0.3 y después tiene una probabilidad
0.8 de moverse más de 100 metros. Por otro lado si la batería está en buenas con-
diciones el radio se escucha sin dificultad con probabilidad 0.8 y el carro arranca
con una probabilidad de 0.9; cuando la batería no funciona bien el radio se oye con
una probabilidad de 0.1 y el carro se enciende con probabilidad 0.2. La salud de
la batería depende del tiempo de uso. La probabilidad de que la batería esté en
buenas condiciones se calcula como P (X ≥ t/4) donde X es la variable aleatoria:
tiempo en meses de uso de la batería y sigue una distribución de P oisson(2). Si el
carro lleva 20 meses en explotación, construya el diagrama de la red y obtenga las
probabilidades iniciales de la misma. Genere valores para las probabilidades que no
conozca si usted lo considera necesario. Cree un programa que permita actualizar el
comportamiento de la red bayesiana.
2.47 (Programación) Usted cree que su esposa le es infiel. Usted puede crearse una
opinión a partir de tres situaciones: su esposa está cenando con otro hombre en un
restaurante de lujo, su esposa es vista saliendo en la noche de la casa y se reciben
llamadas misteriosas en la casa. Construya el diagrama de la red y genere las pro-
babilidades iniciales. Cree un programa que permita actualizar el comportamiento
de la red bayesiana.
2.48 (Programación) Una tarde, Juan va a visitar a sus amigos Pablo y Lara. De
repente, comienza a estornudar. Juan piensa que se ha resfriado, hasta que observa
3.2. Ejercicios del Capítulo 2 223
que los muebles de la casa están arañados. Entonces, especula con la posibilidad
de que sus amigos tengan un gato y sus estornudos se deban a una crisis de la
alergia a los gatos que tiene diagnosticada (rinitis). Construya el diagrama de la red
y genere las probabilidades iniciales de acuerdo a la información del problema. Cree
un programa que permita actualizar el comportamiento de la red bayesiana.
2.49 (Programación) Una casa tiene una alarma antirrobos. La alarma tiene una pro-
babilidad 0.9 de sonar si entra algún ladrón, pero también suena cuando se producen
temblores. Cerca de la casa viven dos vecinos Juan y María que han prometido lla-
mar a la policía si escuchan la alarma. Ambos pudieran no llamar aunque la alarma
sonara, en el caso de María porque escucha música y en el caso de Juan porque
trabaja en el sótano de su casa. Incluso puede suceder que ambos llamen aunque no
hubiese sonado la alarma porque escucharon un ruido similar. Construya el diagra-
ma de la red y genere las probabilidades iniciales de acuerdo a la información del
problema. Cree un programa que permita actualizar el comportamiento de la red
bayesiana.
224 3. Ejercicios de Probabilidades y Estadística
Algoritmos Estocásticos
Análisis de Clúster
Regresión Lineal
Regresión Logística
225
Apéndice A
Teoría de Conjuntos
A.1 Conjuntos
1. (Conjunto vacío) Se denota por ∅ y se define como el conjunto que no tiene ningún
elemento.
2. (Universo) Se denota por Ω y se define como el conjunto que contiene a todos los
posibles conjuntos de espacio.
a) Ai ∩ Aj = ∅ ∀i 6= j.
b) A1 ∪ A2 ∪ A3 ∪ · · · ∪ Ak = Ω
a) A ∪ B = B ∪ A.
b) A ∩ B = B ∩ A.
2. Ley asociativa
a) (A ∪ B) ∪ C = A ∪ (B ∪ C).
b) (A ∩ B) ∩ C = A ∩ (B ∩ C).
226 A. Teoría de Conjuntos
3. Ley distributiva.
a) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C).
b) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).
4. Complemento
a) A ∩ Ac = ∅ y A ∪ Ac = Ω.
b) Ωc = ∅ y ∅c = Ω.
c) (Ac )c = A.
5. Leyes de Morgan:
a) (A ∪ B)c = Ac ∩ B c .
b) (A ∩ B)c = Ac ∪ B c .
227
Apéndice B
Matrices
X n
Y
det(A) = sign(π) aiπi ,
π i=1
Se dice que una permutación es par cuando el número de inversiones es par, se dice
que es impar en el caso contrario. En una permutación los elementos i, j forman una
inversión si i > j pero en dicha permutación el elemento i se encuentra antes del
elemento j.
A · A−1 = A−1 · A = In ,
donde In es la matriz cuadrada de orden n cuya diagonal está formada por unos
y el resto de los elementos son nulos y se le conoce como la matriz identidad.
2. Matriz traspuesta: At
Se dice que B = (bij ) es la matriz traspuesta de A si ∀i, j se cumple que
bij = aji .
• (A · B)−1 = B −1 · A−1 .
−1 t
• (At ) = (A−1 ) .
• (A · B)t = B t · At .
• (A + B)t = At + B t .
• det(A−1 ) = (det(A))−1 .
230 B. Matrices
231
Apéndice C
Conceptos de Combinatoria
Pn = n! = n · (n − 1) · (n − 2) · . . . · 2 · 1.
Apéndice D
Distribuciones de probabilidad
X ∼ U D(a1 , · · · , am )
1
P (X = x) m
,x ∈ {a1 , · · · , am }.
m
P
ai
i=1
E(X) a= m
.
Uniforme discreta m
P
(a−a)2
i=1
V (X) m
.
Parámetros ai ∈ R, m = 1, 2, · · · .
D.1.2 Binomial
X ∼ B(n, p)
n x
P (X = x) x
p (1 − p)n−x , x = 0, 1, 2, · · · , n.
E(X) np.
Binomial
V (X) np(1 − p).
Parámetros p ∈ [0, 1], n ∈ N.
234 D. Distribuciones de probabilidad
D.1.3 Bernoulli
X ∼ Bernoulli(p) o X ∼ B(1, p)
P (X = x) px (1 − p)1−x , x = 0, 1.
E(X) p.
Bernoulli
V (X) p(1 − p).
Parámetros p ∈ [0, 1].
D.1.4 Poisson
X ∼ P oisson(λ)
λx e−λ
P (X = x) x!
,x = 0, 1, 2, · · · .
E(X) λ.
Poisson
V (X) λ.
Parámetros λ > 0.
D.1.5 Geométrica
X ∼ Geom(p)
P (X = x) (1 − p)x−1 p, x = 1, 2, · · · .
1
E(X) p
.
Geométrica
1−p
V (X) p2
.
Parámetros p ∈ [0, 1].
X ∼ BN (p, r)
x−1 r
P (X = x) r−1
p (1 − p)x−r , x = r, r + 1, · · · .
r
E(X) p
.
Binomial negativa
r(1−p)
V (X) p2
.
Parámetros p ∈ [0, 1], r = 1, 2, · · · .
D.1. Distribuciones discretas 235
D.1.7 Hipergeométrica
X ∼ HG(n, m, N )
−n
(nx)(Nm−x )
P (X = x) N , x ∈ [máx(0, m − (N − n)), mı́n(m, n)].
(m)
mn
E(X) N
.
Hipergeométrica
mn(N −n)(N −m)
V (X) N 2 (N −1)
.
X ∼ U (a, b)
1
f (x) 1 (x).
b−a (a,b)
a+b
E(X) 2
.
Uniforme
(b−a)2
V (X) 12
.
Parámetros a, b ∈ R, a < b.
D.2.2 Normal
X ∼ N (µ, σ 2 )
1 2
f (x) √ 1 e− 2σ2 (x−µ) , x ∈ R.
2πσ
E(X) µ.
Normal
V (X) σ2.
Parámetros µ ∈ R, σ 2 > 0.
D.2.3 Exponencial
X ∼ Exp(λ)
D.2.5 Gamma
X ∼ Γ(λ, α)
λ(λx)α−1 e−λx
f (x) Γ(α)
1(0,+∞) (x).
α
E(X) λ
.
Gamma
α
V (X) λ2
.
Parámetros α, λ > 0.
D.2.6 Chi-cuadrado
X ∼ χ2 (n) o X ∼ Γ( 21 , n2 )
f (x) 1
2n/2 Γ(n/2)
xn/2−1 e−x/2 1(0,+∞) (x).
E(X) n.
Chi-cuadrado
V (X) 2n.
Parámetros n = 1, 2, · · · .
D.2.7 F de Fisher-Snedecor
X ∼ F (m, n)
m n m −1
m 2 n 2 Γ( m+n ) x 2
f (x) Γ( m )
2
· m+n 1(0,+∞) (x).
2 (mx+n) 2
n
E(X) n−2
, n > 2.
F de Fisher-Snedecor
2n2 (m+n−2)
V (X) m(n−2)2 (n−4)
, n > 4.
Parámetros m, n = 1, 2, · · · .
D.2.8 t de Student
X ∼ t(n)
− n+1
Γ( n+1 )
x2 2
f (x) √ 2 n
nπΓ( 2 )
· 1+ n
, x ∈ R.
E(X) 0.
t de Student
n
V (X) (n−2)
, n > 2.
Parámetros n = 1, 2, · · · .
238 D. Distribuciones de probabilidad
D.2.9 Beta
X ∼ Beta(α, β)
Γ(α+β)
f (x) Γ(α)Γ(β)
· xα−1 (1 − x)β−1 1(0,1) (x).
α
E(X) α+β
.
Beta
αβ
V (X) (α+β+1)(α+β)2
.
Parámetros α, β > 0.
donde
Σij = E (Xi − EXi )(Xj − EXj ) ,
entonces X ∼ N (µ, Σ) si y solo si su densidad f (x; µ, Σ) viene dada por la siguiente
expresión:
1 − 12 (x−µ)Σ−1 (x−µ)t
f (x; µ, Σ) = √ n 1 e .
( 2π) 2 |Σ|− 2
Si las Xi son i.i.d. se obtiene
1 − 12
Pn 2
i=1 (xi −µ) .
f (x; µ, Σ) = f (x; µ, σ 2 ) = √ n e 2σ
( 2πσ 2 ) 2
Y ∼ N (Λµ + λ, ΛΣΛt ).
239
Apéndice E
Identidades y desigualdades
importantes
Apéndice F
Transformaciones de variables
aleatorias
A partir del teorema de cambio de variable se pueden obtener los siguientes resultados1 :
• Sean Z ∼ N (0, 1), T ∼ t(n) y χ2 ∼ χ2 (n), entonces
Z
T =q
χ2
n
y por ende
1 √
fZ 2 (t) = √ fZ ( t).
t
P 2
A partir de este resultado es inmediato que si tenemos Zi ∼ N (0, 1), ∀ i entonces Zi ∼
χ2 (n) y se obtiene el siguiente resultado para Xi ∼ N (µ, σ 2 )
n 2
X Xi − µ
∼ χ2 (n)
i=1
σ
Definamos para una muestra (X1 , X2 , · · · , Xn ) de variables aleatorias i.i.d. tales que
E(Xi ) = µ y V (Xi ) = σ 2 , los siguientes valores
n
1X
b2 =
σ (Xi − µ)2 (µ conocido)
n i=1
n
2 1 X
s = (Xi − X)2
n − 1 i=1
Supongamos que las variables aleatorias provienen de una distribución N (µ, σ 2 ), entonces
2
1. X ∼ N (µ, σn ).
X−µ √
2. σ
n ∼ N (0, 1).
Pn
3. i=1 Zi2 ∼ χ2 (n).
n 2
4. σ2
σ
b ∼ χ2 (n).
(n−1) 2
5. σ2
s ∼ χ2 (n − 1).
X−µ √
6. σ
b
n ∼ t(n).
X−µ √
7. s
n ∼ t(n − 1).
243
Apéndice G
Tablas
244 G. Tablas
n2
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1 1.000 1.500 1.709 1.823 1.894 1.942 1.977 2.004 2.025 2.042 2.056 2.067 2.077 2.086 2.093 2.100
2 0.667 1.000 1.135 1.207 1.252 1.282 1.305 1.321 1.334 1.345 1.354 1.361 1.367 1.372 1.377 1.381
3 0.585 0.881 1.000 1.063 1.102 1.129 1.148 1.163 1.174 1.183 1.191 1.197 1.203 1.207 1.211 1.215
4 0.549 0.828 0.941 1.000 1.037 1.062 1.080 1.093 1.104 1.113 1.120 1.126 1.131 1.135 1.139 1.142
5 0.528 0.799 0.907 0.965 1.000 1.024 1.041 1.055 1.065 1.073 1.080 1.085 1.090 1.094 1.098 1.101
6 0.515 0.780 0.886 0.942 0.977 1.000 1.017 1.030 1.040 1.048 1.054 1.060 1.065 1.069 1.072 1.075
7 0.506 0.767 0.871 0.926 0.960 0.983 1.000 1.013 1.022 1.030 1.037 1.042 1.047 1.051 1.054 1.057
8 0.499 0.757 0.860 0.915 0.948 0.971 0.988 1.000 1.010 1.018 1.024 1.029 1.034 1.038 1.041 1.044
9 0.494 0.749 0.852 0.906 0.939 0.962 0.978 0.990 1.000 1.008 1.014 1.019 1.024 1.028 1.031 1.034
10 0.490 0.743 0.845 0.899 0.932 0.954 0.971 0.983 0.992 1.000 1.006 1.012 1.016 1.020 1.023 1.026
11 0.486 0.739 0.840 0.893 0.926 0.948 0.964 0.977 0.986 0.994 1.000 1.005 1.010 1.013 1.017 1.020
12 0.484 0.735 0.835 0.888 0.921 0.943 0.959 0.972 0.981 0.989 0.995 1.000 1.004 1.008 1.012 1.014
13 0.481 0.731 0.832 0.885 0.917 0.939 0.955 0.967 0.977 0.984 0.990 0.996 1.000 1.004 1.007 1.010
14 0.479 0.729 0.828 0.881 0.914 0.936 0.952 0.964 0.973 0.981 0.987 0.992 0.996 1.000 1.003 1.006
15 0.478 0.726 0.826 0.878 0.911 0.933 0.949 0.960 0.970 0.977 0.983 0.989 0.993 0.997 1.000 1.003
16 0.476 0.724 0.823 0.876 0.908 0.930 0.946 0.958 0.967 0.975 0.981 0.986 0.990 0.994 0.997 1.000
17 0.475 0.722 0.821 0.874 0.906 0.928 0.943 0.955 0.965 0.972 0.978 0.983 0.988 0.991 0.995 0.997
18 0.474 0.721 0.819 0.872 0.904 0.926 0.941 0.953 0.962 0.970 0.976 0.981 0.985 0.989 0.992 0.995
19 0.473 0.719 0.818 0.870 0.902 0.924 0.939 0.951 0.961 0.968 0.974 0.979 0.984 0.987 0.990 0.993
20 0.472 0.718 0.816 0.868 0.900 0.922 0.938 0.950 0.959 0.966 0.972 0.977 0.982 0.985 0.989 0.992
21 0.471 0.717 0.815 0.867 0.899 0.921 0.936 0.948 0.957 0.965 0.971 0.976 0.980 0.984 0.987 0.990
22 0.470 0.715 0.814 0.866 0.898 0.919 0.935 0.947 0.956 0.963 0.969 0.974 0.979 0.982 0.986 0.988
23 0.470 0.714 0.813 0.864 0.896 0.918 0.934 0.945 0.955 0.962 0.968 0.973 0.977 0.981 0.984 0.987
24 0.469 0.714 0.812 0.863 0.895 0.917 0.932 0.944 0.953 0.961 0.967 0.972 0.976 0.980 0.983 0.986
25 0.468 0.713 0.811 0.862 0.894 0.916 0.931 0.943 0.952 0.960 0.966 0.971 0.975 0.979 0.982 0.985
26 0.468 0.712 0.810 0.861 0.893 0.915 0.930 0.942 0.951 0.959 0.965 0.970 0.974 0.978 0.981 0.984
27 0.467 0.711 0.809 0.861 0.892 0.914 0.930 0.941 0.950 0.958 0.964 0.969 0.973 0.977 0.980 0.983
28 0.467 0.711 0.808 0.860 0.892 0.913 0.929 0.940 0.950 0.957 0.963 0.968 0.972 0.976 0.979 0.982
29 0.467 0.710 0.808 0.859 0.891 0.912 0.928 0.940 0.949 0.956 0.962 0.967 0.971 0.975 0.978 0.981
30 0.466 0.709 0.807 0.858 0.890 0.912 0.927 0.939 0.948 0.955 0.961 0.966 0.971 0.974 0.978 0.980
35 0.465 0.707 0.804 0.856 0.887 0.909 0.924 0.936 0.945 0.952 0.958 0.963 0.968 0.971 0.974 0.977
40 0.463 0.705 0.802 0.854 0.885 0.907 0.922 0.934 0.943 0.950 0.956 0.961 0.965 0.969 0.972 0.975
50 0.462 0.703 0.800 0.851 0.882 0.903 0.919 0.930 0.940 0.947 0.953 0.958 0.962 0.966 0.969 0.972
60 0.460 0.701 0.798 0.849 0.880 0.901 0.917 0.928 0.937 0.945 0.951 0.956 0.960 0.964 0.967 0.969
70 0.460 0.700 0.796 0.847 0.879 0.900 0.915 0.927 0.936 0.943 0.949 0.954 0.958 0.962 0.965 0.968
80 0.459 0.699 0.795 0.846 0.878 0.899 0.914 0.926 0.935 0.942 0.948 0.953 0.957 0.961 0.964 0.967
90 0.459 0.699 0.795 0.846 0.877 0.898 0.913 0.925 0.934 0.941 0.947 0.952 0.956 0.960 0.963 0.966
100 0.458 0.698 0.794 0.845 0.876 0.897 0.913 0.924 0.933 0.940 0.946 0.951 0.956 0.959 0.962 0.965
120 0.458 0.697 0.793 0.844 0.875 0.896 0.912 0.923 0.932 0.939 0.945 0.950 0.955 0.958 0.961 0.964
∞ 0.455 0.693 0.789 0.839 0.870 0.891 0.907 0.918 0.927 0.934 0.940 0.945 0.949 0.953 0.956 0.959
250 G. Tablas
n2 17 18 19 20 25 30 35 40 45 50 60 70 80 90 120 ∞
1 2.105 2.110 2.115 2.119 2.135 2.145 2.153 2.158 2.163 2.166 2.172 2.175 2.178 2.180 2.185 2.198
2 1.385 1.388 1.391 1.393 1.403 1.410 1.414 1.418 1.421 1.423 1.426 1.428 1.430 1.432 1.434 1.442
3 1.218 1.220 1.223 1.225 1.234 1.239 1.243 1.246 1.249 1.251 1.254 1.256 1.257 1.258 1.261 1.268
4 1.145 1.147 1.150 1.152 1.160 1.165 1.169 1.172 1.174 1.176 1.178 1.180 1.182 1.183 1.185 1.191
5 1.104 1.106 1.109 1.111 1.118 1.123 1.127 1.130 1.132 1.134 1.136 1.138 1.139 1.140 1.143 1.149
6 1.078 1.080 1.083 1.084 1.092 1.097 1.100 1.103 1.105 1.107 1.109 1.111 1.112 1.114 1.116 1.122
7 1.060 1.062 1.064 1.066 1.074 1.079 1.082 1.085 1.087 1.088 1.091 1.093 1.094 1.095 1.097 1.103
8 1.047 1.049 1.051 1.053 1.060 1.065 1.069 1.071 1.073 1.075 1.077 1.079 1.080 1.081 1.083 1.089
9 1.037 1.039 1.041 1.043 1.050 1.055 1.058 1.061 1.063 1.064 1.067 1.068 1.070 1.071 1.073 1.079
10 1.029 1.031 1.033 1.035 1.042 1.047 1.050 1.053 1.055 1.056 1.059 1.060 1.062 1.062 1.064 1.070
11 1.022 1.025 1.027 1.028 1.035 1.040 1.043 1.046 1.048 1.050 1.052 1.054 1.055 1.056 1.058 1.064
12 1.017 1.019 1.021 1.023 1.030 1.035 1.038 1.041 1.042 1.044 1.046 1.048 1.049 1.050 1.052 1.058
13 1.012 1.015 1.017 1.019 1.026 1.030 1.033 1.036 1.038 1.039 1.042 1.043 1.045 1.046 1.048 1.053
14 1.009 1.011 1.013 1.015 1.022 1.026 1.030 1.032 1.034 1.036 1.038 1.040 1.041 1.042 1.044 1.049
15 1.005 1.008 1.010 1.011 1.018 1.023 1.026 1.029 1.031 1.032 1.034 1.036 1.037 1.038 1.040 1.046
16 1.003 1.005 1.007 1.009 1.015 1.020 1.023 1.026 1.028 1.029 1.032 1.033 1.034 1.035 1.037 1.043
17 1.000 1.002 1.004 1.006 1.013 1.017 1.021 1.023 1.025 1.027 1.029 1.031 1.032 1.033 1.035 1.040
18 0.998 1.000 1.002 1.004 1.011 1.015 1.018 1.021 1.023 1.024 1.027 1.028 1.030 1.030 1.032 1.038
19 0.996 0.998 1.000 1.002 1.009 1.013 1.016 1.019 1.021 1.022 1.025 1.026 1.027 1.028 1.030 1.036
20 0.994 0.996 0.998 1.000 1.007 1.011 1.015 1.017 1.019 1.020 1.023 1.024 1.026 1.027 1.029 1.034
21 0.992 0.995 0.997 0.998 1.005 1.010 1.013 1.015 1.017 1.019 1.021 1.023 1.024 1.025 1.027 1.032
22 0.991 0.993 0.995 0.997 1.004 1.008 1.011 1.014 1.016 1.017 1.020 1.021 1.022 1.023 1.025 1.031
23 0.990 0.992 0.994 0.996 1.002 1.007 1.010 1.013 1.014 1.016 1.018 1.020 1.021 1.022 1.024 1.030
24 0.988 0.991 0.993 0.994 1.001 1.006 1.009 1.011 1.013 1.015 1.017 1.019 1.020 1.021 1.023 1.028
25 0.987 0.989 0.991 0.993 1.000 1.005 1.008 1.010 1.012 1.014 1.016 1.017 1.019 1.020 1.022 1.027
26 0.986 0.988 0.990 0.992 0.999 1.003 1.007 1.009 1.011 1.013 1.015 1.016 1.018 1.019 1.020 1.026
27 0.985 0.988 0.989 0.991 0.998 1.003 1.006 1.008 1.010 1.012 1.014 1.015 1.017 1.018 1.020 1.025
28 0.984 0.987 0.989 0.990 0.997 1.002 1.005 1.007 1.009 1.011 1.013 1.015 1.016 1.017 1.019 1.024
29 0.984 0.986 0.988 0.990 0.996 1.001 1.004 1.006 1.008 1.010 1.012 1.014 1.015 1.016 1.018 1.023
30 0.983 0.985 0.987 0.989 0.996 1.000 1.003 1.006 1.008 1.009 1.011 1.013 1.014 1.015 1.017 1.022
35 0.980 0.982 0.984 0.986 0.992 0.997 1.000 1.002 1.004 1.006 1.008 1.010 1.011 1.012 1.014 1.019
40 0.977 0.980 0.981 0.983 0.990 0.994 0.998 1.000 1.002 1.003 1.006 1.007 1.008 1.009 1.011 1.017
50 0.974 0.976 0.978 0.980 0.987 0.991 0.994 0.997 0.999 1.000 1.002 1.004 1.005 1.006 1.008 1.013
60 0.972 0.974 0.976 0.978 0.984 0.989 0.992 0.994 0.996 0.998 1.000 1.002 1.003 1.004 1.006 1.011
70 0.970 0.972 0.974 0.976 0.983 0.987 0.990 0.993 0.995 0.996 0.998 1.000 1.001 1.002 1.004 1.009
80 0.969 0.971 0.973 0.975 0.982 0.986 0.989 0.992 0.993 0.995 0.997 0.999 1.000 1.001 1.003 1.008
90 0.968 0.970 0.972 0.974 0.981 0.985 0.988 0.991 0.993 0.994 0.996 0.998 0.999 1.000 1.002 1.007
100 0.968 0.970 0.972 0.973 0.980 0.984 0.988 0.990 0.992 0.993 0.996 0.997 0.998 0.999 1.001 1.007
120 0.966 0.969 0.971 0.972 0.979 0.983 0.986 0.989 0.991 0.992 0.994 0.996 0.997 0.998 1.000 1.005
∞ 0.961 0.963 0.965 0.967 0.974 0.978 0.981 0.984 0.985 0.987 0.989 0.991 0.992 0.993 0.995 1.000
G.5. Tabla de la distribución F de Fisher-Snedecor 251
n2 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1 5.828 7.500 8.200 8.581 8.820 8.983 9.102 9.192 9.263 9.320 9.367 9.406 9.440 9.468 9.493 9.515
2 2.571 3.000 3.153 3.232 3.280 3.312 3.335 3.353 3.366 3.377 3.386 3.393 3.400 3.405 3.410 3.414
3 2.024 2.280 2.356 2.390 2.409 2.422 2.430 2.436 2.441 2.445 2.448 2.450 2.452 2.454 2.455 2.456
4 1.807 2.000 2.047 2.064 2.072 2.077 2.079 2.080 2.081 2.082 2.082 2.083 2.083 2.083 2.083 2.083
5 1.692 1.853 1.884 1.893 1.895 1.894 1.894 1.892 1.891 1.890 1.889 1.888 1.887 1.886 1.885 1.884
6 1.621 1.762 1.784 1.787 1.785 1.782 1.779 1.776 1.773 1.771 1.769 1.767 1.765 1.764 1.762 1.761
7 1.573 1.701 1.717 1.716 1.711 1.706 1.701 1.697 1.693 1.690 1.687 1.684 1.682 1.680 1.678 1.676
8 1.538 1.657 1.668 1.664 1.658 1.651 1.645 1.640 1.635 1.631 1.627 1.624 1.622 1.619 1.617 1.615
9 1.512 1.624 1.632 1.625 1.617 1.609 1.602 1.596 1.591 1.586 1.582 1.579 1.576 1.573 1.570 1.568
10 1.491 1.598 1.603 1.595 1.585 1.576 1.569 1.562 1.556 1.551 1.547 1.543 1.540 1.537 1.534 1.531
11 1.475 1.577 1.580 1.570 1.560 1.550 1.542 1.535 1.528 1.523 1.518 1.514 1.510 1.507 1.504 1.501
12 1.461 1.560 1.561 1.550 1.539 1.529 1.520 1.512 1.505 1.500 1.495 1.490 1.486 1.483 1.480 1.477
13 1.450 1.545 1.545 1.534 1.521 1.511 1.501 1.493 1.486 1.480 1.475 1.470 1.466 1.462 1.459 1.456
14 1.440 1.533 1.532 1.519 1.507 1.495 1.485 1.477 1.470 1.463 1.458 1.453 1.449 1.445 1.441 1.438
15 1.432 1.523 1.520 1.507 1.494 1.482 1.472 1.463 1.456 1.449 1.443 1.438 1.434 1.430 1.426 1.423
16 1.425 1.514 1.510 1.497 1.483 1.471 1.460 1.451 1.443 1.437 1.431 1.426 1.421 1.417 1.413 1.410
17 1.419 1.506 1.502 1.487 1.473 1.460 1.450 1.441 1.433 1.426 1.420 1.414 1.409 1.405 1.401 1.398
18 1.413 1.499 1.494 1.479 1.464 1.452 1.441 1.431 1.423 1.416 1.410 1.404 1.399 1.395 1.391 1.388
19 1.408 1.493 1.487 1.472 1.457 1.444 1.432 1.423 1.414 1.407 1.401 1.395 1.390 1.386 1.382 1.378
20 1.404 1.487 1.481 1.465 1.450 1.437 1.425 1.415 1.407 1.399 1.393 1.387 1.382 1.378 1.374 1.370
21 1.400 1.482 1.475 1.459 1.444 1.430 1.419 1.409 1.400 1.392 1.386 1.380 1.375 1.370 1.366 1.362
22 1.396 1.477 1.470 1.454 1.438 1.424 1.413 1.402 1.394 1.386 1.379 1.374 1.368 1.364 1.359 1.355
23 1.393 1.473 1.466 1.449 1.433 1.419 1.407 1.397 1.388 1.380 1.374 1.368 1.362 1.357 1.353 1.349
24 1.390 1.470 1.462 1.445 1.428 1.414 1.402 1.392 1.383 1.375 1.368 1.362 1.357 1.352 1.347 1.343
25 1.387 1.466 1.458 1.441 1.424 1.410 1.398 1.387 1.378 1.370 1.363 1.357 1.352 1.347 1.342 1.338
26 1.384 1.463 1.454 1.437 1.420 1.406 1.393 1.383 1.374 1.366 1.359 1.352 1.347 1.342 1.337 1.333
27 1.382 1.460 1.451 1.433 1.417 1.402 1.390 1.379 1.370 1.361 1.354 1.348 1.342 1.337 1.333 1.329
28 1.380 1.457 1.448 1.430 1.413 1.399 1.386 1.375 1.366 1.358 1.350 1.344 1.338 1.333 1.329 1.325
29 1.378 1.455 1.445 1.427 1.410 1.395 1.383 1.372 1.362 1.354 1.347 1.340 1.335 1.330 1.325 1.321
30 1.376 1.452 1.443 1.424 1.407 1.392 1.380 1.369 1.359 1.351 1.343 1.337 1.331 1.326 1.321 1.317
35 1.368 1.443 1.432 1.413 1.395 1.380 1.367 1.355 1.345 1.337 1.329 1.323 1.317 1.311 1.306 1.302
40 1.363 1.435 1.424 1.404 1.386 1.371 1.357 1.345 1.335 1.327 1.319 1.312 1.306 1.300 1.295 1.291
50 1.355 1.425 1.413 1.393 1.374 1.358 1.344 1.332 1.321 1.312 1.304 1.297 1.291 1.285 1.280 1.275
60 1.349 1.419 1.405 1.385 1.366 1.349 1.335 1.323 1.312 1.303 1.294 1.287 1.280 1.274 1.269 1.264
70 1.346 1.414 1.400 1.379 1.360 1.343 1.329 1.316 1.305 1.296 1.287 1.280 1.273 1.267 1.262 1.257
80 1.343 1.411 1.396 1.375 1.355 1.338 1.324 1.311 1.300 1.291 1.282 1.275 1.268 1.262 1.256 1.251
90 1.341 1.408 1.393 1.372 1.352 1.335 1.320 1.307 1.296 1.287 1.278 1.270 1.263 1.257 1.252 1.246
100 1.339 1.406 1.391 1.369 1.349 1.332 1.317 1.304 1.293 1.283 1.275 1.267 1.260 1.254 1.248 1.243
120 1.336 1.402 1.387 1.365 1.345 1.328 1.313 1.300 1.289 1.279 1.270 1.262 1.255 1.249 1.243 1.237
∞ 1.324 1.387 1.370 1.347 1.326 1.307 1.292 1.278 1.266 1.255 1.246 1.238 1.230 1.223 1.217 1.211
252 G. Tablas
n2 17 18 19 20 25 30 35 40 45 50 60 70 80 90 120 ∞
1 9.535 9.552 9.567 9.581 9.634 9.670 9.695 9.714 9.729 9.741 9.759 9.772 9.782 9.789 9.804 9.848
2 3.418 3.421 3.424 3.426 3.436 3.443 3.448 3.451 3.454 3.456 3.459 3.462 3.464 3.465 3.468 3.476
3 2.458 2.459 2.459 2.460 2.463 2.465 2.466 2.467 2.468 2.469 2.470 2.470 2.471 2.471 2.472 2.474
4 2.083 2.083 2.083 2.083 2.083 2.082 2.082 2.082 2.082 2.082 2.082 2.082 2.081 2.081 2.081 2.081
5 1.884 1.883 1.882 1.882 1.880 1.878 1.877 1.876 1.876 1.875 1.874 1.874 1.873 1.873 1.872 1.869
6 1.760 1.759 1.758 1.757 1.753 1.751 1.749 1.748 1.747 1.746 1.744 1.743 1.742 1.742 1.741 1.737
7 1.675 1.674 1.672 1.671 1.667 1.663 1.661 1.659 1.658 1.657 1.655 1.654 1.653 1.652 1.650 1.645
8 1.613 1.612 1.610 1.609 1.603 1.600 1.597 1.595 1.593 1.591 1.589 1.588 1.586 1.586 1.584 1.578
9 1.566 1.564 1.563 1.561 1.555 1.551 1.547 1.545 1.543 1.541 1.539 1.537 1.536 1.535 1.533 1.526
10 1.529 1.527 1.525 1.523 1.517 1.512 1.508 1.506 1.503 1.502 1.499 1.497 1.495 1.494 1.492 1.484
11 1.499 1.497 1.495 1.493 1.486 1.481 1.477 1.474 1.471 1.469 1.466 1.464 1.463 1.461 1.459 1.451
12 1.474 1.472 1.470 1.468 1.460 1.454 1.450 1.447 1.445 1.443 1.439 1.437 1.435 1.434 1.431 1.422
13 1.453 1.451 1.449 1.447 1.438 1.432 1.428 1.425 1.422 1.420 1.416 1.414 1.412 1.411 1.408 1.398
14 1.435 1.433 1.431 1.428 1.420 1.414 1.409 1.405 1.403 1.400 1.397 1.394 1.392 1.391 1.387 1.377
15 1.420 1.417 1.415 1.413 1.404 1.397 1.392 1.389 1.386 1.383 1.380 1.377 1.375 1.373 1.370 1.359
16 1.407 1.404 1.401 1.399 1.390 1.383 1.378 1.374 1.371 1.369 1.365 1.362 1.360 1.358 1.354 1.343
17 1.395 1.392 1.389 1.387 1.377 1.370 1.365 1.361 1.358 1.355 1.351 1.348 1.346 1.344 1.341 1.329
18 1.384 1.381 1.379 1.376 1.366 1.359 1.354 1.350 1.346 1.344 1.340 1.336 1.334 1.332 1.328 1.317
19 1.375 1.372 1.369 1.367 1.356 1.349 1.344 1.339 1.336 1.333 1.329 1.326 1.323 1.321 1.317 1.305
20 1.367 1.363 1.361 1.358 1.348 1.340 1.335 1.330 1.327 1.324 1.319 1.316 1.313 1.311 1.307 1.295
21 1.359 1.356 1.353 1.350 1.340 1.332 1.326 1.322 1.318 1.315 1.311 1.307 1.305 1.303 1.298 1.285
22 1.352 1.349 1.346 1.343 1.332 1.324 1.319 1.314 1.310 1.307 1.303 1.299 1.296 1.294 1.290 1.276
23 1.346 1.342 1.339 1.337 1.326 1.318 1.312 1.307 1.303 1.300 1.295 1.292 1.289 1.287 1.282 1.268
24 1.340 1.337 1.333 1.331 1.319 1.311 1.305 1.300 1.297 1.293 1.289 1.285 1.282 1.280 1.275 1.261
25 1.335 1.331 1.328 1.325 1.314 1.306 1.299 1.294 1.291 1.287 1.282 1.279 1.276 1.273 1.269 1.254
26 1.330 1.326 1.323 1.320 1.309 1.300 1.294 1.289 1.285 1.282 1.277 1.273 1.270 1.268 1.263 1.248
27 1.325 1.322 1.318 1.315 1.304 1.295 1.289 1.284 1.280 1.276 1.271 1.267 1.264 1.262 1.257 1.242
28 1.321 1.317 1.314 1.311 1.299 1.291 1.284 1.279 1.275 1.271 1.266 1.262 1.259 1.257 1.252 1.236
29 1.317 1.313 1.310 1.307 1.295 1.286 1.280 1.275 1.270 1.267 1.262 1.258 1.254 1.252 1.247 1.231
30 1.313 1.310 1.306 1.303 1.291 1.282 1.276 1.270 1.266 1.263 1.257 1.253 1.250 1.247 1.242 1.226
35 1.298 1.294 1.291 1.288 1.275 1.266 1.258 1.253 1.248 1.245 1.239 1.234 1.231 1.228 1.223 1.205
40 1.286 1.283 1.279 1.276 1.263 1.253 1.245 1.240 1.235 1.231 1.225 1.220 1.217 1.214 1.208 1.189
50 1.270 1.266 1.263 1.259 1.245 1.235 1.227 1.221 1.216 1.212 1.205 1.200 1.196 1.193 1.186 1.165
60 1.260 1.255 1.252 1.248 1.234 1.223 1.215 1.208 1.203 1.198 1.191 1.186 1.182 1.178 1.172 1.148
70 1.252 1.248 1.244 1.240 1.225 1.214 1.206 1.199 1.193 1.189 1.181 1.176 1.171 1.168 1.161 1.135
80 1.246 1.242 1.238 1.234 1.219 1.208 1.199 1.192 1.186 1.181 1.174 1.168 1.163 1.160 1.152 1.125
90 1.242 1.237 1.233 1.229 1.214 1.202 1.194 1.186 1.180 1.176 1.168 1.162 1.157 1.153 1.145 1.117
100 1.238 1.234 1.229 1.226 1.210 1.198 1.189 1.182 1.176 1.171 1.163 1.157 1.152 1.148 1.140 1.110
120 1.233 1.228 1.224 1.220 1.204 1.192 1.183 1.175 1.169 1.164 1.156 1.149 1.144 1.140 1.131 1.100
∞ 1.206 1.201 1.196 1.192 1.174 1.161 1.150 1.141 1.134 1.128 1.117 1.109 1.103 1.097 1.085 1.019
G.5. Tabla de la distribución F de Fisher-Snedecor 253
n2 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1 39.86 49.50 53.59 55.83 57.24 58.20 58.91 59.44 59.86 60.19 60.47 60.71 60.90 61.07 61.22 61.35
2 8.526 9.000 9.162 9.243 9.293 9.326 9.349 9.367 9.381 9.392 9.401 9.408 9.415 9.420 9.425 9.429
3 5.538 5.462 5.391 5.343 5.309 5.285 5.266 5.252 5.240 5.230 5.222 5.216 5.210 5.205 5.200 5.196
4 4.545 4.325 4.191 4.107 4.051 4.010 3.979 3.955 3.936 3.920 3.907 3.896 3.886 3.878 3.870 3.864
5 4.060 3.780 3.619 3.520 3.453 3.405 3.368 3.339 3.316 3.297 3.282 3.268 3.257 3.247 3.238 3.230
6 3.776 3.463 3.289 3.181 3.108 3.055 3.014 2.983 2.958 2.937 2.920 2.905 2.892 2.881 2.871 2.863
7 3.589 3.257 3.074 2.961 2.883 2.827 2.785 2.752 2.725 2.703 2.684 2.668 2.654 2.643 2.632 2.623
8 3.458 3.113 2.924 2.806 2.726 2.668 2.624 2.589 2.561 2.538 2.519 2.502 2.488 2.475 2.464 2.454
9 3.360 3.006 2.813 2.693 2.611 2.551 2.505 2.469 2.440 2.416 2.396 2.379 2.364 2.351 2.340 2.330
10 3.285 2.924 2.728 2.605 2.522 2.461 2.414 2.377 2.347 2.323 2.302 2.284 2.269 2.255 2.244 2.233
11 3.225 2.860 2.660 2.536 2.451 2.389 2.342 2.304 2.274 2.248 2.227 2.209 2.193 2.179 2.167 2.156
12 3.177 2.807 2.606 2.480 2.394 2.331 2.283 2.245 2.214 2.188 2.166 2.147 2.131 2.117 2.105 2.094
13 3.136 2.763 2.560 2.434 2.347 2.283 2.234 2.195 2.164 2.138 2.116 2.097 2.080 2.066 2.053 2.042
14 3.102 2.726 2.522 2.395 2.307 2.243 2.193 2.154 2.122 2.095 2.073 2.054 2.037 2.022 2.010 1.998
15 3.073 2.695 2.490 2.361 2.273 2.208 2.158 2.119 2.086 2.059 2.037 2.017 2.000 1.985 1.972 1.961
16 3.048 2.668 2.462 2.333 2.244 2.178 2.128 2.088 2.055 2.028 2.005 1.985 1.968 1.953 1.940 1.928
17 3.026 2.645 2.437 2.308 2.218 2.152 2.102 2.061 2.028 2.001 1.978 1.958 1.940 1.925 1.912 1.900
18 3.007 2.624 2.416 2.286 2.196 2.130 2.079 2.038 2.005 1.977 1.954 1.933 1.916 1.900 1.887 1.875
19 2.990 2.606 2.397 2.266 2.176 2.109 2.058 2.017 1.984 1.956 1.932 1.912 1.894 1.878 1.865 1.852
20 2.975 2.589 2.380 2.249 2.158 2.091 2.040 1.999 1.965 1.937 1.913 1.892 1.875 1.859 1.845 1.833
21 2.961 2.575 2.365 2.233 2.142 2.075 2.023 1.982 1.948 1.920 1.896 1.875 1.857 1.841 1.827 1.815
22 2.949 2.561 2.351 2.219 2.128 2.060 2.008 1.967 1.933 1.904 1.880 1.859 1.841 1.825 1.811 1.798
23 2.937 2.549 2.339 2.207 2.115 2.047 1.995 1.953 1.919 1.890 1.866 1.845 1.827 1.811 1.796 1.784
24 2.927 2.538 2.327 2.195 2.103 2.035 1.983 1.941 1.906 1.877 1.853 1.832 1.814 1.797 1.783 1.770
25 2.918 2.528 2.317 2.184 2.092 2.024 1.971 1.929 1.895 1.866 1.841 1.820 1.802 1.785 1.771 1.758
26 2.909 2.519 2.307 2.174 2.082 2.014 1.961 1.919 1.884 1.855 1.830 1.809 1.790 1.774 1.760 1.747
27 2.901 2.511 2.299 2.165 2.073 2.005 1.952 1.909 1.874 1.845 1.820 1.799 1.780 1.764 1.749 1.736
28 2.894 2.503 2.291 2.157 2.064 1.996 1.943 1.900 1.865 1.836 1.811 1.790 1.771 1.754 1.740 1.726
29 2.887 2.495 2.283 2.149 2.057 1.988 1.935 1.892 1.857 1.827 1.802 1.781 1.762 1.745 1.731 1.717
30 2.881 2.489 2.276 2.142 2.049 1.980 1.927 1.884 1.849 1.819 1.794 1.773 1.754 1.737 1.722 1.709
35 2.855 2.461 2.247 2.113 2.019 1.950 1.896 1.852 1.817 1.787 1.761 1.739 1.720 1.703 1.688 1.674
40 2.835 2.440 2.226 2.091 1.997 1.927 1.873 1.829 1.793 1.763 1.737 1.715 1.695 1.678 1.662 1.649
50 2.809 2.412 2.197 2.061 1.966 1.895 1.840 1.796 1.760 1.729 1.703 1.680 1.660 1.643 1.627 1.613
60 2.791 2.393 2.177 2.041 1.946 1.875 1.819 1.775 1.738 1.707 1.680 1.657 1.637 1.619 1.603 1.589
70 2.779 2.380 2.164 2.027 1.931 1.860 1.804 1.760 1.723 1.691 1.665 1.641 1.621 1.603 1.587 1.572
80 2.769 2.370 2.154 2.016 1.921 1.849 1.793 1.748 1.711 1.680 1.653 1.629 1.609 1.590 1.574 1.559
90 2.762 2.363 2.146 2.008 1.912 1.841 1.785 1.739 1.702 1.670 1.643 1.620 1.599 1.581 1.564 1.550
100 2.756 2.356 2.139 2.002 1.906 1.834 1.778 1.732 1.695 1.663 1.636 1.612 1.592 1.573 1.557 1.542
120 2.748 2.347 2.130 1.992 1.896 1.824 1.767 1.722 1.684 1.652 1.625 1.601 1.580 1.562 1.545 1.530
∞ 2.707 2.304 2.085 1.946 1.848 1.775 1.718 1.671 1.633 1.600 1.572 1.547 1.525 1.506 1.489 1.473
254 G. Tablas
n2 17 18 19 20 25 30 35 40 45 50 60 70 80 90 120 ∞
1 61.46 61.57 61.66 61.74 62.05 62.26 62.42 62.53 62.62 62.69 62.79 62.87 62.93 62.97 63.06 63.32
2 9.433 9.436 9.439 9.441 9.451 9.458 9.463 9.466 9.469 9.471 9.475 9.477 9.479 9.480 9.483 9.491
3 5.193 5.190 5.187 5.184 5.175 5.168 5.163 5.160 5.157 5.155 5.151 5.149 5.147 5.145 5.143 5.134
4 3.858 3.853 3.848 3.844 3.828 3.817 3.810 3.804 3.799 3.795 3.790 3.786 3.782 3.780 3.775 3.761
5 3.223 3.217 3.212 3.207 3.187 3.174 3.165 3.157 3.152 3.147 3.140 3.135 3.132 3.129 3.123 3.105
6 2.855 2.848 2.842 2.836 2.815 2.800 2.789 2.781 2.775 2.770 2.762 2.756 2.752 2.749 2.742 2.723
7 2.615 2.607 2.601 2.595 2.571 2.555 2.544 2.535 2.528 2.523 2.514 2.508 2.504 2.500 2.493 2.471
8 2.446 2.438 2.431 2.425 2.400 2.383 2.371 2.361 2.354 2.348 2.339 2.333 2.328 2.324 2.316 2.293
9 2.320 2.312 2.305 2.298 2.272 2.255 2.242 2.232 2.224 2.218 2.208 2.202 2.196 2.192 2.184 2.160
10 2.224 2.215 2.208 2.201 2.174 2.155 2.142 2.132 2.124 2.117 2.107 2.100 2.095 2.090 2.082 2.056
11 2.147 2.138 2.130 2.123 2.095 2.076 2.062 2.052 2.043 2.036 2.026 2.019 2.013 2.009 2.000 1.973
12 2.084 2.075 2.067 2.060 2.031 2.011 1.997 1.986 1.977 1.970 1.960 1.952 1.946 1.942 1.932 1.904
13 2.032 2.023 2.014 2.007 1.978 1.958 1.943 1.931 1.923 1.915 1.904 1.896 1.890 1.886 1.876 1.847
14 1.988 1.978 1.970 1.962 1.933 1.912 1.897 1.885 1.876 1.869 1.857 1.849 1.843 1.838 1.828 1.798
15 1.950 1.941 1.932 1.924 1.894 1.873 1.857 1.845 1.836 1.828 1.817 1.808 1.802 1.797 1.787 1.756
16 1.917 1.908 1.899 1.891 1.860 1.839 1.823 1.811 1.801 1.793 1.782 1.773 1.766 1.761 1.751 1.719
17 1.889 1.879 1.870 1.862 1.831 1.809 1.793 1.781 1.771 1.763 1.751 1.742 1.735 1.730 1.719 1.686
18 1.864 1.854 1.845 1.837 1.805 1.783 1.766 1.754 1.744 1.736 1.723 1.714 1.707 1.702 1.691 1.658
19 1.841 1.831 1.822 1.814 1.782 1.759 1.743 1.730 1.720 1.711 1.699 1.690 1.683 1.677 1.666 1.632
20 1.821 1.811 1.802 1.794 1.761 1.738 1.721 1.708 1.698 1.690 1.677 1.667 1.660 1.655 1.643 1.608
21 1.803 1.793 1.784 1.776 1.742 1.719 1.702 1.689 1.678 1.670 1.657 1.647 1.640 1.634 1.623 1.587
22 1.787 1.777 1.768 1.759 1.726 1.702 1.685 1.671 1.661 1.652 1.639 1.629 1.622 1.616 1.604 1.568
23 1.772 1.762 1.753 1.744 1.710 1.686 1.669 1.655 1.645 1.636 1.622 1.613 1.605 1.599 1.587 1.550
24 1.759 1.748 1.739 1.730 1.696 1.672 1.654 1.641 1.630 1.621 1.607 1.597 1.590 1.584 1.571 1.534
25 1.746 1.736 1.726 1.718 1.683 1.659 1.641 1.627 1.616 1.607 1.593 1.583 1.576 1.569 1.557 1.519
26 1.735 1.724 1.715 1.706 1.671 1.647 1.629 1.615 1.604 1.594 1.581 1.570 1.562 1.556 1.544 1.505
27 1.724 1.714 1.704 1.695 1.660 1.636 1.617 1.603 1.592 1.583 1.569 1.558 1.550 1.544 1.531 1.492
28 1.715 1.704 1.694 1.685 1.650 1.625 1.607 1.592 1.581 1.572 1.558 1.547 1.539 1.533 1.520 1.479
29 1.705 1.695 1.685 1.676 1.640 1.616 1.597 1.583 1.571 1.562 1.547 1.537 1.529 1.522 1.509 1.468
30 1.697 1.686 1.676 1.667 1.632 1.606 1.588 1.573 1.562 1.552 1.538 1.527 1.519 1.512 1.499 1.457
35 1.662 1.651 1.641 1.632 1.595 1.569 1.550 1.535 1.523 1.513 1.497 1.486 1.478 1.471 1.457 1.413
40 1.636 1.625 1.615 1.605 1.568 1.541 1.521 1.506 1.493 1.483 1.467 1.455 1.447 1.439 1.425 1.378
50 1.600 1.588 1.578 1.568 1.529 1.502 1.481 1.465 1.452 1.441 1.424 1.412 1.402 1.395 1.379 1.328
60 1.576 1.564 1.553 1.543 1.504 1.476 1.454 1.437 1.424 1.413 1.395 1.382 1.372 1.364 1.348 1.293
70 1.559 1.547 1.536 1.526 1.486 1.457 1.435 1.418 1.404 1.392 1.374 1.361 1.350 1.342 1.325 1.267
80 1.546 1.534 1.523 1.513 1.472 1.443 1.420 1.403 1.388 1.377 1.358 1.344 1.334 1.325 1.307 1.246
90 1.536 1.524 1.513 1.503 1.461 1.432 1.409 1.391 1.377 1.365 1.346 1.332 1.321 1.312 1.293 1.230
100 1.528 1.516 1.505 1.494 1.453 1.423 1.400 1.382 1.367 1.355 1.336 1.321 1.310 1.301 1.282 1.216
120 1.516 1.504 1.493 1.482 1.440 1.409 1.386 1.368 1.353 1.340 1.320 1.305 1.294 1.284 1.265 1.195
∞ 1.458 1.445 1.433 1.422 1.377 1.344 1.318 1.297 1.280 1.265 1.242 1.224 1.209 1.197 1.171 1.037
G.5. Tabla de la distribución F de Fisher-Snedecor 255
n2 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1 161.4 199.5 215.7 224.6 230.2 234.0 236.8 238.9 240.5 241.9 243.0 243.9 244.7 245.4 245.9 246.5
2 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.38 19.40 19.40 19.41 19.42 19.42 19.43 19.43
3 10.13 9.552 9.277 9.117 9.013 8.941 8.887 8.845 8.812 8.785 8.763 8.745 8.729 8.715 8.703 8.692
4 7.709 6.944 6.591 6.388 6.256 6.163 6.094 6.041 5.999 5.964 5.936 5.912 5.891 5.873 5.858 5.844
5 6.608 5.786 5.409 5.192 5.050 4.950 4.876 4.818 4.772 4.735 4.704 4.678 4.655 4.636 4.619 4.604
6 5.987 5.143 4.757 4.534 4.387 4.284 4.207 4.147 4.099 4.060 4.027 4.000 3.976 3.956 3.938 3.922
7 5.591 4.737 4.347 4.120 3.972 3.866 3.787 3.726 3.677 3.637 3.603 3.575 3.550 3.529 3.511 3.494
8 5.318 4.459 4.066 3.838 3.688 3.581 3.500 3.438 3.388 3.347 3.313 3.284 3.259 3.237 3.218 3.202
9 5.117 4.256 3.863 3.633 3.482 3.374 3.293 3.230 3.179 3.137 3.102 3.073 3.048 3.025 3.006 2.989
10 4.965 4.103 3.708 3.478 3.326 3.217 3.135 3.072 3.020 2.978 2.943 2.913 2.887 2.865 2.845 2.828
11 4.844 3.982 3.587 3.357 3.204 3.095 3.012 2.948 2.896 2.854 2.818 2.788 2.761 2.739 2.719 2.701
12 4.747 3.885 3.490 3.259 3.106 2.996 2.913 2.849 2.796 2.753 2.717 2.687 2.660 2.637 2.617 2.599
13 4.667 3.806 3.411 3.179 3.025 2.915 2.832 2.767 2.714 2.671 2.635 2.604 2.577 2.554 2.533 2.515
14 4.600 3.739 3.344 3.112 2.958 2.848 2.764 2.699 2.646 2.602 2.565 2.534 2.507 2.484 2.463 2.445
15 4.543 3.682 3.287 3.056 2.901 2.790 2.707 2.641 2.588 2.544 2.507 2.475 2.448 2.424 2.403 2.385
16 4.494 3.634 3.239 3.007 2.852 2.741 2.657 2.591 2.538 2.494 2.456 2.425 2.397 2.373 2.352 2.333
17 4.451 3.592 3.197 2.965 2.810 2.699 2.614 2.548 2.494 2.450 2.413 2.381 2.353 2.329 2.308 2.289
18 4.414 3.555 3.160 2.928 2.773 2.661 2.577 2.510 2.456 2.412 2.374 2.342 2.314 2.290 2.269 2.250
19 4.381 3.522 3.127 2.895 2.740 2.628 2.544 2.477 2.423 2.378 2.340 2.308 2.280 2.256 2.234 2.215
20 4.351 3.493 3.098 2.866 2.711 2.599 2.514 2.447 2.393 2.348 2.310 2.278 2.250 2.225 2.203 2.184
21 4.325 3.467 3.072 2.840 2.685 2.573 2.488 2.420 2.366 2.321 2.283 2.250 2.222 2.197 2.176 2.156
22 4.301 3.443 3.049 2.817 2.661 2.549 2.464 2.397 2.342 2.297 2.259 2.226 2.198 2.173 2.151 2.131
23 4.279 3.422 3.028 2.796 2.640 2.528 2.442 2.375 2.320 2.275 2.236 2.204 2.175 2.150 2.128 2.109
24 4.260 3.403 3.009 2.776 2.621 2.508 2.423 2.355 2.300 2.255 2.216 2.183 2.155 2.130 2.108 2.088
25 4.242 3.385 2.991 2.759 2.603 2.490 2.405 2.337 2.282 2.236 2.198 2.165 2.136 2.111 2.089 2.069
26 4.225 3.369 2.975 2.743 2.587 2.474 2.388 2.321 2.265 2.220 2.181 2.148 2.119 2.094 2.072 2.052
27 4.210 3.354 2.960 2.728 2.572 2.459 2.373 2.305 2.250 2.204 2.166 2.132 2.103 2.078 2.056 2.036
28 4.196 3.340 2.947 2.714 2.558 2.445 2.359 2.291 2.236 2.190 2.151 2.118 2.089 2.064 2.041 2.021
29 4.183 3.328 2.934 2.701 2.545 2.432 2.346 2.278 2.223 2.177 2.138 2.104 2.075 2.050 2.027 2.007
30 4.171 3.316 2.922 2.690 2.534 2.421 2.334 2.266 2.211 2.165 2.126 2.092 2.063 2.037 2.015 1.995
35 4.121 3.267 2.874 2.641 2.485 2.372 2.285 2.217 2.161 2.114 2.075 2.041 2.012 1.986 1.963 1.942
40 4.085 3.232 2.839 2.606 2.449 2.336 2.249 2.180 2.124 2.077 2.038 2.003 1.974 1.948 1.924 1.904
50 4.034 3.183 2.790 2.557 2.400 2.286 2.199 2.130 2.073 2.026 1.986 1.952 1.921 1.895 1.871 1.850
60 4.001 3.150 2.758 2.525 2.368 2.254 2.167 2.097 2.040 1.993 1.952 1.917 1.887 1.860 1.836 1.815
70 3.978 3.128 2.736 2.503 2.346 2.231 2.143 2.074 2.017 1.969 1.928 1.893 1.863 1.836 1.812 1.790
80 3.960 3.111 2.719 2.486 2.329 2.214 2.126 2.056 1.999 1.951 1.910 1.875 1.845 1.817 1.793 1.772
90 3.947 3.098 2.706 2.473 2.316 2.201 2.113 2.043 1.986 1.938 1.897 1.861 1.830 1.803 1.779 1.757
100 3.936 3.087 2.696 2.463 2.305 2.191 2.103 2.032 1.975 1.927 1.886 1.850 1.819 1.792 1.768 1.746
120 3.920 3.072 2.680 2.447 2.290 2.175 2.087 2.016 1.959 1.910 1.869 1.834 1.803 1.775 1.750 1.728
∞ 3.843 2.998 2.607 2.374 2.216 2.100 2.011 1.940 1.882 1.833 1.791 1.754 1.722 1.694 1.668 1.646
256 G. Tablas
n2 17 18 19 20 25 30 35 40 45 50 60 70 80 90 120 ∞
1 246.9 247.3 247.7 248.0 249.3 250.1 250.7 251.1 251.5 251.8 252.2 252.5 252.7 252.9 253.3 254.3
2 19.44 19.44 19.44 19.45 19.46 19.46 19.47 19.47 19.47 19.48 19.48 19.48 19.48 19.48 19.49 19.50
3 8.683 8.675 8.667 8.660 8.634 8.617 8.604 8.594 8.587 8.581 8.572 8.566 8.561 8.557 8.549 8.527
4 5.832 5.821 5.811 5.803 5.769 5.746 5.729 5.717 5.707 5.699 5.688 5.679 5.673 5.668 5.658 5.629
5 4.590 4.579 4.568 4.558 4.521 4.496 4.478 4.464 4.453 4.444 4.431 4.422 4.415 4.409 4.398 4.366
6 3.908 3.896 3.884 3.874 3.835 3.808 3.789 3.774 3.763 3.754 3.740 3.730 3.722 3.716 3.705 3.670
7 3.480 3.467 3.455 3.445 3.404 3.376 3.356 3.340 3.328 3.319 3.304 3.294 3.286 3.280 3.267 3.231
8 3.187 3.173 3.161 3.150 3.108 3.079 3.059 3.043 3.030 3.020 3.005 2.994 2.986 2.980 2.967 2.929
9 2.974 2.960 2.948 2.936 2.893 2.864 2.842 2.826 2.813 2.803 2.787 2.776 2.768 2.761 2.748 2.708
10 2.812 2.798 2.785 2.774 2.730 2.700 2.678 2.661 2.648 2.637 2.621 2.609 2.601 2.594 2.580 2.539
11 2.685 2.671 2.658 2.646 2.601 2.570 2.548 2.531 2.517 2.507 2.490 2.478 2.469 2.462 2.448 2.406
12 2.583 2.568 2.555 2.544 2.498 2.466 2.443 2.426 2.412 2.401 2.384 2.372 2.363 2.356 2.341 2.297
13 2.499 2.484 2.471 2.459 2.412 2.380 2.357 2.339 2.325 2.314 2.297 2.284 2.275 2.267 2.252 2.208
14 2.428 2.413 2.400 2.388 2.341 2.308 2.284 2.266 2.252 2.241 2.223 2.210 2.201 2.193 2.178 2.132
15 2.368 2.353 2.340 2.328 2.280 2.247 2.223 2.204 2.190 2.178 2.160 2.147 2.137 2.130 2.114 2.067
16 2.317 2.302 2.288 2.276 2.227 2.194 2.169 2.151 2.136 2.124 2.106 2.093 2.083 2.075 2.059 2.011
17 2.272 2.257 2.243 2.230 2.181 2.148 2.123 2.104 2.089 2.077 2.058 2.045 2.035 2.027 2.011 1.962
18 2.233 2.217 2.203 2.191 2.141 2.107 2.082 2.063 2.048 2.035 2.017 2.003 1.993 1.985 1.968 1.918
19 2.198 2.182 2.168 2.155 2.106 2.071 2.046 2.026 2.011 1.999 1.980 1.966 1.955 1.947 1.930 1.879
20 2.167 2.151 2.137 2.124 2.074 2.039 2.013 1.994 1.978 1.966 1.946 1.932 1.922 1.913 1.896 1.844
21 2.139 2.123 2.109 2.096 2.045 2.010 1.984 1.965 1.949 1.936 1.916 1.902 1.891 1.883 1.866 1.813
22 2.114 2.098 2.084 2.071 2.020 1.984 1.958 1.938 1.922 1.909 1.889 1.875 1.864 1.856 1.838 1.784
23 2.091 2.075 2.061 2.048 1.996 1.961 1.934 1.914 1.898 1.885 1.865 1.850 1.839 1.830 1.813 1.758
24 2.070 2.054 2.040 2.027 1.975 1.939 1.912 1.892 1.876 1.863 1.842 1.828 1.816 1.808 1.790 1.734
25 2.051 2.035 2.021 2.007 1.955 1.919 1.892 1.872 1.855 1.842 1.822 1.807 1.796 1.787 1.768 1.712
26 2.034 2.018 2.003 1.990 1.938 1.901 1.874 1.853 1.837 1.823 1.803 1.788 1.776 1.767 1.749 1.692
27 2.018 2.002 1.987 1.974 1.921 1.884 1.857 1.836 1.819 1.806 1.785 1.770 1.758 1.749 1.731 1.673
28 2.003 1.987 1.972 1.959 1.906 1.869 1.841 1.820 1.803 1.790 1.769 1.754 1.742 1.733 1.714 1.656
29 1.989 1.973 1.958 1.945 1.891 1.854 1.827 1.806 1.789 1.775 1.754 1.738 1.726 1.717 1.698 1.639
30 1.976 1.960 1.945 1.932 1.878 1.841 1.813 1.792 1.775 1.761 1.740 1.724 1.712 1.703 1.683 1.624
35 1.924 1.907 1.892 1.878 1.824 1.786 1.757 1.735 1.718 1.703 1.681 1.665 1.652 1.643 1.623 1.560
40 1.885 1.868 1.853 1.839 1.783 1.744 1.715 1.693 1.675 1.660 1.637 1.621 1.608 1.597 1.577 1.511
50 1.831 1.814 1.798 1.784 1.727 1.687 1.657 1.634 1.615 1.599 1.576 1.558 1.544 1.534 1.511 1.440
60 1.796 1.778 1.763 1.748 1.690 1.649 1.618 1.594 1.575 1.559 1.534 1.516 1.502 1.491 1.467 1.391
70 1.771 1.753 1.737 1.722 1.664 1.622 1.591 1.566 1.546 1.530 1.505 1.486 1.471 1.459 1.435 1.355
80 1.752 1.734 1.718 1.703 1.644 1.602 1.570 1.545 1.525 1.508 1.482 1.463 1.448 1.436 1.411 1.327
90 1.737 1.720 1.703 1.688 1.629 1.586 1.554 1.528 1.508 1.491 1.465 1.445 1.429 1.417 1.391 1.304
100 1.726 1.708 1.691 1.676 1.616 1.573 1.541 1.515 1.494 1.477 1.450 1.430 1.415 1.402 1.376 1.286
120 1.709 1.690 1.674 1.659 1.598 1.554 1.521 1.495 1.474 1.457 1.429 1.408 1.392 1.379 1.352 1.257
∞ 1.625 1.606 1.589 1.573 1.508 1.461 1.425 1.396 1.373 1.353 1.321 1.296 1.277 1.260 1.225 1.048
G.5. Tabla de la distribución F de Fisher-Snedecor 257
n2 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1 647.8 799.5 864.2 899.6 921.8 937.1 948.2 956.6 963.3 968.6 973.0 976.7 979.8 982.5 984.9 986.9
2 38.51 39.00 39.17 39.25 39.30 39.33 39.36 39.37 39.39 39.40 39.41 39.41 39.42 39.43 39.43 39.44
3 17.44 16.04 15.44 15.10 14.88 14.73 14.62 14.54 14.47 14.42 14.37 14.34 14.30 14.28 14.25 14.23
4 12.22 10.65 9.979 9.604 9.364 9.197 9.074 8.980 8.905 8.844 8.794 8.751 8.715 8.684 8.657 8.633
5 10.01 8.434 7.764 7.388 7.146 6.978 6.853 6.757 6.681 6.619 6.568 6.525 6.488 6.456 6.428 6.403
6 8.813 7.260 6.599 6.227 5.988 5.820 5.695 5.600 5.523 5.461 5.410 5.366 5.329 5.297 5.269 5.244
7 8.073 6.542 5.890 5.523 5.285 5.119 4.995 4.899 4.823 4.761 4.709 4.666 4.628 4.596 4.568 4.543
8 7.571 6.059 5.416 5.053 4.817 4.652 4.529 4.433 4.357 4.295 4.243 4.200 4.162 4.130 4.101 4.076
9 7.209 5.715 5.078 4.718 4.484 4.320 4.197 4.102 4.026 3.964 3.912 3.868 3.831 3.798 3.769 3.744
10 6.937 5.456 4.826 4.468 4.236 4.072 3.950 3.855 3.779 3.717 3.665 3.621 3.583 3.550 3.522 3.496
11 6.724 5.256 4.630 4.275 4.044 3.881 3.759 3.664 3.588 3.526 3.474 3.430 3.392 3.359 3.330 3.304
12 6.554 5.096 4.474 4.121 3.891 3.728 3.607 3.512 3.436 3.374 3.321 3.277 3.239 3.206 3.177 3.152
13 6.414 4.965 4.347 3.996 3.767 3.604 3.483 3.388 3.312 3.250 3.197 3.153 3.115 3.082 3.053 3.027
14 6.298 4.857 4.242 3.892 3.663 3.501 3.380 3.285 3.209 3.147 3.095 3.050 3.012 2.979 2.949 2.923
15 6.200 4.765 4.153 3.804 3.576 3.415 3.293 3.199 3.123 3.060 3.008 2.963 2.925 2.891 2.862 2.836
16 6.115 4.687 4.077 3.729 3.502 3.341 3.219 3.125 3.049 2.986 2.934 2.889 2.851 2.817 2.788 2.761
17 6.042 4.619 4.011 3.665 3.438 3.277 3.156 3.061 2.985 2.922 2.870 2.825 2.786 2.753 2.723 2.697
18 5.978 4.560 3.954 3.608 3.382 3.221 3.100 3.005 2.929 2.866 2.814 2.769 2.730 2.696 2.667 2.640
19 5.922 4.508 3.903 3.559 3.333 3.172 3.051 2.956 2.880 2.817 2.765 2.720 2.681 2.647 2.617 2.591
20 5.871 4.461 3.859 3.515 3.289 3.128 3.007 2.913 2.837 2.774 2.721 2.676 2.637 2.603 2.573 2.547
21 5.827 4.420 3.819 3.475 3.250 3.090 2.969 2.874 2.798 2.735 2.682 2.637 2.598 2.564 2.534 2.507
22 5.786 4.383 3.783 3.440 3.215 3.055 2.934 2.839 2.763 2.700 2.647 2.602 2.563 2.528 2.498 2.472
23 5.750 4.349 3.750 3.408 3.183 3.023 2.902 2.808 2.731 2.668 2.615 2.570 2.531 2.497 2.466 2.440
24 5.717 4.319 3.721 3.379 3.155 2.995 2.874 2.779 2.703 2.640 2.586 2.541 2.502 2.468 2.437 2.411
25 5.686 4.291 3.694 3.353 3.129 2.969 2.848 2.753 2.677 2.613 2.560 2.515 2.476 2.441 2.411 2.384
26 5.659 4.265 3.670 3.329 3.105 2.945 2.824 2.729 2.653 2.590 2.536 2.491 2.452 2.417 2.387 2.360
27 5.633 4.242 3.647 3.307 3.083 2.923 2.802 2.707 2.631 2.568 2.514 2.469 2.429 2.395 2.364 2.337
28 5.610 4.221 3.626 3.286 3.063 2.903 2.782 2.687 2.611 2.547 2.494 2.448 2.409 2.374 2.344 2.317
29 5.588 4.201 3.607 3.267 3.044 2.884 2.763 2.669 2.592 2.529 2.475 2.430 2.390 2.355 2.325 2.298
30 5.568 4.182 3.589 3.250 3.026 2.867 2.746 2.651 2.575 2.511 2.458 2.412 2.372 2.338 2.307 2.280
35 5.485 4.106 3.517 3.179 2.956 2.796 2.676 2.581 2.504 2.440 2.387 2.341 2.301 2.266 2.235 2.207
40 5.424 4.051 3.463 3.126 2.904 2.744 2.624 2.529 2.452 2.388 2.334 2.288 2.248 2.213 2.182 2.154
50 5.340 3.975 3.390 3.054 2.833 2.674 2.553 2.458 2.381 2.317 2.263 2.216 2.176 2.140 2.109 2.081
60 5.286 3.925 3.343 3.008 2.786 2.627 2.507 2.412 2.334 2.270 2.216 2.169 2.129 2.093 2.061 2.033
70 5.247 3.890 3.309 2.975 2.754 2.595 2.474 2.379 2.302 2.237 2.183 2.136 2.095 2.059 2.028 1.999
80 5.218 3.864 3.284 2.950 2.730 2.571 2.450 2.355 2.277 2.213 2.158 2.111 2.071 2.035 2.003 1.974
90 5.196 3.844 3.265 2.932 2.711 2.552 2.432 2.336 2.259 2.194 2.140 2.092 2.051 2.015 1.983 1.955
100 5.179 3.828 3.250 2.917 2.696 2.537 2.417 2.321 2.244 2.179 2.124 2.077 2.036 2.000 1.968 1.939
120 5.152 3.805 3.227 2.894 2.674 2.515 2.395 2.299 2.222 2.157 2.102 2.055 2.014 1.977 1.945 1.916
∞ 5.027 3.692 3.119 2.788 2.569 2.411 2.290 2.194 2.116 2.051 1.995 1.947 1.905 1.868 1.835 1.806
258 G. Tablas
n2 17 18 19 20 25 30 35 40 45 50 60 70 80 90 120 ∞
1 988.7 990.3 991.8 993.1 998.1 1001 1004 1006 1007 1008 1010 1011 1012 1013 1014 1018
2 39.44 39.44 39.45 39.45 39.46 39.46 39.47 39.47 39.48 39.48 39.48 39.48 39.49 39.49 39.49 39.50
3 14.21 14.20 14.18 14.17 14.12 14.08 14.06 14.04 14.02 14.01 13.99 13.98 13.97 13.96 13.95 13.90
4 8.611 8.592 8.575 8.560 8.501 8.461 8.433 8.411 8.394 8.381 8.360 8.346 8.335 8.326 8.309 8.259
5 6.381 6.362 6.344 6.329 6.268 6.227 6.197 6.175 6.158 6.144 6.123 6.107 6.096 6.087 6.069 6.017
6 5.222 5.202 5.184 5.168 5.107 5.065 5.035 5.012 4.995 4.980 4.959 4.943 4.932 4.923 4.904 4.850
7 4.521 4.501 4.483 4.467 4.405 4.362 4.332 4.309 4.291 4.276 4.254 4.239 4.227 4.218 4.199 4.144
8 4.054 4.034 4.016 3.999 3.937 3.894 3.863 3.840 3.821 3.807 3.784 3.768 3.756 3.747 3.728 3.672
9 3.722 3.701 3.683 3.667 3.604 3.560 3.529 3.505 3.487 3.472 3.449 3.433 3.421 3.411 3.392 3.334
10 3.474 3.453 3.435 3.419 3.355 3.311 3.279 3.255 3.237 3.221 3.198 3.182 3.169 3.160 3.140 3.081
11 3.282 3.261 3.243 3.226 3.162 3.118 3.086 3.061 3.042 3.027 3.004 2.987 2.974 2.964 2.944 2.884
12 3.129 3.108 3.090 3.073 3.008 2.963 2.931 2.906 2.887 2.871 2.848 2.831 2.818 2.808 2.787 2.726
13 3.004 2.983 2.965 2.948 2.882 2.837 2.805 2.780 2.760 2.744 2.720 2.703 2.690 2.680 2.659 2.597
14 2.900 2.879 2.861 2.844 2.778 2.732 2.699 2.674 2.654 2.638 2.614 2.597 2.583 2.573 2.552 2.489
15 2.813 2.792 2.773 2.756 2.689 2.644 2.610 2.585 2.565 2.549 2.524 2.506 2.493 2.482 2.461 2.397
16 2.738 2.717 2.698 2.681 2.614 2.568 2.534 2.509 2.488 2.472 2.447 2.429 2.415 2.405 2.383 2.318
17 2.673 2.652 2.633 2.616 2.548 2.502 2.468 2.442 2.422 2.405 2.380 2.362 2.348 2.337 2.315 2.249
18 2.617 2.596 2.576 2.559 2.491 2.445 2.410 2.384 2.364 2.347 2.321 2.303 2.289 2.278 2.256 2.189
19 2.567 2.546 2.526 2.509 2.441 2.394 2.359 2.333 2.312 2.295 2.270 2.251 2.237 2.226 2.203 2.135
20 2.523 2.501 2.482 2.464 2.396 2.349 2.314 2.287 2.266 2.249 2.223 2.205 2.190 2.179 2.156 2.087
21 2.483 2.462 2.442 2.425 2.356 2.308 2.273 2.246 2.225 2.208 2.182 2.163 2.148 2.137 2.114 2.044
22 2.448 2.426 2.407 2.389 2.320 2.272 2.237 2.210 2.188 2.171 2.145 2.125 2.111 2.099 2.076 2.005
23 2.416 2.394 2.374 2.357 2.287 2.239 2.204 2.176 2.155 2.137 2.111 2.091 2.077 2.065 2.041 1.970
24 2.386 2.365 2.345 2.327 2.257 2.209 2.173 2.146 2.124 2.107 2.080 2.060 2.045 2.034 2.010 1.937
25 2.360 2.338 2.318 2.300 2.230 2.182 2.146 2.118 2.096 2.079 2.052 2.032 2.017 2.005 1.981 1.907
26 2.335 2.314 2.294 2.276 2.205 2.157 2.120 2.093 2.071 2.053 2.026 2.006 1.991 1.979 1.954 1.880
27 2.313 2.291 2.271 2.253 2.183 2.133 2.097 2.069 2.047 2.029 2.002 1.982 1.966 1.954 1.930 1.855
28 2.292 2.270 2.251 2.232 2.161 2.112 2.076 2.048 2.025 2.007 1.980 1.959 1.944 1.932 1.907 1.831
29 2.273 2.251 2.231 2.213 2.142 2.092 2.056 2.028 2.005 1.987 1.959 1.939 1.923 1.911 1.886 1.809
30 2.255 2.233 2.213 2.195 2.124 2.074 2.037 2.009 1.986 1.968 1.940 1.920 1.904 1.892 1.866 1.789
35 2.183 2.160 2.140 2.122 2.049 1.999 1.961 1.932 1.909 1.890 1.861 1.840 1.824 1.811 1.785 1.704
40 2.129 2.107 2.086 2.068 1.994 1.943 1.905 1.875 1.852 1.832 1.803 1.781 1.764 1.751 1.724 1.639
50 2.056 2.033 2.012 1.993 1.919 1.866 1.827 1.796 1.772 1.752 1.721 1.698 1.681 1.667 1.639 1.548
60 2.008 1.985 1.964 1.944 1.869 1.815 1.775 1.744 1.719 1.699 1.667 1.643 1.625 1.611 1.581 1.485
70 1.974 1.950 1.929 1.910 1.833 1.779 1.739 1.707 1.681 1.660 1.628 1.604 1.585 1.570 1.539 1.438
80 1.948 1.925 1.904 1.884 1.807 1.752 1.711 1.679 1.653 1.632 1.599 1.574 1.555 1.540 1.508 1.403
90 1.929 1.905 1.884 1.864 1.787 1.731 1.690 1.657 1.631 1.610 1.576 1.551 1.531 1.516 1.483 1.374
100 1.913 1.890 1.868 1.849 1.770 1.715 1.673 1.640 1.614 1.592 1.558 1.532 1.512 1.496 1.463 1.351
120 1.890 1.866 1.845 1.825 1.746 1.690 1.647 1.614 1.587 1.565 1.530 1.504 1.483 1.467 1.433 1.314
∞ 1.779 1.754 1.732 1.711 1.629 1.569 1.523 1.487 1.457 1.432 1.392 1.361 1.337 1.317 1.273 1.057
G.5. Tabla de la distribución F de Fisher-Snedecor 259
n2 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1 4052 4999 5404 5624 5764 5859 5928 5981 6022 6056 6083 6107 6126 6143 6157 6170
2 98.50 99.00 99.16 99.25 99.30 99.33 99.36 99.38 99.39 99.40 99.41 99.42 99.42 99.43 99.43 99.44
3 34.12 30.82 29.46 28.71 28.24 27.91 27.67 27.49 27.34 27.23 27.13 27.05 26.98 26.92 26.87 26.83
4 21.20 18.00 16.69 15.98 15.52 15.21 14.98 14.80 14.66 14.55 14.45 14.37 14.31 14.25 14.20 14.15
5 16.26 13.27 12.06 11.39 10.97 10.67 10.46 10.29 10.16 10.05 9.963 9.888 9.825 9.770 9.722 9.680
6 13.75 10.92 9.780 9.148 8.746 8.466 8.260 8.102 7.976 7.874 7.790 7.718 7.657 7.605 7.559 7.519
7 12.25 9.547 8.451 7.847 7.460 7.191 6.993 6.840 6.719 6.620 6.538 6.469 6.410 6.359 6.314 6.275
8 11.26 8.649 7.591 7.006 6.632 6.371 6.178 6.029 5.911 5.814 5.734 5.667 5.609 5.559 5.515 5.477
9 10.56 8.022 6.992 6.422 6.057 5.802 5.613 5.467 5.351 5.257 5.178 5.111 5.055 5.005 4.962 4.924
10 10.04 7.559 6.552 5.994 5.636 5.386 5.200 5.057 4.942 4.849 4.772 4.706 4.650 4.601 4.558 4.520
11 9.646 7.206 6.217 5.668 5.316 5.069 4.886 4.744 4.632 4.539 4.462 4.397 4.342 4.293 4.251 4.213
12 9.330 6.927 5.953 5.412 5.064 4.821 4.640 4.499 4.388 4.296 4.220 4.155 4.100 4.052 4.010 3.972
13 9.074 6.701 5.739 5.205 4.862 4.620 4.441 4.302 4.191 4.100 4.025 3.960 3.905 3.857 3.815 3.778
14 8.862 6.515 5.564 5.035 4.695 4.456 4.278 4.140 4.030 3.939 3.864 3.800 3.745 3.698 3.656 3.619
15 8.683 6.359 5.417 4.893 4.556 4.318 4.142 4.004 3.895 3.805 3.730 3.666 3.612 3.564 3.522 3.485
16 8.531 6.226 5.292 4.773 4.437 4.202 4.026 3.890 3.780 3.691 3.616 3.553 3.498 3.451 3.409 3.372
17 8.400 6.112 5.185 4.669 4.336 4.101 3.927 3.791 3.682 3.593 3.518 3.455 3.401 3.353 3.312 3.275
18 8.285 6.013 5.092 4.579 4.248 4.015 3.841 3.705 3.597 3.508 3.434 3.371 3.316 3.269 3.227 3.190
19 8.185 5.926 5.010 4.500 4.171 3.939 3.765 3.631 3.523 3.434 3.360 3.297 3.242 3.195 3.153 3.116
20 8.096 5.849 4.938 4.431 4.103 3.871 3.699 3.564 3.457 3.368 3.294 3.231 3.177 3.130 3.088 3.051
21 8.017 5.780 4.874 4.369 4.042 3.812 3.640 3.506 3.398 3.310 3.236 3.173 3.119 3.072 3.030 2.993
22 7.945 5.719 4.817 4.313 3.988 3.758 3.587 3.453 3.346 3.258 3.184 3.121 3.067 3.019 2.978 2.941
23 7.881 5.664 4.765 4.264 3.939 3.710 3.539 3.406 3.299 3.211 3.137 3.074 3.020 2.973 2.931 2.894
24 7.823 5.614 4.718 4.218 3.895 3.667 3.496 3.363 3.256 3.168 3.094 3.032 2.977 2.930 2.889 2.852
25 7.770 5.568 4.675 4.177 3.855 3.627 3.457 3.324 3.217 3.129 3.056 2.993 2.939 2.892 2.850 2.813
26 7.721 5.526 4.637 4.140 3.818 3.591 3.421 3.288 3.182 3.094 3.021 2.958 2.904 2.857 2.815 2.778
27 7.677 5.488 4.601 4.106 3.785 3.558 3.388 3.256 3.149 3.062 2.988 2.926 2.872 2.824 2.783 2.746
28 7.636 5.453 4.568 4.074 3.754 3.528 3.358 3.226 3.120 3.032 2.959 2.896 2.842 2.795 2.753 2.716
29 7.598 5.420 4.538 4.045 3.725 3.499 3.330 3.198 3.092 3.005 2.931 2.868 2.814 2.767 2.726 2.689
30 7.562 5.390 4.510 4.018 3.699 3.473 3.305 3.173 3.067 2.979 2.906 2.843 2.789 2.742 2.700 2.663
35 7.419 5.268 4.396 3.908 3.592 3.368 3.200 3.069 2.963 2.876 2.803 2.740 2.686 2.639 2.597 2.560
40 7.314 5.178 4.313 3.828 3.514 3.291 3.124 2.993 2.888 2.801 2.727 2.665 2.611 2.563 2.522 2.484
50 7.171 5.057 4.199 3.720 3.408 3.186 3.020 2.890 2.785 2.698 2.625 2.563 2.508 2.461 2.419 2.382
60 7.077 4.977 4.126 3.649 3.339 3.119 2.953 2.823 2.718 2.632 2.559 2.496 2.442 2.394 2.352 2.315
70 7.011 4.922 4.074 3.600 3.291 3.071 2.906 2.777 2.672 2.585 2.512 2.450 2.395 2.348 2.306 2.268
80 6.963 4.881 4.036 3.563 3.255 3.036 2.871 2.742 2.637 2.551 2.478 2.415 2.361 2.313 2.271 2.233
90 6.925 4.849 4.007 3.535 3.228 3.009 2.845 2.715 2.611 2.524 2.451 2.389 2.334 2.286 2.244 2.206
100 6.895 4.824 3.984 3.513 3.206 2.988 2.823 2.694 2.590 2.503 2.430 2.368 2.313 2.265 2.223 2.185
120 6.851 4.787 3.949 3.480 3.174 2.956 2.792 2.663 2.559 2.472 2.399 2.336 2.282 2.234 2.191 2.154
∞ 6.640 4.609 3.786 3.323 3.021 2.806 2.643 2.515 2.411 2.324 2.251 2.188 2.133 2.085 2.042 2.004
260 G. Tablas
n2 17 18 19 20 25 30 35 40 45 50 60 70 80 90 120 ∞
1 6181 6191 6201 6209 6240 6260 6275 6286 6296 6302 6313 6321 6326 6331 6340 6366
2 99.44 99.44 99.45 99.45 99.46 99.47 99.47 99.48 99.48 99.48 99.48 99.48 99.48 99.49 99.49 99.50
3 26.79 26.75 26.72 26.69 26.58 26.50 26.45 26.41 26.38 26.35 26.32 26.29 26.27 26.25 26.22 26.13
4 14.11 14.08 14.05 14.02 13.91 13.84 13.79 13.75 13.71 13.69 13.65 13.63 13.61 13.59 13.56 13.47
5 9.643 9.609 9.580 9.553 9.449 9.379 9.329 9.291 9.262 9.238 9.202 9.176 9.157 9.142 9.112 9.023
6 7.483 7.451 7.422 7.396 7.296 7.229 7.180 7.143 7.115 7.091 7.057 7.032 7.013 6.998 6.969 6.882
7 6.240 6.209 6.181 6.155 6.058 5.992 5.944 5.908 5.880 5.858 5.824 5.799 5.781 5.766 5.737 5.652
8 5.442 5.412 5.384 5.359 5.263 5.198 5.151 5.116 5.088 5.065 5.032 5.007 4.989 4.975 4.946 4.861
9 4.890 4.860 4.833 4.808 4.713 4.649 4.602 4.567 4.539 4.517 4.483 4.459 4.441 4.426 4.398 4.313
10 4.487 4.457 4.430 4.405 4.311 4.247 4.201 4.165 4.138 4.115 4.082 4.058 4.039 4.025 3.996 3.911
11 4.180 4.150 4.123 4.099 4.005 3.941 3.895 3.860 3.832 3.810 3.776 3.752 3.734 3.719 3.690 3.605
12 3.939 3.910 3.883 3.858 3.765 3.701 3.654 3.619 3.592 3.569 3.535 3.511 3.493 3.478 3.449 3.363
13 3.745 3.716 3.689 3.665 3.571 3.507 3.461 3.425 3.398 3.375 3.341 3.317 3.298 3.284 3.255 3.168
14 3.586 3.556 3.529 3.505 3.412 3.348 3.301 3.266 3.238 3.215 3.181 3.157 3.138 3.124 3.094 3.006
15 3.452 3.423 3.396 3.372 3.278 3.214 3.167 3.132 3.104 3.081 3.047 3.022 3.004 2.989 2.959 2.871
16 3.339 3.310 3.283 3.259 3.165 3.101 3.054 3.018 2.990 2.967 2.933 2.908 2.889 2.875 2.845 2.755
17 3.242 3.212 3.186 3.162 3.068 3.003 2.956 2.920 2.892 2.869 2.835 2.810 2.791 2.776 2.746 2.655
18 3.158 3.128 3.101 3.077 2.983 2.919 2.871 2.835 2.807 2.784 2.749 2.724 2.705 2.690 2.660 2.568
19 3.084 3.054 3.027 3.003 2.909 2.844 2.797 2.761 2.732 2.709 2.674 2.649 2.630 2.614 2.584 2.492
20 3.018 2.989 2.962 2.938 2.843 2.778 2.731 2.695 2.666 2.643 2.608 2.582 2.563 2.548 2.517 2.424
21 2.960 2.931 2.904 2.880 2.785 2.720 2.672 2.636 2.607 2.584 2.548 2.523 2.503 2.488 2.457 2.363
22 2.908 2.879 2.852 2.827 2.733 2.667 2.620 2.583 2.554 2.531 2.495 2.469 2.450 2.434 2.403 2.308
23 2.861 2.832 2.805 2.780 2.686 2.620 2.572 2.536 2.506 2.483 2.447 2.421 2.401 2.386 2.354 2.258
24 2.819 2.789 2.762 2.738 2.643 2.577 2.529 2.492 2.463 2.440 2.403 2.377 2.357 2.342 2.310 2.213
25 2.780 2.751 2.724 2.699 2.604 2.538 2.490 2.453 2.424 2.400 2.364 2.337 2.317 2.302 2.270 2.172
26 2.745 2.715 2.688 2.664 2.569 2.503 2.454 2.417 2.388 2.364 2.327 2.301 2.281 2.265 2.233 2.134
27 2.713 2.683 2.656 2.632 2.536 2.470 2.421 2.384 2.354 2.330 2.294 2.267 2.247 2.231 2.198 2.099
28 2.683 2.653 2.626 2.602 2.506 2.440 2.391 2.354 2.324 2.300 2.263 2.236 2.216 2.200 2.167 2.067
29 2.656 2.626 2.599 2.574 2.478 2.412 2.363 2.325 2.296 2.271 2.234 2.207 2.187 2.171 2.138 2.037
30 2.630 2.600 2.573 2.549 2.453 2.386 2.337 2.299 2.269 2.245 2.208 2.181 2.160 2.144 2.111 2.009
35 2.527 2.497 2.470 2.445 2.348 2.281 2.231 2.193 2.162 2.137 2.099 2.072 2.050 2.034 2.000 1.894
40 2.451 2.421 2.394 2.369 2.271 2.203 2.153 2.114 2.083 2.058 2.019 1.991 1.969 1.952 1.917 1.808
50 2.348 2.318 2.290 2.265 2.167 2.098 2.046 2.007 1.975 1.949 1.909 1.880 1.857 1.839 1.803 1.686
60 2.281 2.251 2.223 2.198 2.098 2.028 1.976 1.936 1.904 1.877 1.836 1.806 1.783 1.764 1.726 1.604
70 2.234 2.204 2.176 2.150 2.050 1.980 1.927 1.886 1.853 1.826 1.785 1.754 1.730 1.711 1.672 1.544
80 2.199 2.169 2.141 2.115 2.015 1.944 1.890 1.849 1.816 1.788 1.746 1.714 1.690 1.671 1.630 1.498
90 2.172 2.142 2.114 2.088 1.987 1.916 1.862 1.820 1.787 1.759 1.716 1.684 1.659 1.639 1.598 1.461
100 2.151 2.120 2.092 2.067 1.965 1.893 1.839 1.797 1.763 1.735 1.692 1.659 1.634 1.614 1.572 1.431
120 2.119 2.089 2.060 2.035 1.932 1.860 1.806 1.763 1.728 1.700 1.656 1.623 1.597 1.576 1.533 1.385
∞ 1.969 1.937 1.908 1.882 1.776 1.700 1.642 1.596 1.559 1.527 1.477 1.439 1.409 1.384 1.330 1.068
G.5. Tabla de la distribución F de Fisher-Snedecor 261
n 2 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1 16212 19997 21614 22501 23056 23440 23715 23924 24091 24222 24334 24427 24505 24572 24632 24684
2 198.5 199.0 199.2 199.2 199.3 199.3 199.4 199.4 199.4 199.4 199.4 199.4 199.4 199.4 199.4 199.4
3 55.55 49.80 47.47 46.20 45.39 44.84 44.43 44.13 43.88 43.68 43.52 43.39 43.27 43.17 43.08 43.01
4 31.33 26.28 24.26 23.15 22.46 21.98 21.62 21.35 21.14 20.97 20.82 20.70 20.60 20.51 20.44 20.37
5 22.78 18.31 16.53 15.56 14.94 14.51 14.20 13.96 13.77 13.62 13.49 13.38 13.29 13.21 13.15 13.09
6 18.63 14.54 12.92 12.03 11.46 11.07 10.79 10.57 10.39 10.25 10.13 10.03 9.950 9.878 9.814 9.758
7 16.24 12.40 10.88 10.05 9.522 9.155 8.885 8.678 8.514 8.380 8.270 8.176 8.097 8.028 7.968 7.915
8 14.69 11.04 9.597 8.805 8.302 7.952 7.694 7.496 7.339 7.211 7.105 7.015 6.938 6.872 6.814 6.763
9 13.61 10.11 8.717 7.956 7.471 7.134 6.885 6.693 6.541 6.417 6.314 6.227 6.153 6.089 6.032 5.983
10 12.83 9.427 8.081 7.343 6.872 6.545 6.303 6.116 5.968 5.847 5.746 5.661 5.589 5.526 5.471 5.422
11 12.23 8.912 7.600 6.881 6.422 6.102 5.865 5.682 5.537 5.418 5.320 5.236 5.165 5.103 5.049 5.001
12 11.75 8.510 7.226 6.521 6.071 5.757 5.524 5.345 5.202 5.085 4.988 4.906 4.836 4.775 4.721 4.674
13 11.37 8.186 6.926 6.233 5.791 5.482 5.253 5.076 4.935 4.820 4.724 4.643 4.573 4.513 4.460 4.413
14 11.06 7.922 6.680 5.998 5.562 5.257 5.031 4.857 4.717 4.603 4.508 4.428 4.359 4.299 4.247 4.201
15 10.80 7.701 6.476 5.803 5.372 5.071 4.847 4.674 4.536 4.424 4.329 4.250 4.181 4.122 4.070 4.024
16 10.58 7.514 6.303 5.638 5.212 4.913 4.692 4.521 4.384 4.272 4.179 4.099 4.031 3.972 3.920 3.875
17 10.38 7.354 6.156 5.497 5.075 4.779 4.559 4.389 4.254 4.142 4.050 3.971 3.903 3.844 3.793 3.747
18 10.22 7.215 6.028 5.375 4.956 4.663 4.445 4.276 4.141 4.030 3.938 3.860 3.793 3.734 3.683 3.637
19 10.07 7.093 5.916 5.268 4.853 4.561 4.345 4.177 4.043 3.933 3.841 3.763 3.696 3.638 3.587 3.541
20 9.944 6.987 5.818 5.174 4.762 4.472 4.257 4.090 3.956 3.847 3.756 3.678 3.611 3.553 3.502 3.457
21 9.829 6.891 5.730 5.091 4.681 4.393 4.179 4.013 3.880 3.771 3.680 3.602 3.536 3.478 3.427 3.382
22 9.727 6.806 5.652 5.017 4.609 4.322 4.109 3.944 3.812 3.703 3.612 3.535 3.469 3.411 3.360 3.315
23 9.635 6.730 5.582 4.950 4.544 4.259 4.047 3.882 3.750 3.642 3.551 3.474 3.408 3.351 3.300 3.255
24 9.551 6.661 5.519 4.890 4.486 4.202 3.991 3.826 3.695 3.587 3.497 3.420 3.354 3.296 3.246 3.201
25 9.475 6.598 5.462 4.835 4.433 4.150 3.939 3.776 3.645 3.537 3.447 3.370 3.304 3.247 3.196 3.152
26 9.406 6.541 5.409 4.785 4.384 4.103 3.893 3.730 3.599 3.492 3.402 3.325 3.259 3.202 3.151 3.107
27 9.342 6.489 5.361 4.740 4.340 4.059 3.850 3.687 3.557 3.450 3.360 3.284 3.218 3.161 3.110 3.066
28 9.284 6.440 5.317 4.698 4.300 4.020 3.811 3.649 3.519 3.412 3.322 3.246 3.180 3.123 3.073 3.028
29 9.230 6.396 5.276 4.659 4.262 3.983 3.775 3.613 3.483 3.376 3.287 3.211 3.145 3.088 3.038 2.993
30 9.180 6.355 5.239 4.623 4.228 3.949 3.742 3.580 3.451 3.344 3.255 3.179 3.113 3.056 3.006 2.961
35 8.976 6.188 5.086 4.479 4.088 3.812 3.607 3.447 3.318 3.212 3.124 3.048 2.983 2.926 2.876 2.831
40 8.828 6.066 4.976 4.374 3.986 3.713 3.509 3.350 3.222 3.117 3.028 2.953 2.888 2.831 2.781 2.737
50 8.626 5.902 4.826 4.232 3.849 3.579 3.376 3.219 3.092 2.988 2.900 2.825 2.760 2.703 2.653 2.609
60 8.495 5.795 4.729 4.140 3.760 3.492 3.291 3.134 3.008 2.904 2.817 2.742 2.677 2.620 2.570 2.526
70 8.403 5.720 4.661 4.076 3.698 3.431 3.232 3.076 2.950 2.846 2.759 2.684 2.619 2.563 2.513 2.468
80 8.335 5.665 4.611 4.028 3.652 3.387 3.188 3.032 2.907 2.803 2.716 2.641 2.577 2.520 2.470 2.425
90 8.282 5.623 4.573 3.992 3.617 3.352 3.154 2.999 2.873 2.770 2.683 2.608 2.544 2.487 2.437 2.393
100 8.241 5.589 4.542 3.963 3.589 3.325 3.127 2.972 2.847 2.744 2.657 2.583 2.518 2.461 2.411 2.367
120 8.179 5.539 4.497 3.921 3.548 3.285 3.087 2.933 2.808 2.705 2.618 2.544 2.479 2.423 2.373 2.328
∞ 7.886 5.304 4.284 3.720 3.355 3.096 2.901 2.749 2.625 2.523 2.437 2.363 2.298 2.241 2.191 2.146
262 G. Tablas
n 2 17 18 19 20 25 30 35 40 45 50 60 70 80 90 120 ∞
1 24728 24766 24803 24837 24959 25041 25101 25146 25183 25213 25254 25284 25306 25325 25358 25462
2 199.4 199.4 199.4 199.4 199.4 199.5 199.5 199.5 199.5 199.5 199.5 199.5 199.5 199.5 199.5 199.5
3 42.94 42.88 42.83 42.78 42.59 42.47 42.38 42.31 42.26 42.21 42.15 42.10 42.07 42.04 41.99 41.83
4 20.31 20.26 20.21 20.17 20.00 19.89 19.81 19.75 19.71 19.67 19.61 19.57 19.54 19.52 19.47 19.33
5 13.03 12.98 12.94 12.90 12.76 12.66 12.58 12.53 12.49 12.45 12.40 12.37 12.34 12.32 12.27 12.15
6 9.709 9.664 9.625 9.589 9.451 9.358 9.291 9.241 9.201 9.170 9.122 9.088 9.062 9.042 9.001 8.882
7 7.868 7.826 7.788 7.754 7.623 7.534 7.471 7.422 7.385 7.354 7.309 7.276 7.251 7.232 7.193 7.079
8 6.718 6.678 6.641 6.608 6.482 6.396 6.334 6.288 6.251 6.222 6.177 6.145 6.121 6.102 6.065 5.953
9 5.939 5.899 5.864 5.832 5.708 5.625 5.564 5.519 5.483 5.454 5.410 5.379 5.356 5.337 5.300 5.190
10 5.379 5.340 5.306 5.274 5.153 5.071 5.011 4.966 4.931 4.902 4.859 4.828 4.805 4.787 4.750 4.641
11 4.959 4.921 4.886 4.855 4.736 4.654 4.595 4.551 4.516 4.488 4.445 4.414 4.391 4.373 4.337 4.228
12 4.632 4.595 4.561 4.530 4.412 4.331 4.272 4.228 4.193 4.165 4.123 4.092 4.069 4.051 4.015 3.907
13 4.372 4.334 4.301 4.270 4.153 4.073 4.015 3.970 3.936 3.908 3.866 3.835 3.812 3.794 3.758 3.649
14 4.159 4.122 4.089 4.059 3.942 3.862 3.804 3.760 3.725 3.697 3.655 3.625 3.602 3.584 3.547 3.439
15 3.983 3.946 3.913 3.883 3.766 3.687 3.629 3.585 3.550 3.523 3.480 3.450 3.427 3.409 3.372 3.263
16 3.834 3.797 3.764 3.734 3.618 3.539 3.481 3.437 3.403 3.375 3.332 3.302 3.279 3.261 3.224 3.114
17 3.707 3.670 3.637 3.607 3.492 3.412 3.355 3.311 3.276 3.248 3.206 3.175 3.152 3.134 3.097 2.987
18 3.597 3.560 3.527 3.498 3.382 3.303 3.245 3.201 3.167 3.139 3.096 3.065 3.042 3.024 2.987 2.876
19 3.501 3.464 3.432 3.402 3.287 3.208 3.150 3.106 3.071 3.043 3.000 2.970 2.946 2.928 2.891 2.779
20 3.416 3.380 3.348 3.318 3.203 3.123 3.066 3.022 2.987 2.959 2.916 2.885 2.861 2.843 2.806 2.693
21 3.342 3.305 3.273 3.243 3.128 3.049 2.991 2.947 2.912 2.884 2.841 2.810 2.786 2.768 2.730 2.617
22 3.275 3.239 3.206 3.176 3.061 2.982 2.924 2.880 2.845 2.817 2.774 2.742 2.719 2.700 2.663 2.548
23 3.215 3.179 3.146 3.116 3.001 2.922 2.864 2.820 2.785 2.756 2.713 2.682 2.658 2.639 2.602 2.487
24 3.161 3.125 3.092 3.062 2.947 2.868 2.810 2.765 2.730 2.702 2.658 2.627 2.603 2.584 2.546 2.431
25 3.111 3.075 3.043 3.013 2.898 2.819 2.761 2.716 2.681 2.652 2.609 2.577 2.553 2.534 2.496 2.379
26 3.067 3.031 2.998 2.968 2.853 2.774 2.716 2.671 2.636 2.607 2.563 2.532 2.508 2.489 2.450 2.333
27 3.026 2.990 2.957 2.927 2.812 2.733 2.674 2.630 2.594 2.565 2.522 2.490 2.466 2.447 2.408 2.290
28 2.988 2.952 2.919 2.890 2.775 2.695 2.636 2.592 2.556 2.527 2.483 2.451 2.427 2.408 2.369 2.250
29 2.953 2.917 2.885 2.855 2.740 2.660 2.601 2.557 2.521 2.492 2.448 2.416 2.391 2.372 2.333 2.213
30 2.921 2.885 2.853 2.823 2.708 2.628 2.569 2.524 2.488 2.459 2.415 2.383 2.358 2.339 2.300 2.179
35 2.791 2.755 2.723 2.693 2.577 2.497 2.438 2.392 2.356 2.327 2.282 2.249 2.224 2.204 2.164 2.039
40 2.697 2.661 2.628 2.598 2.482 2.401 2.342 2.296 2.259 2.230 2.184 2.150 2.125 2.105 2.064 1.935
50 2.569 2.533 2.500 2.470 2.353 2.272 2.211 2.164 2.127 2.097 2.050 2.015 1.989 1.968 1.925 1.790
60 2.486 2.450 2.417 2.387 2.270 2.187 2.126 2.079 2.041 2.010 1.962 1.927 1.900 1.878 1.834 1.692
70 2.428 2.392 2.359 2.329 2.211 2.128 2.067 2.019 1.980 1.949 1.900 1.864 1.837 1.815 1.769 1.622
80 2.385 2.349 2.316 2.286 2.168 2.084 2.022 1.974 1.935 1.903 1.854 1.817 1.789 1.767 1.720 1.568
90 2.353 2.316 2.283 2.253 2.134 2.051 1.988 1.939 1.900 1.868 1.818 1.781 1.752 1.730 1.682 1.525
100 2.326 2.290 2.257 2.227 2.108 2.024 1.961 1.912 1.873 1.840 1.790 1.752 1.723 1.700 1.652 1.490
120 2.288 2.251 2.218 2.188 2.069 1.984 1.921 1.871 1.831 1.798 1.747 1.709 1.679 1.655 1.606 1.436
∞ 2.105 2.069 2.035 2.004 1.882 1.794 1.727 1.674 1.631 1.595 1.538 1.494 1.460 1.431 1.370 1.076
G.5. Tabla de la distribución F de Fisher-Snedecor 263
α
n
0.20 0.15 0.10 0.05 0.01
1 0.900 0.925 0.950 0.975 0.995
2 0.684 0.726 0.776 0.842 0.929
3 0.565 0.597 0.642 0.708 0.828
4 0.494 0.525 0.564 0.624 0.733
5 0.446 0.474 0.510 0.565 0.669
6 0.410 0.436 0.470 0.521 0.618
7 0.381 0.405 0.438 0.486 0.577
8 0.358 0.381 0.411 0.457 0.543
9 0.339 0.360 0.388 0.432 0.514
10 0.322 0.342 0.368 0.410 0.490
11 0.307 0.326 0.352 0.391 0.468
12 0.295 0.313 0.338 0.375 0.450
13 0.284 0.302 0.325 0.361 0.433
14 0.274 0.292 0.314 0.349 0.418
15 0.266 0.283 0.304 0.338 0.404
16 0.258 0.274 0.295 0.328 0.392
17 0.250 0.266 0.286 0.318 0.381
18 0.244 0.259 0.278 0.309 0.371
19 0.237 0.252 0.272 0.301 0.363
20 0.231 0.246 0.264 0.294 0.356
25 0.21 0.22 0.24 0.27 0.32
30 0.19 0.20 0.22 0.24 0.29
35 0.18 0.19 0.21 0.23 0.27
> 35 1.07
√ 1.14
√ 1.22
√ 1.36
√ 1.63
√
n n n n n
266 G. Tablas
267
Bibliografía
[2] George Casella and Roger L. Berger. Statistical Inference. Thomson Learning, 2002.
[3] Jr. David W. Hosmer, Stanley Lemeshow, and Rodney X. Sturdivant. Applied Logistic
Regression (third edition). John Wiley & Sons, 2013.
[4] George Fishman. Monte Carlo; Concepts, Algorithms, and Applications. New York:
Springer, 1996.
[7] Jiawei Han and Micheline Kamber. Data Mining: Concepts and Techniques, (Second
edition). Elsevier, 2006.
[8] Wolfgang Härdle, Marlene Müler, Stefan Sperlich, and Axel Werwatz. Nonparame-
trics an semiparametrics models. An introduction. Springer. Berlin, 2004.
[9] Uffe B. Kærulff and Anders L. Madsen. Bayesian Networks and Influence Diagrams.
A guide to construction and analysis. New York: Springer, 2013.
[10] Timo Koski and John M. Noble. Bayesian Networks: An introduction. United King-
dom: Wiley and Sons, 2009.
[11] Bernard Lapeyre, Étienne Pardoux, and Rémi Sentis. Méthodes de Monte-Carlo pour
les équations de transport et de diffusion. Berlin: Springer-Verlag, 1998.
[14] Kevin P. Murphy. Machine Learning. A Probabilistic Perspective. MIT Press. Cam-
bridge, Massachusetts, 2012.
268 BIBLIOGRAFÍA
[16] Sheldon Ross. Introduction to probability models, (Ninth edition). Elsevier, 2007.
[17] Sheldon Ross. A first course in probability, (Eighth edition). Pearson Prentice Hall,
2010.
[18] George A. F. Seber. A matrix handbook for statisticans. Wiley Series in Probability
and Statistics. Wiley-Interscience. Hoboken, NJ: John Wiley & Sons. xix, 559 p.
EUR 82.80;, 2008.
[19] B.W. Silverman. Density estimation for statistics and data analysis. Chapman &
Hall, London, 1986.
Índice alfabético
Convergencia
casi segura . . . . . . . . . . . . . . . . . . . . . . . . . . 49
A en distribución . . . . . . . . . . . . . . . . . . . . . . 49
en probabilidad . . . . . . . . . . . . . . . . . . . . . 49
Análisis de Varianza . . . . . . . . . . . . . . . . . . . 132 Correlación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Clasificación simple . . . . . . . . . . . . . . . . 132 Cota de Cramér-Rao. . . . . . . . . . . . . . . . . . . .92
Validación del modelo . . . . . . . . . . . . . 139 Covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Factor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 Muestral. . . . . . . . . . . . . . . . . . . . . . . . . . .170
Niveles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 Cuartil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
Tabla ANOVA . . . . . . . . . . . . . . . . . . . . . 137
Tratamientos . . . . . . . . . . . . . . . . . . . . . . 132
Variabilidad . . . . . . . . . . . . . . . . . . . . . . . 136 D
ANOVA . . . . . . . . véase Análisis de Varianza
Desviación estándar muestral . . . . . . . . . . . 75
Diagrama de Dispersión . . . . . . . . . . . . . . . 169
B Distribución
a posteriori . . . . . . . . . . . . . . . . . . . . . . . . 103
Borelianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 a priori . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
σ-álgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 conjugadas, 104
conjugada . . . . . . . . . . . . . . . . . . . . . . . . . 103
C
E
Coeficiente
Correlación de Pearson . . . . . . . . . . . . . 47 Enfoque
determinación muestral . . . . . . . . . . . . 184 bayesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
determinación muestral ajustado . . . 184 frecuentista . . . . . . . . . . . . . . . . . . . . . . . . . 80
Coeficiente de variación . . . . . . . . . . . . . . . . . 76 Error cuadrático medio . . . . . . . . . . . . . . . . . 91
Combinación . . . . . . . . . . . . . . . . . . . . . . . . . . 227 Escala
Condiciones de regularidad . . . . . . . . . . . . . 92 de intervalo . . . . . . . . . . . . . . . . . . . . . . . . . 69
Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 de razón . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
complemento . . . . . . . . . . . . . . . . . . . . . . 221 nominal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
diferencia . . . . . . . . . . . . . . . . . . . . . . . . . . 221 ordinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
disjunto . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 Espacio de probabilidad. . . . . . . . . . . . . . . . . .8
Propiedades . . . . . . . . . . . . . . . . . . . . . . . 221 Espacio muestral. . . . . . . . . . . . . . . . . . . . . . . . .4
Universo . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 Esperanza matemáticavéase Valor esperado
Vacío . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 Esquema
Consistencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
270 ÍNDICE ALFABÉTICO
Hipergeométrico . . . . . . . . . . . . . . . . . . . . 10 Marginal, 31
Estimación de probabilidad . . . . . . . . . . . . . . . . . . . . . 19
por Kernel . . . . . . . . . . . . . . . . . . . . . . . . . 105 Indicadora . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Estimación por Kernel Potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
AMISE . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 Función de densidad condicional
Error Cuadático Medio . . . . . . . . . . . . 107 variable continua . . . . . . . . . . . . . . . . . . . 41
MISE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .107 Función de distribución condicional
Estimador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 variable continua . . . . . . . . . . . . . . . . . . . 41
Bayesiano . . . . . . . . . . . . . . . . . . . . . . . . . 104 variable discreta . . . . . . . . . . . . . . . . . . . . 35
Kernel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 Función de probabilidad condicional
máximo verosímil . . . . . . . . . . . . . . . . . . . 83 variable continua . . . . . . . . . . . . . . . . . . . 35
método de los momentos . . . . . . . . . . . . 88
eficiencia relativa . . . . . . . . . . . . . . . . . . . 94
eficiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
insesgado . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 G
Estimador máximo verosímil . . . . . . . . . . . . 83
invarianza . . . . . . . . . . . . . . . . . . . . . . . . . . 87 Generación de variables aleatorias
multiparamétrico . . . . . . . . . . . . . . . . . . . 86 Método de aceptación- rechazo . . . . . . 59
Evento Método de la transformada inversa . . 57
aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Generador de números pseudoaleatorios . 55
cierto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 lineal congruente. . . . . . . . . . . . . . . . . . . .56
imposible . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Grafo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .143
Evento nulo. . . . . . . .véase Evento imposible Trayectoria . . . . . . . . . . . . . . . . . . . . . . . . 143
Evento simple . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Eventos
mutuamente excluyente . . . . . . . . . . . . . . 4
mutuamente independientes . . . . . . . . . 12
I
Experimento aleatorio . . . . . . . . . . . . . . . . . . . 3 Independencia
Condicional. . . . . . . . . . . . . . . . . . . . . . . .144
sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
F variables aleatorias continuas . . . . . . . 41
Fórmula de la Probabilidad Total . . . . . . . 13 variables aleatorias discretas . . . . . . . . 34
frecuencia Información de Fisher . . . . . . . . . . . . . . . . . . 94
absoluta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
absoluta acumulada . . . . . . . . . . . . . . . . . 69 Intervalo de confianza. . . . . . . . . . . . . . . . . . .95
relativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 mínimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
relativa acumulada . . . . . . . . . . . . . . . . . . 69 asintótico . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Función media con varianza conocida . . . . . . . . 99
de densidad . . . . . . . . . . . . . . . . . . . . . . . . . 22 media con varianza desconocida . . . . . 99
de Distribución . . . . . . . . . . . . . . . . . . . . . 18 nivel de confianza . . . . . . . . . . . . . . . . . . . 96
de Distribución de Probabilidad . . . . . 17 probabilidad de cubrimiento . . . . . . . . 96
Pivote . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 proporción . . . . . . . . . . . . . . . . . . . . . . . . . 100
de Distribución varianza con media conocida . . . . . . . . 99
Conjunta, 30 varianza con media desconocida . . . . . 99
ÍNDICE ALFABÉTICO 271
centrados de orden r, 87
orden r, 87
K Muestreo
con reemplazo . . . . . . . . . . . . . . . . . . . . . . . 5
Kernel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .106 sin reemplazo . . . . . . . . . . . . . . . . . . . . . . . . 5
L N
Ley de los Grandes Números . . . . . . . . . . . . 50 Normalidad Asintótica . . . . . . . . . . . . . . . . . . 91
Débil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
Fuerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
Log-verosimilitud . . . . . . . . . . . . . . . . . . . . . . . 84 P
Percentil. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .74
M Permutación . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
Principio de Multiplicación . . . . . . . . . . . . 227
Método Probabilidad
de los momentos . . . . . . . . . . . . . . . . . . . . 87 Axiomática . . . . . . . . . . . . . . . . . . . . . . . . . . 8
máxima verosimilitud . . . . . . . . . . . . . . . 82 Clásica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Método de los momentos . . . . . . . . . . . . . . . 88 condicional . . . . . . . . . . . . . . . . . . . . . . . . . 11
Método de Monte Carlo . . . . . . . . . . . . . . . . 61 Frecuencial . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Método Delta. . . . . . . . . . . . . . . . . . . . . . . . . . .50 Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Matriz Pruebas de Hipótesis . . . . . . . . . . . . . 109, 111
Determinante . . . . . . . . . . . . . . . . . . . . . . 224 Error Tipo I . . . . . . . . . . . . . . . . . . . . . . . 111
inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 Error Tipo II . . . . . . . . . . . . . . . . . . . . . . 111
Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223 Errores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
traspuesta . . . . . . . . . . . . . . . . . . . . . . . . . 224 nivel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
Traza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223 nivel de significación . . . . . . . . . . . . . . . 111
Media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 p-value . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Mediana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 Probabilidad Error Tipo I . . . . . . . . . 111
Medida de Información de Fisher . . . . . . . 94 Probabilidad Error Tipo II . . . . . . . . 111
Medidas Región crítica . . . . . . . . . . . . . . . . . . . . . 112
de dispersión . . . . . . . . . . . . . . . . . . . . . . . 75 Región de aceptación . . . . . . . . . . . . . . 114
de posición . . . . . . . . . . . . . . . . . . . . . . . . . 74 Puntos críticos . . . . . . . . . . . . . véase Percentil
de tendencia central . . . . . . . . . . . . . . . . 71
Moda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Modelo R
no paramétrico . . . . . . . . . . . . . . . . . . . . . 80
paramétrico. . . . . . . . . . . . . . . . . . . . . . . . .80 Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Modos de convergencia . . . . . . . . . . . . . . . . . 49 intercuartil . . . . . . . . . . . . . . . . . . . . . . . . . 76
Momentos observaciones . . . . . . . . . . . . . . . . . . . . . . . 76
Muestrales . . . . . . . . . . . . . . . . . . . . . . . . . . 88 Red Bayesiana. . . . . . . . . . . . . . . . . . . . . . . . .143
centrados de orden r, 88 variable instanciada. . . . . . . . . . . . . . . .147
orden r, 88 Red bayesiana
Teóricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 mensaje . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
272 ÍNDICE ALFABÉTICO
Distribución condicional . . . . . . . . . . . . 41
independencia . . . . . . . . . . . . . . . . . . . . . . 41
Variables aleatorias discretas
Distribución condicional . . . . . . . . . . . . 35
independencia . . . . . . . . . . . . . . . . . . . . . . 34
Probabilidad condicional . . . . . . . . . . . . 35
Variación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
Varianza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .27
condicional continua . . . . . . . . . . . . . . . . 42
condicional discreta . . . . . . . . . . . . . . . . . 36
Varianza muestral . . . . . . . . . . . . . . . . . . . . . . 75
Vector aleatorio. . . . . . . . . . . . . . . . . . . . . . . . .30
continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Función de distribución conjunta . . . . 30
Función de distribución marginal. . . .31
Vector aleatorio continuo
Función de densidad conjunta . . . . . . . 38
Función de densidad marginal. . . . . . .39
Función de distribución conjunta . . . . 38
Función de distribución marginal. . . .39
Vector aleatorio discreto
Función de distribución conjunta . . . . 33
Función de distribución marginal. . . .33
Función de probabilidad conjunta . . . 33
Función de probabilidad marginal . . . 33
Verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
log-verosimilitud . . . . . . . . . . . . . . . . . . . . 84
274 ÍNDICE ALFABÉTICO