0% encontró este documento útil (0 votos)
186 vistas6 páginas

Examen Final de Probabilidad y Estadística

Este documento presenta un examen final sobre probabilidad y estadística que cubre temas como media y mediana muestral, desviación estándar y varianza, coeficiente de variación, probabilidad, teoremas de probabilidad, variables aleatorias discretas y continuas, valor esperado, varianza, y funciones generatrices de momentos. El examen contiene preguntas sobre estas áreas fundamentales de probabilidad y estadística.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
186 vistas6 páginas

Examen Final de Probabilidad y Estadística

Este documento presenta un examen final sobre probabilidad y estadística que cubre temas como media y mediana muestral, desviación estándar y varianza, coeficiente de variación, probabilidad, teoremas de probabilidad, variables aleatorias discretas y continuas, valor esperado, varianza, y funciones generatrices de momentos. El examen contiene preguntas sobre estas áreas fundamentales de probabilidad y estadística.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Universidad de los Andes

Departamento de Ingeniería Industrial


Probabilidad y Estadística I – EXAMEN FINAL

ESTADÍSTICA Teorema de Bayes


Media Muestral 𝑃(𝐴|𝐵)𝑃(𝐵) = 𝑃(𝐵|𝐴)𝑃(𝐴) = 𝑃(𝐴 ∩ 𝐵)
∑𝑛𝑖=1 𝑥𝑖
𝑋̅ =
𝑛 Propiedades
Mediana Muestral 𝑃(𝐴) = 1 − 𝑃(𝐴𝐶 )
(𝑛 + 1) 𝑃(𝐴𝐶 |𝐵) = 1 − 𝑃(𝐴|𝐵)
𝑛_𝑖𝑚𝑝𝑎𝑟: 𝑀𝑒𝑑𝑖𝑎𝑛𝑎 = [ ] é𝑠𝑖𝑚𝑜 𝑣𝑎𝑙𝑜𝑟 𝑑𝑒 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎
2 𝑆𝑖 𝐴 𝑦 𝐶 𝑠𝑜𝑛 𝑚𝑢𝑡𝑢𝑎𝑚𝑒𝑛𝑡𝑒 𝑒𝑥𝑐𝑙𝑢𝑦𝑒𝑛𝑡𝑒𝑠
𝑃(𝐴 ∪ 𝐶|𝐵) = 𝑃(𝐴|𝐵) + 𝑃(𝐶|𝐵)
𝑛 𝑛
𝑛_𝑝𝑎𝑟: 𝑀𝑒𝑑𝑖𝑎𝑛𝑎 = 𝑃𝑟𝑜𝑚𝑒𝑑𝑖𝑜 [ 𝑦 ( + 1)] é𝑠𝑖𝑚𝑜 𝑣𝑎𝑙𝑜𝑟 𝑑𝑒 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 Ley de Probabilidades Totales
2 2
Ω = {𝑁1 ∪ 𝑁2} → 𝑃(𝐴) = 𝑃(𝐴 ∩ 𝑁1) + 𝑃(𝐴 ∩ 𝑁2)
Desviación Estándar (s) y Varianza (s2)
P(N1)*P(B|N1)=P(BN1)
∑𝑛𝑖=1(𝑥𝑖 − 𝑋̅)2
𝑆2 = ; 𝑆 = +√𝑆 2 Recuerda:
𝑛−1 Dos eventos mutuamente
Coeficiente de Variación excluyentes NO son
𝑆
𝐶𝑉 = independientes.
𝑋̅
VARIABLES ALEATORIAS
PROBABILIDAD Discretas
Axiomas  Función de Probabilidad 𝒈𝑿 (𝒙) = 𝑷(𝑿 = 𝒙)
𝑃(Ω) = 1 𝑔𝑋 (0) 𝑥=0
𝑃(𝐵1 ) + 𝑃(𝐵2 ) + ⋯ + 𝑃(𝐵𝑛 ) = 𝑃(𝐵1 ∪ 𝐵2 ∪ … ∪ 𝐵𝑛 ) 𝑔 (1) 𝑥=1
𝑔𝑋 (𝑥) = { 𝑋
→ 𝑆ó𝑙𝑜 𝑠𝑖 𝑠𝑜𝑛 𝑚𝑢𝑡𝑢𝑎𝑚𝑒𝑛𝑡𝑒 𝑒𝑥𝑐𝑙𝑢𝑦𝑒𝑛𝑡𝑒𝑠 ⋮
Teorema 0 𝑑𝑙𝑐
𝑃(𝐻 ∪ 𝐾) = 𝑃(𝐻) + 𝑃(𝐾) − 𝑃(𝐻 ∩ 𝐾) 𝑃𝑟𝑜𝑝𝑖𝑒𝑑𝑎𝑑𝑒𝑠:
𝑃(𝐻 ∪ 𝑃 ∪ 𝐼) = 𝑃(𝐻) + 𝑃(𝑃) + 𝑃(𝐼) − 𝑃(𝑃 ∩ 𝐻) − 𝑃(𝐻 ∩ 𝐼) → ∑ 𝑔𝑋 (𝑥𝑖 ) = 1
− 𝑃(𝑃 ∩ 𝐼) + 𝑃(𝐻 ∩ 𝑃 ∩ 𝐼)
𝑅(𝑋)
# 𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 𝐹𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑑𝑒𝑙 𝑒𝑣𝑒𝑛𝑡𝑜 𝐵
𝑃(𝐵) = → 0 ≤ 𝑔𝑋 (𝑥𝑖 ) ≤ 1 ∀ 𝑖 ∈ 𝑅(𝑋)
# 𝑇𝑜𝑡𝑎𝑙 𝑑𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠  Función de Distribución Acumulada 𝑭𝑿 (𝒙) = 𝑷(𝑿 ≤ 𝒙)
MÉTODOS DE CONTEO 0 𝑥<0
Regla de la Multiplicación 𝑔𝑋 (0) 0≤𝑥<1
# 𝑇𝑜𝑡𝑎𝑙 𝑑𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 = 𝑛1 ∗ 𝑛2 ∗ … ∗ 𝑛𝑟 𝐹𝑋 (𝑥) = {

Arreglo Ordenado 1 𝑥≥𝑘
#𝑇𝑜𝑡𝑎𝑙 𝑑𝑒 𝑟_𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠 𝑑𝑒 𝑢𝑛 𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑑𝑒 𝑛 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 Continuas
#𝑚(𝑟; 𝐴) = 𝑛𝑟  Función de Densidad de Probabilidad
Permutaciones Ordinarias 𝑃𝑟𝑜𝑝𝑖𝑒𝑑𝑎𝑑𝑒𝑠:
𝑛 = 𝑟; 𝑃(𝑛) = 𝑛! → 𝑓𝑋 (𝑥) ≥ 0
Permutaciones (No hay repetición de elementos, Sin reemplazo,
→∫ 𝑓𝑋 (𝑥) = 1
Arreglo ordenado) 𝑅(𝑋)
𝑛! 𝑏
𝑟 < 𝑛; 𝑃(𝑟; 𝑛) = → 𝑃(𝑎 < 𝑋 < 𝑏) = ∫ 𝑓𝑋 (𝑥)𝑑𝑥
(𝑛 − 𝑟)!
𝑎
Combinaciones (No hay repetición de elementos, Sin reemplazo,  Función de Distribución Acumulada 𝑭𝑿 (𝒙)
No importa orden) 𝑥
𝛿
𝑛! 𝐹𝑋 (𝑥) = ∫ 𝑓𝑋 (𝑡)𝑑𝑡 = 𝑃(𝑋 ≤ 𝑥) → 𝐹𝑋 (𝑥) = 𝑓𝑋 (𝑥)
𝐶(𝑟; 𝑛) = −∞ 𝛿𝑥
(𝑛 − 𝑟)! 𝑟!
VALOR ESPERADO Y VARIANZA
Particiones Ordenadas
Propiedades Valor Esperado
#𝑃(𝑛1 , 𝑛2 , … , 𝑛𝑟 ; 𝐴)
𝑁 𝑁 − 𝑛1 𝑁 − 𝑛1 − 𝑛2 𝑁 − 𝑛1 − 𝑛2 − ⋯ − 𝑛𝑟−1 𝐸(𝑎) = 𝑎
= ( )( )( )…( ) 𝐸(𝑎𝑋) = 𝑎𝐸(𝑋)
𝑛1 𝑛2 𝑛3 𝑛𝑟
𝑁! 𝐸(𝑋 ± 𝑌) = 𝐸(𝑋) ± 𝐸(𝑌)
= 𝐸(𝑋𝑌) = 𝐸(𝑋) ∗ 𝐸(𝑌)
𝑛1 ! 𝑛2 ! … 𝑛𝑟 !
→ 𝑆ó𝑙𝑜 𝑠𝑖 𝑋 𝑦 𝑌 𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠
Propiedades Varianza
PROBABILIDAD CONDICIONAL
𝑃(𝐴 ∩ 𝐵) 𝑉𝑎𝑟(𝑎) = 0
𝑃(𝐴|𝐵) = 𝑉𝑎𝑟(𝑎𝑋) = 𝑎2 𝑉𝑎𝑟(𝑋)
𝑃(𝐵) 𝑉𝑎𝑟(𝑋 ± 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) 𝑆𝑖 𝑋, 𝑌 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠
Independencia 𝑉𝑎𝑟(𝑎𝑋 ± 𝑏𝑌 + 𝑐) = 𝑎2 𝑉𝑎𝑟(𝑋) + 𝑏 2 𝑉𝑎𝑟(𝑌) ± 2𝑎𝑏 𝐶𝑜𝑣(𝑋, 𝑌)
𝑆𝑖 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) ∗ 𝑃(𝐵) ⟷ 𝑃(𝐴|𝐵) = 𝑃(𝐴) Si 𝑋, 𝑌 independientes  𝐶𝑜𝑣(𝑋, 𝑌) = 0
Discretas Continuas

𝑬[𝑿] = 𝝁 ∑ 𝑥𝑖 𝑔𝑋 (𝑥𝑖 ) ∫ 𝑥𝑓𝑋 (𝑥) 𝑑𝑥


𝑅(𝑋) 𝑅(𝑋)
2
2
𝟐 (𝑬[𝑿])𝟐
𝑽𝒂𝒓[𝑿] = 𝑬[𝑿 ] − ∑ 𝑥𝑖2 𝑔𝑋 (𝑥𝑖 ) − [ ∑ 𝑥𝑖 𝑔𝑋 (𝑥𝑖 )] ∫ 𝑥 2 𝑓𝑋 (𝑥) 𝑑𝑥 − [∫ 𝑥𝑓𝑋 (𝑥) 𝑑𝑥]
𝑅(𝑋) 𝑅(𝑋) 𝑅(𝑋) 𝑅(𝑋)

Función Generatriz De Momentos 𝝍𝑿 (𝒕) 𝐸[𝑒 𝑡𝑋 ] = ∑ 𝑒 𝑡𝑥𝑖 𝑔𝑥 (𝑥𝑖 ) 𝐸[𝑒 𝑡𝑋 ] = ∫ 𝑒 𝑡𝑥 𝑓𝑋 (𝑥) 𝑑𝑥


𝑅(𝑋) 𝑅(𝑋)
(𝑛)
Propiedad fundamental de la FGM 𝜓𝑋 (𝑡 = 0) = 𝐸(𝑋 𝑛 )

Recuerde:
VARIABLES DISCRETAS (DISTRIBUCIONES) *Definir siempre la VA e identificar su distribución y sus parámetros.
Parámetros gx(x) E(X) Var(X) F.G.M
𝑘 𝑘
DISTRIBUCIÓN UNIFORME 𝑘 = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 1 1 1
∑ 𝑥𝑖 ∑(𝑥𝑖 − 𝜇)2
DISCRETA 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑑𝑖𝑠𝑡𝑖𝑛𝑡𝑜𝑠 𝑘 𝑘 𝑘
𝑖=1 𝑖=1
(Probabilidades idénticas) 𝑞𝑢𝑒 𝑝𝑢𝑒𝑑𝑒 𝑡𝑜𝑚𝑎𝑟 𝑋 𝑥 = 𝑥1 , 𝑥2 , …
𝑎 𝑁−𝑎
𝑁 = 𝑡𝑎𝑚𝑎ñ𝑜 𝑑𝑒 𝑙𝑎 ( )( )
𝑘 𝑛−𝑘 𝑁−𝑛 𝑘 𝑘
𝑝𝑜𝑏𝑙𝑎𝑐𝑖ó𝑛
𝑁 ( ) 𝑛 ∗ (1 − )
HIPERGEOMÉTRICA 𝑛 = 𝑡𝑎𝑚𝑎ñ𝑜 𝑑𝑒 𝑙𝑎 ( ) 𝑛𝑘 𝑁−1 𝑁 𝑁
𝑛
(Sin reemplazo) 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 𝑎: 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑑𝑒 𝑙𝑎 𝑁
𝑘 = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑝𝑜𝑏𝑙𝑎𝑐𝑖𝑜𝑛 𝑑𝑒 𝑙𝑎 𝐷𝑜𝑛𝑑𝑒: 𝑘 = é𝑥𝑖𝑡𝑜𝑠
é𝑥𝑖𝑡𝑜𝑠 𝑐𝑎𝑡𝑒𝑔𝑜𝑟𝑖𝑎 𝑑𝑒𝑠𝑒𝑎𝑑𝑎
BERNOULLI 𝑝 = 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝 𝑥 (1 − 𝑝)1−𝑥
𝑝 𝑝(1 − 𝑝)
(Éxito o fracaso) 𝑑𝑒 é𝑥𝑖𝑡𝑜 𝑥 = 0,1 (1 − 𝑝) + 𝑝𝑒 𝑡
𝑝 = 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑛
( ) 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥
BINOMIAL 𝑑𝑒 é𝑥𝑖𝑡𝑜 𝑥 𝑛𝑝
𝑥 = 0,1,2, … , 𝑛 𝑛𝑝(1 − 𝑝) 𝑛
(# éxitos en n ensayos) 𝑛 = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 ((1 − 𝑝) + 𝑝𝑒 𝑡 )
𝑒𝑛𝑠𝑎𝑦𝑜𝑠 0≤x≤n
GEOMÉTRICA
𝑝 = 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 (1 − 𝑝)𝑥−1 𝑝 1 1−𝑝 𝑝𝑒 𝑡
(# ensayos hasta el primer
𝑑𝑒 é𝑥𝑖𝑡𝑜 𝑥 = 1,2, … 𝑝 𝑝2 1 − (1 − 𝑝)𝑒𝑡
éxito)
BINOMIAL NEGATIVA 𝑝 = 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑥 − 1 (1 𝑘 𝑘(1 − 𝑝) 𝑘
( ) − 𝑝)𝑥−𝑘 𝑝𝑘 𝑝𝑒 𝑡
(# ensayos hasta el k-ésimo 𝑑𝑒 é𝑥𝑖𝑡𝑜 𝑘−1 ( )
𝑘 − é𝑠𝑖𝑚𝑜 é𝑥𝑖𝑡𝑜 𝑥≥𝑘 𝑝 𝑝2 1 − (1 − 𝑝)𝑒𝑡
éxito)
# 𝑑𝑒 𝑎𝑟𝑟𝑖𝑏𝑜𝑠 (𝜆𝑡)𝑥 −𝜆𝑡
POISSON 𝜆= 𝑒
𝑢𝑛𝑑. 𝑡𝑖𝑒𝑚𝑝𝑜 𝑥! 𝑠
(# llegadas en un intervalo de 𝑒 𝜆(𝑒 −1)
𝑡 = 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜 𝑥 = 0,1, … 𝜆𝑡 𝜆𝑡
tiempo ∆𝑡) 𝑝𝑎𝑟𝑎 𝑡 = 1
𝑑𝑒 𝑡𝑖𝑒𝑚𝑝𝑜 𝜆, 𝑡 > 0
VARIABLES CONTINUAS (DISTRIBUCIONES)
Parámetros fx(x) E(X) Var(X)
1
DISTRIBUCIÓN 𝑎 = 𝑚í𝑛𝑖𝑚𝑜 𝑎≤𝑥≤𝑏 𝑎+𝑏 (𝑏 − 𝑎)2
{𝑏 − 𝑎
UNIFORME CONTINUA 𝑏 = 𝑚á𝑥𝑖𝑚𝑜 2 12
0 𝑑𝑙𝑐
𝜇 = 𝑀𝑒𝑑𝑖𝑎 1 1
− 2 (𝑥−𝜇)2 𝜇 𝜎2
𝑒 2𝜎
DISTRIBUCIÓN NORMAL 𝜎 2 = 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 √2𝜋𝜎
𝑋 −𝜇 𝑥−𝜇 𝑥−𝜇
Recuerde: 𝑃(𝑋𝑁 ≤ 𝑥) = 𝑃 ( 𝑁 ≤ ) = 𝑃 (𝑍 ≤ )
𝜎 𝜎 𝜎
# 𝑑𝑒 𝑎𝑟𝑟𝑖𝑏𝑜𝑠 −𝜆𝑥 1 1
𝜆= {𝜆𝑒 𝑥, 𝜆 > 0
𝑢𝑛𝑑. 𝑡𝑖𝑒𝑚𝑝𝑜 0 𝑑𝑙𝑐 𝜆 𝜆2
DISTRIBUCIÓN
EXPONENCIAL
(Tiempo entre 2 arribos Recuerde:
consecutivos) 𝜆
𝜓𝑋𝐸 (𝑠; 𝜆) = 𝑃(𝑇 > 𝑡 + 𝑠|𝑇 > 𝑡) = 𝑒 −𝜆𝑠 𝑃(𝑇 > 𝑡 + 𝑠) = 1 − 𝑃(𝑇 ≤ 𝑡 + 𝑠) = 𝑒 −𝜆(𝑡+𝑠)
𝜆−𝑠
𝐹𝑋 (𝑥) = 𝑃(𝑋𝐸 ≤ 𝑥) = 1 − 𝑒 −𝜆𝑥
2(𝑥 − 𝑎)
𝑎≤𝑥<𝑚
𝑎 = 𝑚í𝑛𝑖𝑚𝑜 (𝑚 − 𝑎)(𝑏 − 𝑎)
DISTRIBUCIÓN 𝑎+𝑏+𝑚 𝑎 2 + 𝑏 2 + 𝑚2 − 𝑎𝑏 − 𝑎𝑚 − 𝑏𝑚
𝑚 = 𝑚𝑜𝑑𝑎 2(𝑏 − 𝑥)
TRIANGULAR
𝑏 = 𝑚á𝑥𝑖𝑚𝑜 𝑚≤𝑥<𝑏 3 18
(𝑏 − 𝑚)(𝑏 − 𝑎)
{ 0 𝑑. 𝑙. 𝑐

VARIABLES ALEATORIAS CONJUNTAS  Discretas


𝑏 𝑎
∑ ∑ 𝑔𝑋𝑌 (𝑥, 𝑦) = 1 𝑃(𝑋 ≤ 𝑎 ∩ 𝑌 ≤ 𝑏) ∫−∞ ∫−∞ 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦
𝑃(𝑋 ≤ 𝑎|𝑌 ≤ 𝑏) = = 𝑏
𝑅(𝑋) 𝑅(𝑌) 𝑃(𝑌 ≤ 𝑏) ∫ 𝑓𝑌 (𝑦)𝑑𝑦
𝑥 𝑦 −∞
 Coeficiente de Correlación
𝑃(𝑋 ≤ 𝑥 ∩ 𝑌 ≤ 𝑌) = 𝐹𝑋𝑌 (𝑥, 𝑦) = ∑ ∑ 𝑔𝑋𝑌 (𝑥, 𝑦)
𝐶𝑜𝑣(𝑋, 𝑌)
−∞ −∞ 𝜌𝑋𝑌 =
 Continuas 𝜎𝑋 𝜎𝑌
−1 ≤ 𝜌𝑋𝑌 ≤ 1
∫ ∫ 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦 = 1
𝑅(𝑌) 𝑅(𝑋)
𝑦 𝑥 𝜌𝑋𝑌
1 → 𝑅𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑙𝑖𝑛𝑒𝑎𝑙 𝑑𝑖𝑟𝑒𝑐𝑡𝑎
𝑃(𝑋 ≤ 𝑥 ∩ 𝑌 ≤ 𝑌) = 𝐹𝑋𝑌 (𝑥, 𝑦) = ∫ ∫ 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦 ={0 → 𝑁𝑜 𝑒𝑥𝑖𝑠𝑡𝑒 𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑙𝑖𝑛𝑒𝑎𝑙
−∞ −∞ −1 → 𝑅𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑙𝑖𝑛𝑒𝑎𝑙 𝑖𝑛𝑣𝑒𝑟𝑠𝑎
Distribuciones Marginales
 Discretas Teorema del Límite Central(𝒏 ≥ 𝟑𝟎)
𝑔𝑋 (𝑥) = ∑ 𝑔𝑋𝑌 (𝑥, 𝑦) 𝑆𝑒𝑎𝑛 𝑋1 , 𝑋2 , … , 𝑋𝑛 𝑢𝑛𝑎 𝑐𝑜𝑙𝑒𝑐𝑐𝑖ó𝑛 𝑑𝑒 𝑛 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑎𝑠
𝑅(𝑌) 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠 𝑒 𝑖𝑑𝑒𝑛𝑡𝑖𝑐𝑎𝑚𝑒𝑛𝑡𝑒 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑖𝑑𝑎𝑠 𝑐𝑜𝑛:
𝑔𝑌 (𝑦) = ∑ 𝑔𝑋𝑌 (𝑥, 𝑦) 𝐸(𝑋𝑖 ) = 𝜇, 𝑉𝑎𝑟 (𝑋) = σ2
𝑅(𝑋)
 Continuas 𝐸𝑛𝑡𝑜𝑛𝑐𝑒𝑠, 𝑝𝑎𝑟𝑎 𝑢𝑛 𝑛 𝑠𝑢𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒𝑚𝑒𝑛𝑡𝑒 𝑔𝑟𝑎𝑛𝑑𝑒 𝑠𝑒 𝑡𝑖𝑒𝑛𝑒 𝑞𝑢𝑒:

𝑓𝑋 (𝑥) = ∫ 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑦 𝑋̅~𝑁(𝜇, 𝜎 2 /𝑛)


𝑅(𝑌)

𝑓𝑌 (𝑦) = ∫ 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥 𝑋̅ − 𝜇


~𝑁(0,1)
𝑅(𝑋) 𝜎/√𝑛
Distribución Condicional (Continua)
𝑓𝑋𝑌 (𝑥, 𝑦)
𝑓𝑋|𝑌 (𝑥, 𝑦) = ∑ xi ~𝑁(𝑛𝜇, 𝑛𝜎 2 )
𝑓𝑌 (𝑦)
𝑓𝑋𝑌 (𝑥, 𝑦)
𝑓𝑌|𝑋 (𝑥, 𝑦) = ∑ xi − 𝑛𝜇
𝑓𝑋 (𝑥) ~𝑁(0,1)
Independencia √𝑛𝜎
𝑆𝑖 𝑓𝑋𝑌 (𝑥, 𝑦) = 𝑓𝑋 (𝑥) ∗ 𝑓𝑌 (𝑦), entonces
𝑋 𝑦 𝑌 𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠 Suma de VAs independientes
𝑆𝑖 𝑋 𝑦 𝑌 𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠: 𝑓𝑋|𝑌 (𝑋, 𝑌) = 𝑓𝑋 (𝑥) ó 𝑓𝑌|𝑋 (𝑋, 𝑌) Sean 𝑋1 𝑦 𝑋2 variables aleatorias independientes con función
= 𝑓𝑌 (𝑦) generadoras de momentos 𝜓𝑥1 (𝑡)𝑦 𝜓𝑥2 (𝑡),respectivamente, y sea 𝑊 =
𝑋1 + 𝑋2
Valor Esperado de una V.A.
Entonces:
 Caso Discreto
𝜓𝑊 (𝑡) = 𝜓𝑥1 (𝑡) ∗ 𝜓𝑥2 (𝑡)
𝜇 = 𝐸(𝑋) = ∑ 𝑥𝑓𝑋 (𝑥) Suma V.A. Binomiales
𝑅(𝑋)
𝑋1 ~𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(𝑛1 , 𝑝)
 Caso Continuo
𝑋2 ~𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(𝑛2 , 𝑝)
𝜇 = 𝐸(𝑋) = ∫ 𝑥𝑓𝑋 (𝑥)𝑑𝑥 𝑊 = 𝑋1 + 𝑋2 ~𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(𝑛1 + 𝑛2 , 𝑝)
𝑅(𝑋)

𝐸(𝑋𝑌) = ∫ ∫ 𝑥𝑦𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦 Suma V.A. Poisson


𝑅(𝑦) 𝑅(𝑥) 𝑋1 ~𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜆1 )
𝐸(𝑢(𝑋, 𝑌)) = ∫ ∫ 𝑢(𝑋, 𝑌)𝑓𝑋𝑌 (𝑋, 𝑌)𝑑𝑥 𝑑𝑦 𝑋2 ~𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜆2 )
𝑅(𝑌) 𝑅(𝑋) 𝑊 = 𝑋1 + 𝑋2 ~𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜆1 + 𝜆2 )
Varianza y Covarianza de una V.A.
𝑉𝑎𝑟(𝑋) = 𝜎𝑋2 = 𝐸(𝑋 2 ) − [𝐸(𝑋)]2 Suma V.A. Geométricas
𝐷𝑒𝑠𝑣𝑖𝑎𝑐𝑖ó𝑛 𝑒𝑠𝑡á𝑛𝑑𝑎𝑟 → 𝜎𝑥 = √𝑉𝑎𝑟(𝑋)
𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌) 𝑋1 ~𝐺𝑒𝑜𝑚é𝑡𝑟𝑖𝑐𝑎(𝑝)

𝑋2 ~𝐺𝑒𝑜𝑚é𝑡𝑟𝑖𝑐𝑎(𝑝)
𝑉𝑎𝑟(𝑋) = 𝐸[(𝑥 − 𝜇)2 ] = ∑ (𝑥 − 𝜇)2 𝑓𝑋 (𝑥) = ∫ (𝑥 − 𝜇)2 𝑓𝑋 (𝑥)𝑑𝑥
𝑅(𝑋) −∞ 𝑊 = 𝑋1 + 𝑋2 ~𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙 𝑛𝑒𝑔𝑎𝑡𝑖𝑣𝑎(2, 𝑝)

Valor Esperado Condicional


𝐸(𝑋|𝑌 = 𝑏) = ∑ 𝑥𝑓𝑋|𝑌 (𝑥, 𝑌 = 𝑏)
𝑅(𝑋 |𝑌 )

𝐸(𝑋|𝑌 = 𝑏) = ∫ 𝑥𝑓𝑋|𝑌 (𝑥, 𝑌 = 𝑏)𝑑𝑥


𝑅(𝑋|𝑦=𝑏)
Probabilidades Condicionales

𝑃(𝑋 ≤ 𝑎|𝑌 = 𝑏) = ∫ 𝑓𝑋|𝑌 (𝑥, 𝑌 = 𝑏)𝑑𝑥


𝑅(𝑋≤𝑎|𝑦=𝑏)
ESTIMACIÓN PUNTUAL (Parámetro 𝜽) INTERVALOS DE CONFIANZA

1. SESGO: MEDIA POBLACIONAL()


𝐸(𝜃̂) − 𝜃 Tamaño Intervalo de Confianza
Distr. Pob. Var. Pob.
2. MÍNIMA VARIANZA Muestral (1-)%
𝑉𝑎𝑟(𝜃̂1 ) < 𝑉𝑎𝑟(𝜃̂2 ) 𝜎
Normal Conocida Pequeño 𝑋̅ ± 𝑧(1−𝛼)
3. ERROR CUADRÁTICO MEDIO (ECM) 2 √𝑛
𝐸𝐶𝑀(𝜃̂) = 𝑉𝑎𝑟(𝜃̂) + [𝑆𝑒𝑠𝑔𝑜(𝜃̂)]
2 𝑆
Normal Desconocida Pequeño ̅
𝑋 ± 𝑡(1−𝛼;𝑛−1)
4. CONSISTENCIA 2 √𝑛
𝜎
Lim 𝐸(𝜃̂) = 𝜃 ; lim 𝑉𝑎𝑟(𝜃̂) = 0 Cualquiera Conocida Grande 𝑋̅ ± 𝑧(1−𝛼)
𝑛→∞ 𝑛→∞ 2 √𝑛
5. EFICIENCIA (Cota Rao-Cramer=VarIanza 𝜃̂) 𝑠
Cualquiera Desconocida Grande 𝑋̅ ± 𝑧 𝛼
(1− ) 𝑛
2 √
1 1 ESTIMACIÓN DE UNA PROPORCIÓN POBLACIONAL (p)
𝐶𝑅𝐶 = =
𝛿 2 𝛿2 Tamaño Intervalo de Confianza
𝑛𝐸 ([ (ln 𝑓𝑋 (𝑥; 𝜃))] ) −𝑛𝐸 ([ 2 (ln 𝑓𝑋 (𝑥; 𝜃))]) Distr. Pob. Var. Pob.
𝛿𝜃 𝛿𝜃 Muestral (1-)%
Binomial,
𝑝̂ (1 − 𝑝̂ )
Bernoulli,
Desconocida Grande 𝑝̂ ± 𝑧(1−𝛼) √
ESTIMADOR DE MÁXIMA VEROSIMILITUD Binomial 2 𝑛
𝑥
Negativa 𝑝̂ = , donde 𝑥 𝑒𝑠 # é𝑥𝑖𝑡𝑜𝑠
𝑛
Pasos: ESTIMACIÓN DE UNA VARIANZA POBLACIONAL ()
1) 𝐿(𝑥1 , … , 𝑥𝑛 ; 𝜃) = ∏𝑛𝑖=1 𝑓𝑋 (𝑥𝑖 ) Intervalo de Confianza
2) 𝑙𝑛(𝐿 (𝑥1 , … , 𝑥𝑛 ; 𝜃)) Distr. Pob. Var. Pob.
(1-)%
𝛿
3) [𝑙𝑛(𝑙) (𝑥1 , … , 𝑥𝑛 )] = 0
𝛿𝜃 (𝑛 − 1)𝑆 2 (𝑛 − 1)𝑆 2
4) 𝑑𝑒𝑠𝑝𝑒𝑗𝑜 𝜃 = 𝜃̂ Normal Cualquiera ( 2 ; 2 )
𝜒 𝛼 𝜒 𝛼
(1− ;(𝑛−1)) ( ;(𝑛−1))
2 2
BONDAD DE AJUSTE ESTIMACIÓN DE UNA DIFERENCIA DE MEDIAS POBLACIONALES 1-2
𝑚
Distr. Tamaño Intervalo de Confianza
(𝑂𝑖 − 𝐸𝑖 )2 (𝑥𝑖 − 𝑛𝑝𝑖 )2 Var. Pob.
2 Pob. Muestr. (1-)%
𝑌(𝑚−1) = =∑ ~𝜒(𝑚−1)
𝐸𝑖 𝑛𝑝𝑖 1 1
𝑖=1 Desconoci 𝑋̅1 − 𝑋̅2 ± 𝑡 𝑆√ +
(1− ;(𝑛1 +𝑛2 −2)) 𝑐 𝑛1
𝛼
𝑛2
2
-das e Pequeños
Normales

𝑥𝑖 = 𝐹𝑟𝑒𝑐𝑢𝑒𝑛𝑐𝑖𝑎 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑑𝑎, 𝑛 = iguales (𝑛1 − 1)𝑆12 + (𝑛2 − 1)𝑆22


𝑑𝑜𝑛𝑑𝑒 𝑆𝑐 = √
# 𝑑𝑒 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑐𝑖𝑜𝑛𝑒𝑠 𝑇𝑜𝑡𝑎𝑙𝑒𝑠 𝑛1 + 𝑛2 − 2

𝑚 = # 𝑑𝑒 𝐶𝑙𝑎𝑠𝑒𝑠 Cualqui- 𝜎12 𝜎22


Conocidas
era 𝑋̅1 − 𝑋̅2 ± 𝑧(1−𝛼) √ +
2 𝑛1 𝑛2
𝑆𝑖 𝑌𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑜 > 𝜒 2 (𝑚−1;(1−𝛼)) → 𝑟𝑒𝑐ℎ𝑎𝑧𝑜 𝐻𝑜
𝜎12 𝜎22
Conocidas 𝑋̅1 − 𝑋̅2 ± 𝑧(1−𝛼) √ +
Cualquiera

Grandes

𝑛1 𝑛2
Ambos

Media muestral
Desconoci 𝑆12 𝑆22
∑𝑖=𝑛
𝑖=1 𝑥𝑖 𝑋̅1 − 𝑋̅2 ± 𝑧(1−𝛼) √ +
𝑋̅ = das 2 𝑛1 𝑛2
𝑛
Varianza muestral ESTIMACIÓN DE UNA DIFERENCIA DE PROPORCIONES POBLACIONALES
𝑖=𝑛 p1-p2
1
𝑆2 = ∑(𝑥𝑖 − 𝑥̅ )2 Var. Tamaño
𝑛−1 Distr. Pob. Intervalo de Confianza (1-)%
𝑖=1 Pob. Muestr.
𝑝̂1 − 𝑝̂2
DISTRIBUCIONES Desco
Bernoulli nocida Grandes 𝑝̂1 (1 − 𝑝̂1 ) 𝑝̂2 (1 − 𝑝̂2 )
± 𝑧(1−𝛼) √ +
Distribución 𝝌𝟐 : 𝑿𝟐𝟏 + 𝑿𝟐𝟐 + ⋯ + 𝑿𝟐𝒏 → 𝝌𝟐(𝒏) s 2 𝑛1 𝑛2
Donde Xi es N(0,1) y Xi es independiente de Xj. ESTIMACIÓN DE UN COCIENTE DE VARIANZAS POBLACIONALES 12/22
Var.
𝑿 Distr. Pob. Intervalo de Confianza (1-)%
Distribución 𝒕: 𝒀
→ 𝒕(𝒏) Pob.
√ 2
𝒏 Cualqui 𝑆1 𝑠12
Donde X es N(0,1) y Y es 𝑥 2 (𝑛) , siendo X y Y independientes. Normales ( 2𝐹 𝛼 ; 2𝐹 𝛼 )
era 𝑆2 ( 2 ;(𝑛2−1);(𝑛1 −1)) 𝑠2 (1− 2 ;(𝑛2−1);(𝑛1−1))
𝑿⁄
𝒏𝟏
Distribución 𝑭: 𝒀⁄ → 𝑭(𝒏𝟏,𝒏𝟐)
𝒏𝟐
Donde X y Y son Vas independientes con distribuciones 𝜒 2 (𝑛1) y 𝜒 2 (𝑛2)
respectivamente.

𝟏
Si 𝑿 → 𝑭(𝒏𝟏.𝒏𝟐) 𝒆𝒏𝒕𝒐𝒏𝒄𝒆𝒔 𝒀 = → 𝑭(𝒏𝟐.𝒏𝟏)
𝑿
PRUEBA DE HIPÓTESIS PARA LA MEDIA POBLACIONAL
Estadístico de Región Crítica, Estadístico de Región Crítica, Rechazar Ho
Hipótesis Nula Hipótesis Alternas Supuestos Supuestos
prueba Rechazar Ho cuando: prueba cuando:
𝐻1 : 𝜇 ≠ 𝜇𝑜 n Grande 𝑧 < −𝑧1−𝛼 ó 𝑧 > 𝑧1−𝛼 𝑡 < −𝑡(1−𝛼; 𝑛−1) ó 𝑡 > 𝑡(1−𝛼;𝑛−1)
2
𝑋̅ − 𝜇𝑜 2 2 Normalidad 𝑋̅ − 𝜇𝑜 2 2
𝐻𝑜 : 𝜇 = 𝜇𝑜 𝐻1 : 𝜇 > 𝜇𝑜 𝜎 Conocido ó 𝑧= 𝑧 > 𝑧1−𝛼 𝑡= 𝑡 > 𝑡(1−𝛼; 𝑛−1)
𝜎 𝑜 ⁄ √𝑛 𝜎 2 desconocido 𝑠⁄√𝑛
𝐻1 : 𝜇 < 𝜇𝑜 normalidad 𝑧 < −𝑧1−𝛼 𝑡 < −𝑡(1−𝛼; 𝑛−1)
PRUEBA DE HIPÓTESIS PARA LA DIFERENCIA DE MEDIAS POBLACIONALES
Hipótesis Nula Hipótesis Alternas Supuestos Estadístico de prueba Región Critica, Rechazar Ho cuando:
1) 𝑛𝑋 , 𝑛𝑌 grandes, independencia,
𝐻1 : 𝜇𝑋 − 𝜇𝑌 ≠ 𝛿𝑜 𝑋̅ − 𝑌̅ − 𝛿𝑜 𝑧 < −𝑧(1−𝛼) ó 𝑧 > 𝑧(1−𝛼)
𝜎𝑋2 𝑦 𝜎𝑌2 conocidos. 𝑧= 2 2
𝐻𝑜 : 𝜇𝑋 − 𝜇𝑌 = 𝛿𝑜 o 𝜎2 𝜎2
𝐻1 : 𝜇𝑋 − 𝜇𝑌 > 𝛿𝑜 √ 𝑋+ 𝑌 𝑧 > 𝑧(1−𝛼)
2) Normalidad, independencia, 𝑛𝑋 𝑛𝑌
𝐻1 : 𝜇𝑋 − 𝜇𝑌 < 𝛿𝑜 𝜎𝑋2 𝑦 𝜎𝑌2 conocidos. 𝑧 < −𝑧(1−𝛼)
𝐻1 : 𝜇𝑋 − 𝜇𝑌 ≠ 𝛿𝑜 𝑋̅ − 𝑌̅ − 𝛿𝑜 𝑡 < −𝑡(1−𝛼; 𝑛 ó 𝑡 > 𝑡(1−𝛼; 𝑛
𝑡= 2 𝑋 +𝑛𝑌 −2) 2 𝑋 +𝑛𝑌 −2)

𝐻1 : 𝜇𝑋 − 𝜇𝑌 > 𝛿𝑜 1 1 𝑡 > 𝑡(1−𝛼; 𝑛𝑋+𝑛𝑌−2)


Normalidad, independencia, 𝜎𝑋2 𝑦 𝜎𝑌2 𝑆𝑝 √ +
𝐻𝑜 : 𝜇𝑋 − 𝜇𝑌 = 𝛿𝑜 𝑛𝑋 𝑛𝑌
desconocidos, 𝜎𝑋2 = 𝜎𝑌2
𝐻1 : 𝜇𝑋 − 𝜇𝑌 < 𝛿𝑜 (𝑛𝑥 − 1)𝑠𝑋2 + (𝑛𝑌 − 1)𝑠𝑌2 𝑡 < −𝑡(1−𝛼; 𝑛𝑋+𝑛𝑌−2)
𝑆𝑝 = √
𝑛𝑋 + 𝑛𝑌 − 2
PRUEBA DE HIPÓTESIS PARA LA VARIANZA POBLACIONAL Y LA RAZÓN DE VARIANZAS POBLACIONALES
Hipótesis Nula Hipótesis Alternas Supuestos Estadístico de prueba Región Crítica, Rechazar Ho cuando:
𝐻1 : 𝜎 2 ≠ 𝜎𝑜2 𝑋 2 < 𝑋(𝛼⁄2; 𝑛−1) ó 𝑋 > 𝑋 2 (1−𝛼⁄2; 𝑛−1)
Normalidad, 𝑁𝑜𝑟𝑚𝑎𝑙(𝜇, 𝜎 2 ) (𝑛 − 1)𝑠 2
𝐻𝑜 : 𝜎 2 = 𝜎𝑜2 𝐻1 : 𝜎 2 > 𝜎𝑜2 𝑋2 = 𝑋 2 > 𝑋 2 (1−𝛼; 𝑛−1)
𝜇, 𝜎 2 desconocidos 𝜎𝑜2
𝐻1 : 𝜎 2 < 𝜎𝑜2 𝑋 2 < 𝑋 2 (𝛼; 𝑛−1)
𝐻1 : 𝜎𝑋2 ≠ 𝜎𝑌2 Normalidad, X y Y independientes, 𝐹 < 𝐹(𝛼⁄2; 𝑛𝑥 −1; 𝑛𝑦−1) ó 𝐹 > 𝐹(1−𝛼⁄2; 𝑛𝑥 −1; 𝑛𝑦−1)
𝐻1 : 𝜎𝑋2 /𝜎𝑌2 < 1 𝑁(𝜇1 , 𝜎12 ), 𝑁(𝜇2 , 𝜎22 ) 𝑆𝑥2 𝐹 < 𝐹(𝛼; 𝑛𝑥 −1; 𝑛𝑦−1)
𝐻𝑜 : 𝜎𝑋2 = 𝜎𝑌2 𝜇1 , 𝜎12 , 𝜇2 , 𝜎22 desconocidos 𝐹= 2
𝑆𝑦
𝐻1 : 𝜎𝑋2 /𝜎𝑌2 >1 X es la población que tiene la mayor
𝐹 > 𝐹(1−𝛼 ; 𝑛𝑥 −1; 𝑛𝑦−1)
varianza muestral
PRUEBA DE HIPÓTESIS PARA LA PROPORCIÓN Y LA DIFERENCIA DE PROPORCIONES
Hipótesis Nula Hipótesis Alternas Supuestos Estadístico de prueba Región Crítica, Rechazar Ho cuando:
𝐻1 : 𝑝 ≠ 𝑝𝑜 𝑝̂ − 𝑝𝑜 𝑍 < −𝑍(1−𝛼) ó 𝑍 > 𝑍(1−𝛼)
Población Bernoulli(𝑝) 𝑍= ; 𝑝̂ = 𝑋̅ 2 2
𝐻𝑜 : 𝑝 = 𝑝𝑜 𝐻1 : 𝑝 > 𝑝𝑜 𝑍 > 𝑍(1−𝛼)
𝑛 ≥ 30 √𝑝𝑜 (1 − 𝑝𝑜 )
𝐻1 : 𝑝 < 𝑝𝑜 𝑛 𝑍 < −𝑍(1−𝛼)
𝐻1 : 𝑝𝑋 − 𝑝𝑌 ≠ 0 𝑍 < −𝑍(1−𝛼) ó 𝑧 > 𝑍(1−𝛼)
𝑝̂𝑋 −𝑝̂𝑌 𝑥+𝑦 2 2
Población Bernoulli(𝑝𝑋 ) 𝑦 Bernoulli (𝑝𝑌 ), 𝑍= 𝑝̂ =
𝐻𝑜 : 𝑝𝑥 − 𝑝𝑦 = 0 𝐻1 : 𝑝𝑋 − 𝑝𝑌 > 0 1 1 𝑛𝑋 +𝑛𝑌 𝑍 > 𝑍(1−𝛼)
𝑛𝑥 , 𝑛𝑦 ≥ 30 √𝑝̂𝑞̂( + )
𝑛𝑋 𝑛𝑌
𝐻1 : 𝑝𝑋 − 𝑝𝑌 < 0 𝑍 < −𝑍(1−𝛼)

ERROR TIPO I
𝛼 = 𝑃(𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟 𝐻0 |𝐻0 𝑒𝑠 𝑉𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎) P-VALUE
ERROR TIPO II 𝑝 − 𝑣𝑎𝑙𝑢𝑒
𝛽 = 𝑃(𝑁𝑜 𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟 𝐻0|𝐻0 𝑒𝑠 𝐹𝑎𝑙𝑠𝑎) = 𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑎𝑐𝑢𝑚𝑢𝑙𝑎𝑑𝑎 𝑎 𝑝𝑎𝑟𝑡𝑖𝑟 𝑑𝑒𝑙 𝑒𝑠𝑡𝑎𝑑í𝑠𝑡𝑖𝑐𝑜 𝑑𝑒 𝑝𝑟𝑢𝑒𝑏𝑎
POTENCIA
𝑃𝑜𝑡𝑒𝑛𝑐𝑖𝑎 = 1 − 𝛽 = 𝑃(𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟 𝐻0 |𝐻0 𝑒𝑠 𝐹𝑎𝑙𝑠𝑎)
REGRESIÓN LINEAL
REGRESIÓN LINEAL SIMPLE
𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝑒
𝑆𝑢𝑝𝑢𝑒𝑠𝑡𝑜𝑠:
𝐸(𝑒𝑖 ) = 0; 𝑉𝑎𝑟(𝑒𝑖 ) = 𝜎 2 ; 𝐶𝑜𝑣(𝑒𝑖 , 𝑒𝑗 ) = 0 ∀ 𝑖 ≠ 𝑗; 𝑒𝑖 ~𝑁(0, 𝜎 2 )

Estimación de parámetros
𝑒𝑖 = 𝑦𝑖 − 𝑦̂𝑖
̂ ̂1 𝑐𝑜𝑛 𝑆𝐶𝐸 = ∑ 𝑒̂𝑖 2
𝐻𝑎𝑙𝑙𝑎𝑟 𝛽0 𝑦 𝛽
∑(𝑥𝑖 − 𝑥̅ )(𝑦𝑖 − 𝑦̅) 𝑆𝑋𝑌
̂0 = 𝑦̅ − 𝛽
𝛽 ̂1 𝑥̅ ̂1 =
𝛽 =
∑(𝑥𝑖 − 𝑥̅ )2 𝑆𝑋𝑋

Propiedades de los estimadores (Centrados)


E(β̂1 ) = β1
𝜎2
𝑉𝑎𝑟(𝛽1 ) = 𝑑𝑜𝑛𝑑𝑒 𝑆𝑋𝑋 = ∑(𝑥𝑖 − 𝑥̅ )
𝑆𝑥𝑥

Hipótesis de interés y prueba asociada


𝑆𝐶𝑇 = 𝑆𝐶𝑅 + 𝑆𝐶𝐸

∑(𝑦𝑖 − 𝑦̅)2 = ∑(𝑦̂𝑖 − 𝑦̅)2 + ∑(𝑦𝑖 − 𝑦̂)


𝑖
2

𝑆𝐶𝑅
𝐹(1;𝑛−2) →
𝑆𝐶𝐸 ⁄𝑛 − 2

𝑆𝐶𝑅 𝑆𝐶𝐸
𝑅2 = =1− 0 ≤ 𝑅2 ≤ 1
𝑆𝐶𝑇 𝑆𝐶𝑇

REGRESIÓN LINEAL MULTIPLE


𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + ⋯ + 𝛽𝑗 𝑋𝑗 + 𝑒

Estimación de parámetros
̂0 + 𝛽
𝑒̂𝑖 = 𝑦𝑖 − (𝛽 ̂1 𝑥𝑖 + ⋯ + 𝛽̂𝑗 𝑥𝑖𝑗 )

Hipótesis de interés y prueba asociada


𝑆𝐶𝑇 = 𝑆𝐶𝑅 + 𝑆𝐶𝐸
Recuerde:
𝑃𝑟𝑢𝑒𝑏𝑎 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑛𝑐𝑖𝑎 𝑔𝑙𝑜𝑏𝑎𝑙 → 𝐹
𝑃𝑟𝑢𝑒𝑏𝑎 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑛𝑐𝑖𝑎 𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑎𝑙 → 𝑡

𝑆𝐶𝑅
𝛽̂𝑖 𝑞 𝑀𝐶𝑅
𝑡(𝑔𝑙 𝑒𝑟𝑟𝑜𝑟) = 𝐹(𝑞;𝑛−𝑞−1) → =
𝑑𝑒𝑠(𝛽̂𝑖 ) 𝑆𝐶𝐸 ⁄𝑛 − 𝑞 − 1 𝑀𝐶𝐸

Intervalo de Confianza
𝐼𝐶(1−𝛼) (𝛽𝑖 ) = 𝛽̂ ± 𝑡(1−𝛼,𝑛−𝑞−1) 𝑑. 𝑒(𝛽̂ )
2

También podría gustarte