0% encontró este documento útil (0 votos)
11 vistas4 páginas

Resumen P1

El documento aborda conceptos fundamentales de estadística, incluyendo la diferencia entre población y muestra, así como las propiedades de una muestra representativa. Se describen tipos de datos cualitativos y cuantitativos, métodos de análisis y distribuciones de probabilidad, incluyendo binomial, Poisson, normal y exponencial. Además, se introduce el Teorema del Límite Central, que establece que la suma de variables aleatorias independientes tiende a seguir una distribución normal.

Cargado por

Benja Carl
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
11 vistas4 páginas

Resumen P1

El documento aborda conceptos fundamentales de estadística, incluyendo la diferencia entre población y muestra, así como las propiedades de una muestra representativa. Se describen tipos de datos cualitativos y cuantitativos, métodos de análisis y distribuciones de probabilidad, incluyendo binomial, Poisson, normal y exponencial. Además, se introduce el Teorema del Límite Central, que establece que la suma de variables aleatorias independientes tiende a seguir una distribución normal.

Cargado por

Benja Carl
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

UNIDAD 1.

Población: Conjunto total que se quiere estudiar.


Muestra: Subgrupo representativo de la población.
Propiedades que debe reunir una muestra:
• Representatividad: Reflejar lo mejor posible las características de la población.
• Independiente: Debe ser lo bastante grande como para permitir conclusiones fiables.
• Aleatoriedad: Debe haber imparcialidad en la selección (evitar sesgos).
Datos cualitativos: Son atributos o categorías sin valores numéricos. Se divide en nominales (sin
orden natural) y ordinales (con un orden intrínseco o jerárquico). Se usan:
o Tablas de frecuencia.
o Gráfico de barras y de torta.
Datos cuantitativos: Se expresan numéricamente:
• Discretos: Valores enteros contables.
• Continuos: Pueden tomar cualquier valor dentro de un rango.
Análisis de datos cuantitativos:
o Tablas de frecuencia.
o Histogramas y box-plot.
o Medidas de resumen:
 Ubicación/posición (valor típico):
֍ Media/promedio.
֍ Mediana. 2(n+1)/4
֍ Cuartiles. Q1=(n+1)/4 | Q2=Me=2(n+1)/4 | Q3=3(n+1)/4
֍ Moda.
 Dispersión:
֍ Rango. Máx. - Mín.
∑𝑛
𝑖=𝑥(𝑥𝑖−𝑥̅ )
2
֍ Varianza. S2 =
𝑛−1
֍ Desvío estándar. S = √𝑆 2
֍ Desviación intercuartílica. Q3-Q1
 Forma:
3(𝑥̅ −𝑀𝑒)
֍ Coeficiente de asimetría. 𝐶𝐴 = 𝑆

Para comparar, analizar diferencias en medidas de posición y dispersión.


Distribución normal: simétrica, media ≈ mediana ≈ moda, CA (-0,5; 0,5).
UNIDAD 2.
Experimento aleatorio: Resultado incierto.
Espacio muestral (S = Ω): Conjunto de todos los posibles resultados de ese experimento.
Suceso o evento: Subconjunto del espacio muestral.
• Excluyentes: No pueden ocurrir a la vez (A∩B = ∅).
• Exhaustivos: Entre todos cubren todo el espacio muestral (A∪B∪C∪… = Ω).
• Independientes: Que uno ocurra no afecta la probabilidad del otro (P(A∩B) = P(A)*P(B)).
Axiomas:
• 0 ≤ P(A) ≤ 1 (Toda probabilidad está entre 0 y 1).
• P(Ω) = 1 (La probabilidad de que ocurra “algo” es 1).
• Dado dos eventos: P(A∪B) = P(A) + P(B) – P(A∩B), y si son excluyentes: P(A∪B) = P(A) + P(B).
𝑐𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠
Probabilidad clásica: 𝑃(𝐴) = 𝑐𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠
Producto: Se usa para calcular la probabilidad de que ocurran A y B juntos.
• Si son independientes: P(A∩B) = P(A)*P(B).
• Si son dependientes: P(A∩B) = P(A)*P(B/A).
𝑃(𝐴∩𝐵)
Probabilidad condicional: 𝑃(𝐴⁄𝐵) = 𝑃(𝐵)
Teorema de la probabilidad total: P(B)= ∑P(Ai)*P(B/Ai)
Variable aleatoria: Es una función que asigna un número real a cada resultado del espacio muestral.
• Discretas: Toman valores aislados. Se representa con funciones de probabilidad:
o 1 ≥ f(x) ≥ 0
o ∑f(xi) = 1
• Continuas: Toman infinitos valores en un intervalo. Se representa con función de densidad:
o f(x) ≥ 0

o ∫−∞ 𝑓 (𝑥 )𝑑𝑥 = 1
𝑏
o 𝑃(𝑎 ≤ 𝑥 ≤ 𝑏) = ∫𝑎 𝑓 (𝑥)𝑑𝑥
Función de distribución acumulada: Dice la probabilidad de que la variable aleatoria tome un valor
menor o igual a x. Es F(x) = P(X ≤ x).
• Para discreta: Suma de probabilidades.
• Para continua: Integral de la densidad.
¿Cómo se calcula el valor esperado y la varianza?
• Valor esperado/Esperanza E(X): Promedio ponderado de los valores posibles.
o Discreta: E(X) = ∑xi⋅p(xi)
o Continua: E(X) = ∫x⋅f(x)dx
• Varianza Var(X): Mide la dispersión respecto al valor esperado.
o Discreta: Var(X) = ∑ (xi – E(X))2 ⋅ P(xi) = E(X2) – (E(X))2
o Continua: Var(X) = ∫(x – E(X))2 ⋅ f(x) dx = E(X2) – (E(X))2
Sistemas: Paralelo = 1-(1-p1)(1-p2)… Serie = p1*p2*…
Se pide “o” entre eventos Suma (cuidado si no son excluyentes)
Se pide “y” Multiplicación
Te dicen “dado que…” Probabilidad condicional
Datos por categorías y subconjuntos Probabilidad total
Variable aleatoria con tabla o fórmula Función de probabilidad o densidad
Funciona un sistema Fórmulas de confiabilidad
UNIDAD 3.
DISCRETAS:
• BINOMIAL – El experimento consiste en n ensayos independientes, solo dos resultados posibles.
o X = Cantidad de éxitos (E) en n repeticiones.
o P(E) es el parámetro X~B(n, P)
𝑛 𝑛!
o Función de probabilidad: fp = ( ) PX(1-P)1-X = PX(1-P)1-X
𝑥 𝑥!(𝑛−𝑥)!
o E(X) = Media = nP
o V(X) = nP(1-P)
o Simétrica si P = 0,5.
• POISSÓN - Modela la cantidad de ocurrencias de un evento en un intervalo de tiempo o espacio,
estas son independientes. n→∞ entonces p→0.
o X = Cantidad de éxitos en n réplicas.
o λ es el parámetro, es igual a nP (promedio). X~P(λ)
𝑒 −𝜆 ∙𝜆𝑥
o Función de probabilidad: fp =
𝑥!
o E(X) = V(X) = λ
o Proceso de Poissón: Cuando X = Número de éxitos en un contexto continuo.
o Es asimétrica a la derecha, a medida que λ crece se parece más a una normal.
CONTINUAS:
• NORMAL - Una curva simétrica en forma de campana. Sirve para describir cosas que tienden a
agruparse cerca de un valor medio.
o X = Medición.
o μ: Media (el centro de la campana).
o σ2: Desviación estándar (qué tan ancha o estrecha es la campana).
o E(X) = μ
o V(X) = σ2
𝑥− μ
o Usamos generalmente la normal estándar Z~N(0, 1) con tabla. Z =
√σ2
o Simétrica alrededor de la media.
• EXPONENCIAL - Sirve para modelar el tiempo que pasa hasta que ocurre un evento.
o X = Medición hasta que…
o λ es el parámetro, es igual a 1/𝑋̅.
o Función de densidad: fd = λe-λx
o E(X) = μ = 1/λ
o V(X) = 1/λ2
o Tiene asimetría positiva (cola a la derecha).
• UNIFORME - Una distribución donde todos los valores dentro de un rango tienen la misma
probabilidad.
o Parámetros a y b. (a ≤ X ≤ b).
1
o Función de densidad: fd = 𝑏−𝑎
𝑥−𝑎
o Función de acumulación: fa = 𝑏−𝑎
o E(X) = (a+b)/2
o V(X) = (b-a)2/12
TEOREMA DEL LÍMITE CENTRAL: Si sumas (o promedias) muchas variables aleatorias independientes
con la misma distribución y varianza finita, entonces su distribución se parece a una Normal, aunque
las variables originales no lo sean.
𝝈𝟐
̅ ~𝑵(𝝁, )
𝑿
𝒏
Contexto Distribución Variable
Éxitos/fracaso en n ensayos Binomial Número de éxitos
Conteo de eventos (λ por intervalo) Poisson Cantidad de eventos
Tiempo entre eventos Exponencial Tiempo entre eventos
Variables continuas simétricas Normal Valores medibles (peso, altura, etc.)
Suma o media de muchas variables Normal (TCL) Total, o promedio

También podría gustarte