0% encontró este documento útil (0 votos)
35 vistas36 páginas

Estadistica (Final)

La unidad aborda la importancia de la estadística en la recolección y análisis de datos en diversas áreas, destacando la estadística descriptiva y el método científico. Se presentan diferentes tipos de investigación y análisis de datos, así como técnicas de muestreo y organización de datos mediante tablas y gráficos. Además, se discuten medidas de tendencia central y su aplicación en la interpretación de datos.

Cargado por

Briana
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
35 vistas36 páginas

Estadistica (Final)

La unidad aborda la importancia de la estadística en la recolección y análisis de datos en diversas áreas, destacando la estadística descriptiva y el método científico. Se presentan diferentes tipos de investigación y análisis de datos, así como técnicas de muestreo y organización de datos mediante tablas y gráficos. Además, se discuten medidas de tendencia central y su aplicación en la interpretación de datos.

Cargado por

Briana
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

UNIDAD 1: ORGANIZACIÓN Y RESUMEN DE DATOS

1.​ Introducción.

La estadística es fundamental en diversas áreas de la vida cotidiana, como elecciones, estudios de mercado,
investigaciones médicas, control de calidad y pronósticos económicos. En todos estos casos, se utilizan técnicas
estadísticas para recolectar y analizar datos, con el objetivo de hacer inferencias sobre una población a partir
de una muestra representativa.

2.​ La estadística. Estadística descriptiva.

La estadística es el campo de las matemáticas que se encarga de la recopilación, análisis e interpretación de


datos. En economía y administración, ayuda a tomar decisiones basado en datos y la probabilidad.
Estadística descriptiva: Se enfoca en resumir y organizar los datos de manera eficiente para entender sus
patrones y características.

3.​ El método científico.

Utiliza la recolección de datos para formular hipótesis y realizar pruebas. Los tipos de investigación incluyen
exploratoria (descubrimiento de patrones) y confirmatorio (verificador de hipótesis).

4.​ Tipos de investigación.

Según Newbold existen distintos tipos de estudios:


●​ Investigación exploratoria: Busca identificar patrones, tendencias o relaciones en los datos sin tener
una hipótesis previa. Es útil en etapas iniciales del estudio de un fenómeno.
●​ Investigación confirmatoria: Se basa en hipótesis previamente establecidas y utiliza herramientas
estadísticas para validarlas o rechazarlas.
●​ Estudios experimentales: Se manipulan variables en condiciones controladas para observar su efecto
en un resultado específico. Son fundamentales en areas como la medicina y la ingeniería.
●​ Estudios Observacionales: Se recogen datos sin intervenir en el fenómeno estudiado. Es común en
ciencias sociales y economía.
●​ Reglamentos Muestrales: Se basa en la selección de una muestra representativa de la población para
hacer inferencias sobre ellas sin necesidad de estudiarla en su totalidad.

5.​ Análisis exploratorio y confirmatorio de datos.

●​ Análisis Exploratorio de Datos: Propuesto por John Tokey en los años 70, este enfoque busca descubrir
patrones, anomalías y relaciones en los datos sin partir de hipótesis previas. Emplea herramientas
gráficas como histogramas, diagramas de caja y dispersión para visualizar la distribución y tendencias
de los datos. Es útil para formular hipótesis que luego pueden ser evaluadas mediante análisis
confirmatorios.
●​ Análisis Confirmatorio de Datos: Busca verificar hipótesis establecidas a través de pruebas estadísticas
formales, como intervalos de confianza y pruebas de hipótesis. Utiliza modelos estadísticos como
regresión, anova y pruebas de significancia para evaluar relaciones entre variables. Se basa en
supuestos teóricos y métodos probabilísticos para hacer inferencias sobre la población.

6.​ Experimento.

Actividad planificada cuyos resultados producen un conjunto de datos. Incluyen las actividades tanto para
seleccionar los elementos como para obtener los valores de datos.

7.​ Estudio observacional.

En un experimento el investigador controla o modifica el entorno y observa el efecto sobre la variable bajo
estudio. Con frecuencia leer acerca de los resultados de laboratorios obtenidos. Con frecuencias lees acerca de
los resultados de laboratorio obtenidos al usar ratas blancas para poner a prueba diferentes dosis de un nuevo
medicamento y su efecto sobre la presión arterial. Los tratamientos experimentales se diseñaron
específicamente para obtener los datos necesarios para estudiar el efecto sobre la variable. En un estudio
observacional, el investigador no modifica el entorno y no controla el proceso a observar. Los datos se obtienen
al muestrear parte de la población de interés. La encuesta son estudios observacionales de personas.

8.​ Relevamiento muestral.

Es una técnica estadística utilizada para recolectar información sobre una población a partir del análisis de una
muestra representativa. Su objetivo es hacer inferencias sobre el conjunto total de individuos o elementos sin
necesidad de examinar a cada uno de ellos, optimizando tiempo y recursos.

9.​ Datos estadísticos. Población. Muestra.

Datos estadísticos: Son valores numéricos o cualitativos recolectados, organizados y analizados con el propósito
de describir y comprender fenómenos en distintas áreas del conocimiento. Estos datos pueden provenir de
observaciones, experimentos o encuentros y sirven de base para la toma de decisiones fundamentadas.

Población: Colección o conjunto de individuos, objetos o eventos cuyas propiedades se analizaran. Existen dos
tipos de poblaciones:
●​ Finito: cuando la membresía de una población puede ( o pudiera) mencionarse
físicamente. Ej: libros de una biblioteca.
●​ Infinita: cuando la membresía es ilimitada. Ej: votantes de un país.

Muestra: Es un subconjunto observado de valores poblacionales que tiene un tamaño muestral que viene dado
por “n”. Nuestro objetivo final es hacer afirmaciones basadas en datos muestrales que tengan alguna validez
sobre la población en general.
El muestreo aleatorio simple es un método que se emplea para seleccionar una muestra de n objetos de una
población en el que cada miembro de la población se elige estrictamente al azar, cada miembro de la población
se elige con la misma probabilidad y todas las muestras posibles de un tamaño dado, n, tienen las misma
probabilidad de ser seleccionadas. Este método es tan frecuente que generalmente se suprime el adjetivo
simple y la muestra resultante se denomina muestra aleatoria.

10.​ Tipos de variables.

Son características o atributos medibles de los individuos (población / muestra). Se divide en dos grandes
grupos:
➢​ Variable cualitativa, categórica o atributo: Es una variable que clasifica o describe a un elemento de
una población. Se divide en dos:
■​ Variable Nominal: Es una variable cualitativa que caracteriza (describe o nombra) un
elemento de una población. No solo las operaciones aritméticas no son significativas
para los datos que resultan de una variable nominal, tampoco puede asignarse un
orden a las categorías.
■​ Variable Ordinal: Es una variable cualitativa que presenta una posición, o calificación
ordinaria.
➢​ Variable cuantitativa o numérica: Es aquella que cuantifica numéricamente un elemento de una
población.
■​ Variable Discreta: Es una variable cuantitativa que puede tener (pero no
necesariamente) un número finito de valores. Intuitivamente, la variable discreta
puede asumir los valores correspondientes a puntos aislados a lo largo de un
intervalo de recta. Generalmente son el resultado de un proceso de recuento.
■​ Variable Continua: Es una variable cuantitativa que puede asumir una cantidad
incontable de valores. intuitivamente, la variable continua puede asumir cualquier
valor a lo largo de un intervalo de la recta lineal. Generalmente son el resultado de
un proceso de medición (no de recuento).
11.​ Escalas de medición.

Determinan cómo se pueden clasificar, comparar y manipular los datos en un análisis estadístico.
●​ Escala Nominal: se usa para clasificar datos en categorías sin un orden específico.
●​ Escala Ordinal: clasifica los datos en categorías ordenadas, pero las diferencias entre ellas no son
necesariamente iguales.
●​ Escala de Intervalo: permite medir diferencias entre valores, pero no hay un punto cero absoluto.
●​ Escala de Razón: similar a la escala de intervalo, pero con un cero absoluto, lo que permite realizar
todas las operaciones matemáticas.

12.​ Organización y resumen de datos.

Consiste en la recopilación, disposición y presentación estructurada de la información con el fin de facilitar su


análisis e interpretación. Este proceso incluye la clasificación de datos en tabla de frecuencia, la representación
gráfica mediante histogramas, diagrama de barras, etc. Estas herramientas permiten identificar patrones,
distribuciones y tendencias en la información recolectada.

13.​ Tabla de frecuencias.

Las variables categóricas pueden describirse utilizando tablas de distribución de frecuencias y gráficos.
Una distribución de frecuencia es una tabla utilizada para organizar datos. La columna de la izquierda (llamada
clases o grupos) contiene todas las respuestas posibles sobre una variable estudiada. La columna de la derecha
es una lista de las frecuencias o números de observaciones correspondientes a cada clase.

Clase / Grupo Frecuencia Frecuencia Relativa

Total x 100%

Para sacar la F. relativa es a / x (y así con todas); y la sumatoria debe ser = 100%

14.​ Gráfico de barras.

Se utilizan normalmente para describir datos categóricos. Si nuestro objetivo es llamar la atención sobre la
frecuencia de cada categoría, lo más probable es que tracemos un gráfico de barras.
Muestra la cantidad de datos que pertenece a cada una de las categorías como un área rectangular de tamaño
proporcional.
15.​ Frecuencias absolutas y relativas.

Las frecuencias son medidas que indican la cantidad de veces que ocurre un valor o categoría de un conjunto
de datos.
●​ Frecuencia Absoluta: Es el n° de veces que aparece un valor específico en un conjunto de datos.
●​ Frecuencia Relativa: Es la frecuencia expresada de forma decimal o en porcentaje.

16.​ Frecuencia absolutas y relativas acumuladas.

Una distribución de frecuencia acumuladas contiene el n° total de observaciones cuyos valores son menores
que el límite superior de cada intervalo. Se construye sumando las frecuencias de todos los intervalos de la
distribución de frecuencias relativas acumuladas, las frecuencias acumuladas pueden expresarse en
proporciones o porcentajes.
Ejemplo: 10 a 15; o 220 menos de 230; o menor de 40 y así sucesivamente.

17.​ Gráfico poligonal.

Es una representación visual de una distribución de frecuencias que se construyen uniendo con líneas los
puntos medios de las clases en un histograma. Se utiliza para mostrar tendencias y patrones en datos
cuantitativos.

18.​ Rango

Es la diferencia en valor entre los datos con valor más alto, H y los datos con valor más bajo, L.
Rango = Valor Alto (H) - Valor Bajo (L)

19.​ Histograma.

Es un gráfico formado por barras verticales construidas sobre una línea recta horizontal delimitada por los
intervalos de la variable mostrada. Los intervalos corresponden a los de una tabla de distribución de
frecuencias. La altura de cada barra es proporcional al n° de observaciones que hay en ese intervalo. El n° de
observaciones puede indicarse encima de las barras.
No es acumulativa ya que no se unen los valores, ej: 0-10, 11-20, 21-30.

20.​ Diagrama de tallo y hojas.

Presenta los datos de una muestra con los dígitos reales que constituyen los valores de datos. Cada valor
numérico se divide en dos partes: el (los) dígito (s) inicial es el tallo y los dígitos posteriores son las hojas. Los
tallos se ubican a lo largo del eje principal y para cada valor de datos se ubican una hoja de modo que muestre
la distribución de los datos.

Datos: Es el valor de la variable asociada a un elemento de una población o muestra. Este valor puede ser un
n°, palabra o símbolo.
Experimento: Es una actividad planeada cuyos resultados producen un conjunto de datos.
Parámetro: Es un valor numérico que resume todos los datos de una población completa.
Estadístico: Es un valor numérico que resume todos los datos de una población completa.

Gráficos para datos cualitativos:


●​ Gráfica de círculos (diagrama de torta): son gráficas que se usan para resumir datos cualitativos, o por
tributos, o datos categóricos. Estos muestran la cantidad de datos que pertenecen a cada una de las
categorías como parte proporcional de un círculo.
●​ Gráfico de Barras
●​ Diagrama de Pareto: Es un gráfico de barras que muestra la frecuencia de las causas de los defectos.
La barra de la izquierda indica la causa más frecuente y las de la derecha indican las causas con
frecuencia decrecientes. Los pasos a seguir son:
○​ 1°. Ingresar la información en la hoja de OppenOffice.org calc tal como puede apreciar en la
siguiente figura.
○​ Posteriormente se ordenan los datos, por el campo frecuencia, de mayor a menor, y
posteriormente calcularemos el total.
○​ En la columna vamos a calcular el porcentaje de la frecuencia con respecto al total de cada
una de las frecuencias = C2 / C$10 * 100
○​ En otra columna calcularemos la frecuencia acumulada que se selecciona la frecuencia
relativa, y así sucesivamente solo que se van sumando.
○​ Para realizar el gráfico se seleccionará la columna de descripción frecuencia y frecuencia
acumulada.
○​ Eje vertical — Frecuencia, y se debe corregir y poner el total “y”

Gráficos para datos cuantitativos:

●​ Distribución: Es el patrón de variabilidad que presentan los datos de una variable. La distribución
exhibe la frecuencia de cada valor de la variable. Es importante para poder construir una gráfica de
datos cuantitativos presentar la distribución de los mismos.
●​ Gráfica de puntos: Presenta los datos de una muestra al representar cada dato con un punto ubicado a
lo largo de una escala que puede ser horizontal o vertical. La frecuencia de los valores a lo largo de la
otra escala.

Regla para construir una distribución de F. Agrupadas:

1.​ N° de clases (intervalos): No existe una regla exacta para definir la cantidad de clases, pero la práctica
muestra que valores razonables estarán entre 5 y 20. En general mientras más datos tengamos, más
clases deberán ser utilizadas.
2.​ Amplitud de los intervalos: Los intervalos deben tener la misma amplitud A. Para esto definimos:
​ ​ ​ Rango = Max Valor - Min Valor

​ En nuestro ejemplo el rango es 31-10 = 21. La amplitud está dada por:


𝑅𝑎𝑛𝑔𝑜
𝐴 = 𝑁° 𝐷𝐸 𝐼𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜

Siguiendo con nuestro ejemplo la amplitud sería A = 21/3 = 7
3.​ Intervalos que no se solapen: Cada dato debe quedar incluido en uno y solo un intervalo. Para esto,
los límites de cada intervalo pueden definirse usando símbolos (≤ < [ ).
UNIDAD 2: MEDIDAS DE POSICIÓN

1.​ Medidas de posición.

Se usan para describir la posición que un valor de datos específicos que posee en relación con el resto de los
datos cuando están en orden clasificado. Cuartiles y percentiles son dos de las medidas de posición más
populares.

2.​ Medidas de tendencia central: Media aritmética. Media ponderada. Mediana. Moda.

Son valores numéricos que localizan, en algún sentido, el centro de un conjunto de datos. Nos permiten
averiguar si los datos tienden a estar centrados o a agruparse en torno a algún valor. Las medidas de tendencia
central suministran información numérica sobre una observación típica de los datos.

Media Aritmética: o media simplemente de un conjunto de datos, es la suma de los valores de los datos
dividida por el número de observaciones si el conjunto de datos es toda la población de datos.Estará denotada
como :𝑋

Media Ponderada: Algunas veces, a los datos X1, X2 …. Xn se les asignan ciertos factores de ponderación (o
pesos) W1, W2 …. Wn, que dependen del significado o importancia que les asigne a estos números.

𝑊1𝑋1 + 𝑊2𝑋2 + ....... + 𝑊𝑛𝑋𝑛


𝑋= 𝑊1 + ........ 𝑊𝑛

Ventajas de la media:
●​ Es fácil de calcular.
●​ Emplea toda la información disponible.
●​ Se expresa en las mismas unidades que la variable en estudio.
●​ En la gráfica de frecuencia representa el centro de gravedad.

Desventajas de la media
●​ Es sensible a los valores extremos.
●​ Si se emplean variables discretas, la media aritmética puede no pertenecer al conjunto de valores de
la variable.
●​ No se puede calcular para datos cualitativos.

Mediana: Es el valor de los datos que ocupan la posición media cuando los datos están clasificados en orden
de acuerdo a su tamaño.
La mediana muestral se denota por : 𝑋 . El valor obtenido puede o no ser.
De la misma manera que para la media, denotaremos la mediana poblacional, µ

Pasos para calcular la mediana:


1.​ Clasifique y ordene los datos.
2.​ Determinar la profundidad (o posición) de la mediana
𝑛+1
𝑃𝑟𝑜𝑓𝑢𝑛𝑑𝑖𝑑𝑎𝑑 𝑑𝑒 𝑙𝑎 𝑚𝑒𝑑𝑖𝑎𝑛𝑎 = 2
3.​ Determinar el valor de la mediana
a.​ Si n es impar: La mediana es el valor del dato ubicado en la posición que indica la
profundidad. El valor de la mediana no es la profundidad.
b.​ Si n es par: La profundidad no es un número natural. Se toman los datos ubicados en las
posiciones que están antes y después de la profundidad. La mediana es la media (promedio)
de los dos valores.
En cualquier caso, La mediana separa los datos en dos conjuntos con la misma cantidad de
valores. Se puede interpretar a la mediana como el valor tal que el 50 % de los datos
se encuentra antes que la mediana y el otro 50% se encuentra después.
Moda: Si existe, es el valor que aparece en mayor frecuencia. Tiene la ventaja de que se puede usar para datos
cuantitativos y cualitativos.
Si dos o más valores de la muestra están empatados por la frecuencia más alta (n° de veces que se presenta),
decimos que los datos son bimodales o multimodales. Sin embargo, si todos los datos de la muestra tienen la
misma frecuencia, la distribución no tiene moda.

3.​ Medidas de tendencia no central: Cuartiles. Percentiles. Rango intercuartil.

Las medidas de tendencia no central permiten conocer puntos caracterısticos de una serie de valores, que no
necesariamente tienen que ser centrales. La intención de estas medidas es dividir el conjunto de observaciones
en grupos con el mismo número de valores.

Cuartiles: Son valores que dividen los datos ordenados (según magnitud) en cuartos. Cada conjunto de datos
tiene tres cuartiles:
1° El primer cuartil Q1 es el valor que supera a no más del 25 % de los datos y es superado por no más
del 75 % de los datos de la variable.
2° El segundo cuartil es la mediana Q2 = ̃x.
3° El tercer cuartil Q3 es el valor que supera a no más del 75 % de los datos y es superado por no más
del 25 % de los datos de la variable.

Percentiles: El k−ésimo percentil, Pk , es el valor que supera a no más del k % de los datos y es superado por no
más del (100 − k) % de los datos de la variable.
●​ El primer cuartil Q1 coincide con el percentil 25, P25.
●​ La mediana coincide con el segundo cuartil y con el percentil 50, P50.
●​ El tercer cuartil Q3 coincide con el percentil 75, P75.

Procedimiento para encontrar Pk:


1° Ordenar los datos de menor a mayor.
2° Calcular (n*k) / 100 . En donde n = tamaño de la muestra y k = será un valor entre 0-100.
●​ En caso que m es un número entero: profundidad = m + 0, 5. Pk es el
promedio entre el valor de la variable en la posición anterior y siguiente de
la profundidad.
●​ En caso que m no es un número entero: profundidad = el primer entero
más grande que m. Pk es el valor del dato en la posición de la profundidad.

Rango Intercuartil: Es la diferencia entre los cuartiles primeros y tercero. Es el rango del 50% central de los
datos.

4.​ Resumen de los cinco números.

●​ L, es el valor m ́as peque ̃no del conjunto de datos.


●​ Q1, es el primer cuartil (también llamado P25, el percentil 25)
●​ 3 x ̃, es la mediana.
●​ Q3, es el tercer cuartil (también llamado P75, el percentil 75)
●​ H, es el valor más grande del conjunto de datos.

Es una herramienta estadística utilizada para descubrir la distribución de un conjunto de datos.

5.​ Diagrama de caja y bigotes

Es una representación gráfica del resumen de los 5 números. Los 5 valores numéricos están ubicados en una
escala, ya sea vertical o horizontal.
La caja se usa para describir el rango intercuartil. Los bigotes son segmentos de recta que se usan para describir
la otra mitad de los datos:
●​ Un segmento de recta representa el cuarto de los datos que son menores que el 1° cuartil.
●​ Un segundo segmento de recta representa el cuarto de los datos que son mayores que el 3° cuartil.
6.​ Media recortada.

Una media recortada al k% es una media que busca eliminar los valores extremos que pueden influir en el valor
de la media muestral.
●​ Si fija el porcentaje k a recortar de la muestra.
●​ Se calculan los percentiles Pk y P 100−k .
●​ Se eliminan de la muestra los datos menores al percentil Pk y los datos mayores al percentil P 100−k .
●​ Se calcula la media con los datos resultantes.

7.​ Medidas de dispersión: Rango. Varianza. Desviación estándar.

Estas incluyen el rango, varianza y desviación estándar. Dichos valores numéricos describen la cantidad de
dispersión o variabilidad, que se encuentran entre los datos más ampliamente dispersos tienen valores más
grandes.
La dispersión es una medida de distancia entre los valores individuales de la variable y una medida de posición
central o entre medidas de posición no central.

Rango: es la diferencia entre el valor más alto de la variable H y el valor más bajo L
Rango = H - L

Varianza: S elevada a la 2, es la suma de los cuadrados de los cuadrados de las diferencias entre cada
observación y la media muestral dividida por el tamaño de la muestra, n, menos 1.

𝑛
2
∑ (𝑋𝑖 − 𝑋)
2 𝑖=1
𝑆 = 𝑛−1

La varianza es una medida de cuánto tienden los valores de la variable a alejarse de la media.
●​ Si la varianza es chica, la distribución se encuentra concentrada alrededor de la media.
●​ Si la varianza es grande, la distribucíon se encuentra ḿas esparcida.
Para obtener el valor calculo 𝑥, luego calculo la diferencia con cada dato y la muestra, para posterior elevarlo a
2 y sumar. Por último al resultado obtenido lo divido por ( n-1)

Varianza Poblacional:
𝑁
2
∑ (𝑋𝑖 − µ)
2 𝑖−1
𝑜 = 𝑁

Desviación Estándar: Es una medida que indica la cantidad de dispersión o variabilidad de un conjunto de datos
con respecto a su media. Mayor la desviación, mayor es la dispersión de los datos alrededor de la media.
2
𝑆 = 𝑆

𝑛
2
∑ (𝑋𝑖 −𝑋 )
𝑖−1
𝑆 = 𝑛−2

8.​ Teorema de Chebyshev

La proporción de cualquier distribución que se encuentre dentro de K desviaciones estándar de la media es al


menos
1
1− 2
𝐾
Donde K es cualquier n° positivo mayor a 1

Este teorema indica que dentro de 2 desviaciones estándar de la media (K = 2) siempre se encontrará al menos
75% (es decir, 75% o más de los datos).

1 1 1
1 − 2 = 1 − 2 = 1 − 4
= 0. 75
𝐾 2

UNIDAD 3: INTRODUCCIÓN A LA PROBABILIDAD

1.​ Introducción a la probabilidad: Experimento. Espacio muestral.

La probabilidad es una herramienta fundamental para el análisis de la incertidumbre. En estadística, permite


estimar cuán probable es que ocurra un resultado determinado. Según Devore (2008), la probabilidad es el
lenguaje matemático para describir fenómenos aleatorios. Newbold et al. (2008) la consideran clave para la
inferencia estadística.
Es el estudio del azar y la incertidumbre en cualquier situación en la cual varios posibles sucesos pueden
ocurrir.

Experimento: Es definido como un proceso que genera resultados definidos.


Un experimento es cualquier acción o proceso cuyo resultado está sujeto a la incertidumbre.
En cada una de las repeticiones del experimento, habrá uno y solo uno de los posibles resultados
experimentales.

Espacio muestral: (denotado por S) es el conjunto de todos los posibles resultados de dicho experimento.

2.​ Evento. Evento simple. Evento compuesto. Complemento de un evento. Unión de eventos.
Intersección de eventos. Eventos disjuntos.

Un evento (o suceso) es cualquier subconjunto de resultados contenidos en el espacio muestral S.


●​ Un evento es “simple” si consiste en exactamente un resultado.
●​ Un evento es “compuesto” si consiste en más de un resultado.

Operaciones con eventos: Un evento es simplemente un conjunto, así que las relaciones y resultados de la
teoría elemental de conjuntos pueden ser utilizados para estudiar eventos.

a.​ Complemento de un evento:


Denotado por A´ (o 𝐴), es el conjunto de todos los resultados en el espacio muestral S que no están contenidos
en A.
Sea A un evento, entonces:
𝑃(𝐴´) = 1 − 𝑃(𝐴)

𝑛(𝐴´)
𝑃(𝐴´) = 𝑛(𝑆)

𝑃(𝐴 ∪ 𝐴´) = 𝑃(𝐴) + (𝑃(𝐴´)

b.​ Union de eventos:


La unión de dos eventos A y B, denotado por AUB y leído como “ A o B”, es el evento que consiste en todos los
resultados que están en A o en B o en ambos.
Si dos eventos A y B son disjuntos (o excluyentes) es fácil ver que:

𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵)

Pero en general no es cierto que dados dos eventos A y B estos sean disjuntos

𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵)

c.​ Intersección de eventos: La intersección de dos eventos A y B, denotada por AnB y leído como “A y B”,
es el evento que consiste en todos los resultados que están tanto en A como en B.

Evento disjuntos: Cuando AnB = Ø (conjunto vacío), se dice que A y B son eventos mutuamente excluyentes o
disjuntos, esto quiere decir que, dos eventos sean disjuntos (o mutuamente excluyentes) quiere decir que no
pueden ocurrir al mismo tiempo.

3.​ Probabilidad de un evento.

Dados un experimento y un espacio muestral S, el objetivo de la probabilidad es asignar a cada evento A un


número P(A), llamado la probabilidad del evento A, el cual dará una medida de la oportunidad de que A ocurra.
●​ La probabilidad de un evento es un número real entre 0 y 1.
●​ Cuanto más alta es la probabilidad de un evento, mayor es el grado de certeza de que ocurrirá al hacer
el experimento.

Estos números deben satisfacer las siguientes condiciones:


●​ Para cualquier evento A, 0 ≤ 𝑃(𝐴) ≤ 1
●​ P(S) = 1
●​ Si A1, A2, A3…. son eventos mutuamente excluyentes o disjuntos entonces:

𝑃 (𝐴1 𝑈 𝐴2 𝑈 𝐴3 𝑈...) = ∑ 𝑃(𝐴1) + 𝑃(𝐴2) + 𝑃(𝐴3) + ....

4.​ Probabilidad teórica, empírica y subjetiva.

Existen 3 formas de asignar las probabilidades:

➢​ Probabilidad Empírica

Consideremos un experimento, el cual repetiremos cierto número de veces (denotado por n). La probabilidad
empırica de un evento A, denotada por P´(A), se define de la siguiente manera:

𝑛° 𝑑𝑒 𝑣𝑒𝑐𝑒𝑠 𝑞𝑢𝑒 𝐴 𝑜𝑐𝑢𝑟𝑟𝑖𝑜


𝑃´(𝐴) = 𝑛° 𝑑𝑒 𝑟𝑒𝑝𝑒𝑡𝑖𝑐𝑖𝑜𝑛𝑒𝑠 𝑑𝑒𝑙 𝑒𝑥𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜

𝑛 (𝐴)
𝑃´(𝐴) = 𝑛
Las propiedades de este tipo de probabilidad son:
●​ La probabilidad empírica no hace uso del espacio muestra. En general solo se conocen el número de
ocurrencias de algunos eventos.
●​ Se calcula después de que haya ocurrido el experimento cierto número de veces.
●​ Tiene un alto riesgo de dar información errónea si se repite pocas veces el experimento.
●​ Dos personas pueden repetir la misma cantidad de veces el experimento y obtener diferentes
probabilidades.
La última propiedad es un punto en contra de la asignación empírica de probabilidades, ya que en la
probabilidad empírica, el valor que se obtiene depende de los resultados observados. Como estos resultados
pueden variar de una persona a otra (aunque hagan el mismo número de repeticiones), las probabilidades que
obtienen también pueden ser distintas.
En algunas situaciones se puede remediar esta situación usando el concepto de probabilidad teórica.

➢​ Probabilidad Teórica

Conocida como la probabilidad a priori, se calcula antes de que se produzca cualquier acontecimiento.
Es necesario conocer el espacio muestral del experimento.
La probabilidad teórica asume que todos los resultados son igualmente factibles de ocurrir. Esta es una
condición importantísima y fundamental.
Por ahora, vamos a definir la probabilidad teórica para el caso en que el espacio muestral es finito.

Para un evento A, definimos la probabilidad teórica de A, denotada por P(A), de la siguiente forma:

𝑛° 𝑑𝑒 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑑𝑒𝑙 𝑒𝑠𝑝𝑎𝑐𝑖𝑜 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑙 𝑞𝑢𝑒 𝑒𝑠𝑡á𝑛 𝑒𝑛 𝐴


𝑃(𝐴) = 𝑛° 𝑑𝑒 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒𝑙 𝑒𝑠𝑝𝑎𝑐𝑖𝑜 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑙

𝑛 (𝐴)
𝑃(𝐴) = 𝑛 (𝑆)

Relación entre la probabilidad empírica y la teórica: A medida que vamos repitiendo más veces el experimento
vemos que las probabilidades empíricas se acercan más a la probabilidad teórica. Esto se conoce como la “Ley
de los grandes números”.
Ley de los grandes números: Cuando aumenta el número de veces n que se repiten en un experimento, la
probabilidad empírica P´(A), será más cercana a la probabilidad teórica, P(A).

➢​ Probabilidad Subjetiva

Una probabilidad subjetiva es una que resulta de un juicio personal. Es intuitiva e informal.

Ej: El servicio meteorológico local asigna una probabilidad al evento “precipitación”.


Por ejemplo, hay 20% de probabilidad de lluvia para hoy, o hay 70% de nieve para mañana.

En estos casos, el único método que hay para asignar posibilidades es el juicio personal.
La precisión de estas depende de la capacidad del individuo para evaluar correctamente una situación.

Otra definición de esta probabilidad es que expresa el grado en que una persona cree que ocurrirá un suceso.
Estas probabilidades subjetivas se utilizan en algunos procedimientos empresariales de toma de decisiones.
Podemos comprender el concepto de probabilidad subjetiva utilizando el concepto de apuestas justas.

Propiedades de la probabilidad:
●​ Para cualquier evento A, 0 ≤ P(A) ≤ 1.
●​ P(S) = 1 y P(∅) = 0
●​ Si A1, A2, A3, · · · son eventos mutuamente disjuntos entonce:

𝑃 (𝐴1 ∪ 𝐴2 ∪ 𝐴3 ∪ .....) = ∑ 𝑃(𝐴1) + 𝑃(𝐴2) + 𝑃(𝐴3) + ......


●​ P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
●​ 𝑃 (𝐴 ∪ 𝐵 ∪ 𝐶) = 𝑃(𝐴) + 𝑃(𝐵) + 𝑃(𝐶) − (𝐴 ∩ 𝐵) − 𝑃(𝐴 ∩ 𝐶) − 𝑃(𝐶 ∩ 𝐵) + 𝑃(𝐴 ∩ 𝐵 ∩ 𝐶)

5.​ Ley de los grandes números.

Establece que al repetir un experimento muchas veces, la frecuencia relativa de un evento se aproxima a su
probabilidad teórica verdadera.

Devore: La probabilidad empírica se estabiliza y se acerca a la teórica con muchas repeticiones.


Wackerly et al.: La media muestral se aproxima al valor esperado al aumentar el tamaño de muestra.
Johnson & Kuby: Permite confiar en que los promedios muestrales reflejan la población.
Newbold et al.: Fundamenta la inferencia estadística y el uso de muestras grandes.

6.​ Probabilidad condicional. Eventos independientes.

Hemos visto que las probabilidades asignadas a varios eventos dependen de lo que se sabe sobre la situación
experimental cuando se hace la asignación.
En muchas situaciones, después de que se asignan las probabilidades iniciales puede llegar a estas disponibles
información parcial pertinente al resultado del experimento.
Tal información puede hacer que se revisen algunas de las asignaciones de probabilidad.

Objetivo: Determinar cómo cambia la probabilidad de un evento A cuando se sabe que ha ocurrido otro evento
B. Permite actualizar la información y tomar decisiones más precisas en condiciones de incertidumbre.

Ej: Supongamos que una persona va al médico y tiene síntomas


-​ Sea A el evento una persona tiene una enfermedad particular como tiene los síntomas, el médico
estima alguna probabilidad de tener la enfermedad particular.
-​ Considere el evento B: una persona se hace un examen de sangre y el resultado es negativo para la
enfermedad.

Bajo esta nueva información, la probabilidad de que tenga la enfermedad cambiará (deberá reducirse, pero no
a cero, puesto que los exámenes de sangre no son infalibles). Es decir la probabilidad asignada al evento A
debe cambiar cuando se conoce que ocurrió el evento B.

En el ejemplo anterior tenemos el siguiente esquema:


1.​ Definimos el evento A y su respectiva probabilidad P(A).
2.​ Definimos un evento B y suponemos que P(B) > 0
3.​ Con la información de que ocurrió el evento B la probabilidad A debe cambiar.
A esta nueva probabilidad del evento A la denotaremos como P(A|B)= Probabilidad del evento A dado
que ocurrió el evento B
P(A|B), otra forma de leer esto es:
●​ Probabilidad condicional de A dado que ocurrió ´B
●​ Probabilidad de A si B

➢​ Probabilidad Condicional

Consideremos dos eventos cualesquiera A y B con P(B) > 0.


La probabilidad condicional de A dado que B ocurrió esta definido por:
𝑃(𝐴∩𝐵)
𝑃(𝐴|𝐵) = 𝑃(𝐵)

IMPORTANTE –→ No es cierto que 𝑃(𝐴|𝐵) = 𝑃(𝐵|𝐴), ya que conceptualmente son situaciones diferentes. En
la primera queremos calcular la probabilidad del evento A dado que sabemos que ocurrió el evento B y, en la
segunda situación queremos calcular la probabilidad del evento B dado que sabemos que ocurrió el evento A.
Despejando 𝑃(𝐴 ∩ 𝐵) en la fórmula de la probabilidad condicional tenemos: “Regla de la multiplicación” para
𝑃(𝐴 ∩ 𝐵).
Suponga que P(B) > 0, entonces:
●​ 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴|𝐵) * 𝑃(𝐵)
●​ 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐵|𝐴) * 𝑃(𝐴)

➢​ Eventos Independientes

Dos eventos A y B son independientes si la ocurrencia de uno no afecta la probabilidad de ocurrencia del otro.

Esto se expresa como:


P(A∣B)=P(A) o también P(B∣A)=P(B)

Ejemplo clásico:
●​ A: "Mañana llueve"
●​ B: "Mañana es mi cumpleaños"
Estos eventos no tienen relación causal, por lo tanto, son independientes.

Según Devore (2008) y Wackerly et al. (2010), la independencia implica ausencia de influencia estadística entre
eventos. Johnson y Kuby (2008) destacan que es clave para aplicar modelos probabilísticos sin sesgos. Newbold
et al. (2008) subrayan su utilidad en decisiones en economía y negocios cuando se evalúan riesgos que no se
afectan mutuamente.

7.​ Teorema de Bayes.

El Teorema de Bayes es una regla que permite actualizar una probabilidad cuando se obtiene nueva
información. Es fundamental cuando se trabaja con probabilidades condicionales.

Se expresa así:
𝑃(𝐵|𝐴)*𝑃(𝐴)
𝑃(𝐴|𝐵) = 𝑃(𝐵)

Nos permite calcular la probabilidad de que ocurra un evento A dado que ya sabemos que ocurrió B, usando la
probabilidad inversa P(B∣A)

Según:
●​ Devore (2008) y Wackerly et al. (2010): el teorema es clave en inferencia estadística, donde se ajustan
creencias con base en la evidencia.
●​ Johnson y Kuby (2008): facilita el análisis de decisiones bajo incertidumbre.
●​ Newbold et al. (2008): útil en administración y economía para interpretar datos condicionales.

Combinaciones y Permutaciones

Consideramos un conjunto de n elementos y vamos a elegir un subconjunto que tenga K elementos sin tener
repeticiones, es decir, sin reposición de los elementos.

Permutaciones: Un subconjunto ordenado se llama permutación. El n° de permutaciones de tamaño K que se


puede formar con los n individuos u objetos en un grupo será denotado por Pkn.

𝑛 𝑛!
𝑃 𝑘
= (𝑛−𝑘)!

Combinaciones: Un subconjunto de no ordenados se llama combinación.


𝑛 𝑛!
𝐶 𝑘
= 𝑘! (𝑛−𝑘)!

Las permutaciones y combinaciones son herramientas fundamentales del análisis combinatorio, utilizadas para
contar distintas formas de seleccionar elementos de un conjunto. La diferencia principal entre ambas radica en
si el orden de los elementos importa o no.
Las permutaciones se refieren a arreglos o secuencias en las que el orden sí importa. Por ejemplo, si se elige un
presidente, un vicepresidente y un secretario de un grupo de personas, cada orden diferente de selección
representa una permutación distinta. En cambio, las combinaciones se refieren a la selección de elementos
donde el orden no importa. Por ejemplo, si de un grupo se eligen tres personas para formar parte de un comité
sin importar los roles que desempeñan, solo interesa quiénes fueron seleccionados, no el orden.
Autores como Newbold, Devore, Johnson y Kuby, y Wackerly et al. coinciden en que estas distinciones son
claves para aplicar correctamente las reglas de conteo en problemas de probabilidad. Las permutaciones se
aplican cuando cada disposición tiene un significado distinto, mientras que las combinaciones se aplican
cuando solo importa el conjunto elegido.

Teorema de la Probabilidad Total

La Ley de la Probabilidad Total se utiliza para calcular la probabilidad de un evento B, considerando varios
eventos mutuamente excluyentes y colectivamente exhaustivos. Esta ley se basa en dividir el espacio muestral
en diferentes "subespacios" y luego combinar las probabilidades condicionales de BBB dentro de cada
subespacio.

Condiciones:
●​ Eventos mutuamente excluyentes: Los eventos A1,A2,A3,…,Ak​son mutuamente excluyentes, lo que
significa que no pueden ocurrir al mismo tiempo. Es decir:
Ai ∩ Aj = ∅ para i ≠ j.
●​ Eventos colectivamente exhaustivos: La unión de todos los eventos cubre todo el espacio muestral S.
Es decir:
A1 ∪ A2 ∪…Ak = S​
Esto implica que uno de los eventos A1,A2,…,Ak​siempre ocurrirá.​

Fórmula de la Ley de la Probabilidad Total: Si B es cualquier evento en el espacio muestral S, entonces la


probabilidad de B se puede calcular sumando las probabilidades de B condicionadas a cada uno de los eventos
A1,A2,…,Ak​, multiplicadas por las probabilidades de los eventos Ai​.

La fórmula es:
𝑘
𝑃(𝐵) = ∑ 𝑃(𝐵|𝐴𝑖) * 𝑃(𝐴𝑖)
𝑖=1
Donde:
●​ 𝑃(𝐵|𝐴𝑖): Es la probabilidad de que ocurra el evento B dado que Ai ha ocurrido.
●​ 𝑃(𝐴𝑖): Es la probabilidad de que ocurra el evento Ai.​

Aplicación: Esta ley es útil cuando el evento B no puede ser calculado directamente, pero se puede
descomponer en una serie de subeventos A1,A2,…,Ak​, cuyas probabilidades son más fáciles de calcular.
En resumen, la Ley de la Probabilidad Total permite calcular la probabilidad de un evento BBB a través de su
descomposición en varios eventos mutuamente excluyentes y colectivamente exhaustivos que cubren el
espacio muestral.
UNIDAD 4: DISTRIBUCIONES DE PROBABILIDAD

1.​ Variables aleatorias.

En cualquier experimento, existen numerosas características que pueden ser observadas o medidas, pero en la
mayoría de los casos un experimentador se enfoca en algún aspecto específico o aspectos de una muestra.
Toda función cuyo dominio es el espacio muestral y cuyo rango pertenece al conjunto de los números reales se
denomina variable aleatoria

Variable Aleatoria: Para un espacio muestral S de algún experimento, una variable aleatoria es cualquier regla
que asocia un número con cada respuesta en S.
En lenguaje matemático, una variable aleatoria es una función cuyo dominio es el espacio muestral y cuya
imagen es el conjunto de números reales.

Las variables aleatorias se dividen en dos clases:


A.​ Variable aleatoria discreta: Es una variable aleatoria cuyos valores posibles constituyen en conjunto
finito o bien pueden ser puestos en lista en una secuencia infinita en la cual existe un primer
elemento, un segundo elemento, y así sucesivamente (“contablemente” infinita).
B.​ Variable aleatoria continua: Es una variable aleatoria cuyos valores están contenidos en un intervalo
de números reales o en una unión de estos.

Importante!! Que una variable aleatoria sea discreta o continua no tiene relación con el espacio muestral del
experimento donde está definida.

La función de distribución de probabilidad (o función masa de probabilidad) de una variable aleatoria discreta
se define para cada número x como:

𝑝 (𝑥) = 𝑃(𝑋 = 𝑋) = 𝑃{ 𝑇𝑜𝑑𝑎𝑠 𝑙𝑎𝑠 𝑠ε𝑆: 𝑋(𝑆) = 𝑋}

●​ X es una variable aleatoria discreta: es una función que asigna un número a cada resultado de un
experimento aleatorio.
●​ S es el espacio muestral, es decir, el conjunto de todos los posibles resultados del experimento.
●​ s ∈ S: significa que estamos hablando de los elementos individuales del espacio muestral (los posibles
resultados).
●​ X(s) = x: significa que para ciertos resultados del experimento (ciertos valores de s), la variable
aleatoria toma el valor x.

2.​ Variable aleatoria discreta. Función de probabilidad. Función de distribución de probabilidad.

Variable aleatoria discreta

Una variable aleatoria discreta es una regla o función que asigna un número a cada resultado posible de un
experimento aleatorio.
Esta variable solo puede tomar ciertos valores específicos y separados entre sí, como 0, 1, 2, 3, etc.
Por ejemplo, si lanzamos un dado, la variable aleatoria X puede representar el número que sale. Sus valores
posibles serían 1, 2, 3, 4, 5 o 6 (valores discretos).

Función de Probabilidad

Sea X una variable aleatoria discreta, se define la función ́on de probabilidad de X, y se denota PX (x), como:
Sea Ax el evento Ax = {s ∈ S : X(s) = x}, entonces
PX (x) = P(Ax ).
En palabras simples: la función de probabilidad te dice cuánta chance hay de que la variable X tome un valor
determinado.

Propiedades de la función de probabilidad:


●​ No negatividad:Para todo valor posible de la variable aleatoria X, la probabilidad de ese valor es mayor
o igual a cero: PX (x) ≥ 0
●​ Suma total igual a 1: Si se suman todas las probabilidades de los posibles valores que puede tomar X,

el total debe ser exactamente 1: ∑ 𝑃𝑥(𝑋) = 1


𝑥

Función de distribución de probabilidad

Sea X una variable aleatoria discreta, se define la función de distribución de probabilidad de X, y se denota Fx
(x), como:

𝐹𝑥(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∑ 𝑃𝑥(𝑦)


𝑦≤𝑥

Si los puntos en los que la variable tiene probabilidad no nula son x1, x2, ….., xn, entonces la función de
distribución de probabilidad queda:

Propiedades de F(xo)
●​ 0 ≤ 𝐹(𝑥𝑜) ≤ 1
●​ Es una función creciente
3.​ Esperanza de variables aleatorias. Varianza y desvío estándar de variables aleatorias.

Media o esperanza para Variables aleatorias discretas

Es el valor promedio esperado de una variable aleatoria discreta X cuando repetís muchas veces el
experimento.
Sea X una variable aleatoria discreta, se define la media o esperanza de X y se denota por E(X), como:

𝐸(𝑋) = ∑ 𝑥𝑃𝑥(𝑥)
𝑥
Es el resultado de multiplicar cada valor posible de la variable 𝑥 por su probabilidad, y luego sumar todos esos
productos. Representa el valor promedio esperado al repetir el experimento muchas veces.

Varianza y desvío estándar de variables aleatorias

Sea X una variable aleatoria discreta con función de distribución de probabilidad p(x).
La idea es asignar una media y varianza al conjunto de valores que toma x.

2
➢​ Varianza de x ( σ ): Es una medida de dispersión que indica cuánto se alejan, en promedio, los
valores de la variable respecto a su media o esperanza matemática.
Se calcula como el promedio de los cuadrados de las diferencias entre cada valor posible de la variable
y su media, ponderado por su probabilidad.

2
𝐸[(𝑥 − µ)] = ∑(𝑥 − µ) * 𝑝(𝑥)

Se cumple:
2
σ = 𝐸𝑥 [ 2] − µ
2
➢​ Desvío estándar: Es la raíz cuadrada positiva de la varianza. Se expresa en las mismas unidades que la
variable y mide cuánto se desvían, en promedio, los valores respecto al promedio esperado.
2
σ= σ

➢​ Supongamos que “y” es una nueva variable aleatoria discreta definida a partir de la variable x a través
de una función g(x).
y = g(x)
y= nueva variable definida a partir de x (en principio no conozco su función de distribución).

Tenemos que el valor esperado de Y es:

𝐸[𝑦] = [𝑔(𝑥)] = ∑ 𝑔(𝑥) 𝑝(𝑥)


𝑥
En particular si g(x) es una función lineal, es decir, y = a + bx, en donde a y b son constantes, se cumple
que:
I.​ µ𝑦 = 𝑎 + 𝑏µ𝑥
2 2 2
II.​ σ𝑦 = 𝑏 σ𝑥
σ𝑦 = |𝑏| σ𝑥

4.​ Experimento de Bernoulli. Distribución de Bernoulli.

Experimento de Bernoulli: Es un experimento que puede arrojar sólo dos resultados posibles. A uno de los
resultados se lo denomina éxito y al otro fracaso. Un experimento de Bernoulli lleva asociado una probabilidad
p (la probabilidad de éxito).

Ejemplo:
●​ Experimento: Arrojó un dado y veo si sale 5.
●​ Éxito: Sale 5.
●​ Fracaso: No sale 5.
●​ Probabilidad de éxito p = ⅙
●​ Probabilidad de fracaso 1 − p = ⅚

Vamos a definir una variable aleatoria discreta x tal que


X (exito) = 1
X (fracasó) = 0

En donde, la probabilidad tenga éxito es igual a P, y la probabilidad de tener fracaso es igual a 1 - P,


conociendola como la Distribucion de Bernoulli (es el modelo de probabilidad que describe este tipo de
experimento).
Px (1) = p
Px(0) = 1 - p

Media:

µ = ∑ 𝑥. 𝑝(𝑥) = 𝑜. (1 − 𝑃) + 1. 𝑃 = 𝑃

µ=𝑃

Varianza:
2 2 2
σ = ∑ (𝑥 − µ) . 𝑝(𝑥) = (0 − 𝑃) .P
2
σ = 𝑃 (1 − 𝑃)
5.​ Distribución Binomial.

Es una generalización de la distribución de Bernoulli, donde se realiza varias veces un experimento con dos
posibles resultados (éxito y fracaso) y las repeticiones son independientes (el resultado de una repetición no
altera el resultado de la siguiente).

Experimento: repetir n veces un experimento simple tiene dos posibles resultados: éxito (E) y fracaso (F).
X: cantidad de éxitos obtenidos
x = 0, 1, 2, ……, n

Queremos responder a la pregunta ¿Qué probabilidad hay de obtener exactamente X = x de éxitos en las n
repeticiones?
Situación: obtiene x éxitos en las n repeticiones

Calculo la probabilidad de que pase esto

P (EnEnEn……..nE ⋂ FnF………nF)
= P(E) . P(E)..... P(E) . P(F) . P(F) ……. P(F)
= P . P …… P . (1 - P) ( 1 - P) ….. ( 1 - P)
𝑥 𝑛−𝑥
= 𝑃 . (1 − 𝑝) ______________ Es la probabilidad de obtener x éxitos en n repeticiones para
. una secuencia específica

Cualquier otra secuencia (ordenado en E y F) tiene la misma probabilidad y representa la misma situación (no
me interesa la secuencia). Tengo que multiplicar esa probabilidad por la cantidad de ordenamientos de x éxitos
𝑛 𝑛!
y n-x fracasos → 𝑥 = 𝑛! (𝑛−𝑥)!

𝑛 𝑥 𝑛−𝑥
𝑝(𝑥) = ( 𝑥 ) 𝑝 . (1 − 𝑃) → Distribución Binomial

Para esta distribución se entiende que


2
µ=𝑛*𝑝 σ = 𝑛 * 𝑃 (1 − 𝑃)

“Para calcular en RStudio= dbinom (X,n,P)”

6.​ Distribución Hipergeométrica

Se utiliza para modelar la probabilidad de obtener cierto número de éxitos al extraer una muestra sin
reemplazo de una población finita que contiene un número fijo de éxitos y fracasos.

Características principales:
●​ La población es finita, de tamaño N.
●​ Dentro de esa población hay K éxitos y N − K fracasos.
●​ Se extrae una muestra de tamaño n sin reemplazo.
●​ Se define la variable aleatoria X como el número de éxitos en la muestra.

𝑝 (𝑥) =
𝑛 (𝑥)
=
( )( )
𝑠
𝑥
𝑁−𝑆
𝑛−𝑥
𝑛 (𝑠) ( ) 𝑁
𝑛

Por ende, se usa la distribución Hipergeométrica, cuando extraemos elementos de un conjunto formado por
dos tipos de elementos (éxito y fracaso) sin reposición.

“Para calcular en RStudio es = dhyper (x,S,N-S,n)”


Media de la distribución hipergeométrica:
𝑆
µ = 𝑛. 𝑁

7.​ Distribución de Poisson.

Es un proceso que consiste en considerar un continuo en el cual ocurren eventos.

Ejemplo:
●​ Las fallas de una máquina.
●​ La intensidad de un evento es la cantidad media de eventos por unidad de continuo.
Ejemplo:
●​ Intensidad: 3 fallas por hora.

Un proceso de Poisson cumple las siguientes condiciones:


1.​ La intensidad es constante.
2.​ Los eventos son puntuales. Es decir, se considera que su duración es cero.
3.​ Los eventos ocurren de forma independiente.

Consideremos los siguientes par ́ametros:


1.​ λ: la intensidad.
2.​ T: la longitud de un intervalo continuo que va a estudiarse.
3.​ k: la cantidad de eventos que hay en ese intervalo.

Sea la variable aleatoria discreta:


X: cantidad de eventos en el per ́ıodo T
Si μ = Tλ (μ es el promedio de eventos en el perıodo T), entonces la funcíon de probabilidad para esta variable
aleatoria es:

−1 𝑥
𝑒 λ
𝑃(𝑥) = 𝑋!
e = 2,71828

“Para calcular en RStudio = dpois ( X, λ)”

8.​ Variables aleatorias continuas. Función de densidad de probabilidad. Función de distribución de


probabilidad.

Las variables aleatorias discretas toman un conjunto finito o infinito numerable de valores.
Estas no son las únicas posibilidades. Las variables aleatorias continuas toman valores en un intervalo de la
recta real.
Estas variables no se pueden analizar con la maquinaria de las variables aleatorias discretas.
Al igual que en el caso discreto, vamos a definir una distribución de probabilidad.
Al igual que en el caso discreto, vamos a definir una distribución de probabilidad. Sea X una variable aleatoria
continua.

Una distribución de probabilidad o función de densidad de probabilidad (fdp) de X es una función f(x) tal que
para dos números a y b con a ≤ b.
𝑏
𝑃 ( 𝑎 ≤ 𝑋 ≤ 𝑏) = ∫ 𝑓(𝑥) 𝑑𝑥
𝑎

Es decir, la probabilidad de que X asuma un valor en el intervalo [a, b] es el área sobre este intervalo y bajo la
gráfica de la función de densidad.
De manera análoga, el caso discreto, para que la función (fx) sea una función de densidad de probabilidad
legítima, debe satisfacer las 2 siguientes condiciones:
I.​ f(x) ≥ 0 para todo valor de X → curva siempre por encima del eje x

II.​ ∫ 𝑓(𝑥) = 1

A diferencia del caso indiscreto, si x es una variable aleatoria continua, se tiene que:
𝑃(𝑋 = 𝑎) = 0
𝑃 (𝑥 = 𝑎) = 𝑝 ( 𝑎 ≤ 𝑥 ≤ 𝑎 )
𝑎
= ∫ 𝑓(𝑥) 𝑑𝑦 = 0
−𝑎

Por lo tanto en el caso continuo, el cálculo de probabilidades es principalmente calcular probabilidades de la


forma es:
I.​ 𝑃 (𝑋 ≤ 𝑎) La función de densidad de X, f(x), es la herramienta que herramienta
II.​ 𝑃 ( 𝑎 ≤ 𝑋 ≤ 𝑏) que usaremos para calcular la probabilidad. Si queremos calcular
III.​ 𝑃 (𝑋 ≥ 𝑎) alguna probabilidad usamos la función f(x) e integramos en el área .
que debemos integrar

La función de distribución acumulativa F(x) de una variable aleatoria continua X se define para todo número
como:
𝑎
𝐹(𝑎) = 𝑃 (𝑋 ≤ 𝑎) = ∫ 𝑓(𝑥)𝑑𝑥
−∞
Para cada x, F(x) es el área bajo la curva de densidad a la izquierda de X.

La función de distribución acumulativa nos sirve para calcular probabilidades:


𝑃 (𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃 (𝑋 ≤ 𝑏) − 𝑃 (𝑋 ≤ 𝑎)

9.​ Distribución uniforme. Distribución normal. Distribución exponencial.

➢​ Distribución Uniforme

Sean a y b números reales con a < b. Una variable aleatoria X tiene distribución uniforme si su función de
densidad de probabilidad es de la forma:

1
𝑏−𝑎
𝑎≤𝑥≤𝑏
f(x) =
0 en otro caso

1
𝑏−𝑎
➡ Saco la altura / el valor de f(x)

“Para calcular en R (probabilidades): Unif (x,a,b)”. Usaremos la función acumulativa “Punif”

➢​ Distribución Normal (Gaussiana)

La distribución normal es la más importante en toda la probabilidad y estadística. Muchas poblaciones


numéricas tienen distribuciones que pueden ser representadas muy fielmente por una curva normal
apropiada.

Una variable aleatoria continua X tiene una distribución normal con parámetros “μ” y “ơ” donde µЄ𝑅 𝑦 σ > 0
, si la función de densidad de probabilidad de X viene dada por:
2
−(𝑥−µ)
1 2σ
2

𝑓(𝑥) = . 𝑒 − ∞ < 𝑋 < ∞


2πσ

Algunas características:
●​ Su valor esperado —-- E(x) = μ
●​ La distribución es simétrica con respecto al parámetro μ.

“Cálculo de probabilidades en R: Pnorm(x,μ,ơ)”

Distribución Normal estándar: En donde la media es igual a 0 y el desvío es igual a 1.

➢​ Distribución Exponencial

Esta distribución de probabilidad para variables continuas se utiliza a menudo para modelar tiempos entre
ocurrencia de eventos aleatorios donde la ocurrencia se da a una tasa de tiempo constante.
Se utiliza, por ejemplo, para determinar tiempo entre llegadas de clientes a una cola de un supermercado,
tiempo entre accidentes en una autopista, etc.

La función de densidad o de probabilidad de una variable exponencial está dada por:


𝑥
1 −λ
𝑓(𝑥) = λ
𝑒 , 𝑥 ≥ 0,

La esperanza y varianza respectivas son:


●​ 𝐸(𝑋) = λ
2
●​ 𝑉(𝑋) = λ

La función de distribución o de probabilidad acumulada es:


𝑥
−λ
𝐹(𝑋) = 1 − 𝑒 , 𝑥≥0

10.​ Distribución chi-cuadrado. Distribución t-student.

Distribución Chi-cuadrado (χ²)

Es una distribución de probabilidad continua que surge como la suma de los cuadrados de variables aleatorias
normales estándar independientes.

Aplicaciones comunes:
●​ Pruebas de hipótesis para varianzas.
●​ Pruebas de independencia en tablas de contingencia.
●​ Ajuste de bondad de un modelo teórico (test χ² de Pearson).

Parámetro:
●​ Depende de los grados de libertad (k), que indican cuántas variables normales estándar se están
sumando al cuadrado.

Características clave:
●​ Solo toma valores positivos.
●​ Es asimétrica positiva (con sesgo hacia la derecha).
●​ A medida que aumentan los grados de libertad, la distribución se aproxima a una normal.
Distribución t-Student

Es una distribución continua que se utiliza cuando se estima la media de una población normal y la varianza
poblacional es desconocida, usando la varianza muestral.

Aplicaciones comunes:
●​ Pruebas de hipótesis sobre medias cuando el tamaño muestral es pequeño (n < 30).
●​ Construcción de intervalos de confianza para medias con varianza desconocida.

Parámetro:
●​ También depende de los grados de libertad (n - 1).

Características clave:
●​ Es simétrica y tiene forma de campana, como la normal.
●​ Tiene colas más "anchas" que la normal, lo que refleja mayor incertidumbre.
●​ A medida que aumentan los grados de libertad, se aproxima a la distribución normal estándar.

11.​ Teorema del límite central.

Sea X1, X2, . . . , Xn una muestra aleatoria de una distribución X con media μ y desvıo estándar σ. Entonces el
promedio de esa muestra X ̄ tiene aproximadamente una distribución ́on normal con parámetros:
●​ Media: µ 𝑥 = µ
σ
●​ Desvıo estándar: σ =
𝑥 𝑛

Bajo las siguientes condiciones:


●​ Si n > 30, la distribución de 𝑋 es aproximadamente normal sin importar la distribución de X.
●​ Si n ≤ 30, la distribución ́ de 𝑋 es aproximadamente normal solamente si la distribución de X no
difiere mucho de la distribución normal (por ejemplo: si es simétrica).
●​ Si la distribución de X es normal, la distribución de X ̄ es normal sin importar el valor de n.

Este teorema permite usar la distribución normal como aproximación para trabajar con promedios muestrales,
facilitando cálculos y decisiones estadísticas, especialmente cuando n ≥ 30.

Distribución de la suma de variables aleatorias

Sea X1, X2,......., Xn una muestra aleatoria de una población con media μ y desvío estándar σ.

Estamos interesados ahora en la variable aleatoria


𝑌 = 𝑋1 + 𝑋2 +....... + 𝑋𝑛

El teorema del límite central permite hallar la distribución de la suma de dichas variables (si n cumple con las
condiciones adecuadas) pues:
𝑛
∑ 𝑋𝑖
𝑖=1 𝑌
𝑋= 𝑛
= 𝑛

Luego, por el Teorema


𝑌 1
𝑛
−µσ 𝑛
(𝑌−𝑛µ) 𝑌−𝑛µ 𝑌−𝑛µ
𝑍= σ = σ = σ =
𝑛 𝑛σ
𝑛 𝑛 𝑛

Entonces, Y tiene aproximadamente una distribución normal con parámetros:


●​ µy = nµ
●​ σy = 𝑛σ
2
Parámetros: Un valor calculado a partir de los datos de una población. Ej: media μ y varianza σ de la
población.
2
Estadístico: Un valor calculado a partir de los datos de una muestra. Ej: media 𝑋 y varianza 𝑆 de la muestra.

La distribución de probabilidad de cualquier estadístico particular depende no solo de la distribución de la


población (normal, uniforme, etc), también del tamaño de muestra n.

Simulación: Población: x—- distribución con parámetros σ, μ.


Tomó muestras de tamaño n, y cada una le calculó la media muestral 𝑋 . Si tomo K muestras tendré k medias
muestrales.
Hago un histograma de las k medias muestrales, que va a hacer una aproximación de la distribución de la
media muestral 𝑋.

UNIDAD 5: INTERFERENCIA ESTADÍSTICA

1.​ Base conceptual de las distribuciones de muestreo.

Las distribuciones de muestreo describen cómo varían los estadísticos (como la media o la proporción) de
muestra en muestra al extraer múltiples muestras aleatorias de una población. Son fundamentales para la
inferencia estadística, ya que permiten estimar la variabilidad esperada de un estadístico y construir intervalos
de confianza y pruebas de hipótesis.

La importancia de la media muestral 𝑋 proviene de su uso al sacar conclusiones sobre la media de la población
μ.
Algunos de los procedimientos inferenciales más frecuentes utilizados están basados en propiedades de la
distribución muestral de 𝑋 .
Dependiendo la distribución de la población original, vamos a diferenciar dos casos:
I.​ La población Normal
II.​ La población no normal

2.​ Muestreo de poblaciones normales y no normales.

➢​ Población Normal

Sus parámetros son la media (μ) y el desvío estándar (σ).


Entonces para cualquier tamaño de muestra n se tiene que 𝑋 tiene distribución normal con parámetros:
●​ Media µ 𝑥 = µ (la misma media de la distribución original)
σ
●​ Desviación estándar σ 𝑥
=
𝑛

➢​ Población con distribución No Normal

Sean X1, X2, ……….,Xn una muestra aleatoria de una distribución con media μ y desviación σ. Entonces si n es
suficientemente grande, 𝑋 tiene aproximadamente una distribución normal con parámetros:
●​ Media µ 𝑥 = µ (la misma media de la distribución original)
σ
●​ Desviación estándar σ 𝑥
=
𝑛

El teorema del límite central afirma que el cálculo de probabilidades sobre la media de una muestra aleatoria 𝑋
Se puede aproximar usando una distribución normal siempre y cuando la muestra sea grande.
Una dificultad al aplicar el teorema del límite central es saber cuando n es suficientemente grande.
El problema es que la precisión de la aproximación con una n particular depende de la forma de la distribución
original que está siendo muestreada. Si la distribución tiende a una curva de densidad normal, entonces la
aproximación será buena incluso con n pequeña, mientras que si está lejos de ser normal, entonces se requiere
una n grande.

Regla Empírica: Si n=30, se puede utilizar el teorema del límite central. Existen distribuciones de población para
las cuales una n de 40 o 50 no son suficientes, pero tales distribuciones rara vez se encuentran en la práctica.
Por otro lado, la regla empírica a menudo es conservadora; para muchas distribuciones de población, una n
mucho menor que 30 será suficiente.

3.​ Diseño de muestras. Procedimientos de muestreo.

Según Devore y Wackerly, el diseño muestral debe evitar sesgos y permitir inferencias válidas.
●​ Muestreo aleatorio simple (MAS): cada elemento tiene igual probabilidad de ser elegido.
●​ Muestreo sistemático: se selecciona cada k-ésimo elemento.
●​ Muestreo estratificado: se divide la población en grupos (estratos) homogéneos y se toma una
muestra de cada uno.
●​ Muestreo por conglomerados: se divide en grupos heterogéneos y se eligen algunos para estudiar
completamente.

4.​ Selección y tamaño de la Muestra.

Seleccionar una muestra implica elegir un subconjunto representativo de la población para hacer inferencias.
Según Newbold, Devore, Johnson & Kuby, y Wackerly, esta selección debe ser aleatoria y adecuada al objetivo
del estudio para evitar sesgos.
●​ El tamaño de la muestra depende de varios factores:
●​ Nivel de confianza deseado (certeza en las conclusiones).
●​ Precisión o margen de error tolerado.
●​ Variabilidad de los datos en la población.
●​ Tipo de parámetro a estimar (media, proporción, etc.).
●​ Recursos disponibles (tiempo, dinero, acceso a la población).

Un tamaño adecuado garantiza resultados confiables. Si es muy pequeño, los resultados pueden ser poco
precisos; si es muy grande, puede haber un uso innecesario de recursos.

5.​ Aplicaciones.

El análisis estadístico permite tomar decisiones informadas en áreas como economía, salud, ingeniería y
ciencias sociales. Se utiliza para estimar parámetros poblacionales, hacer comparaciones, evaluar efectos de
tratamientos, controlar calidad, entre otros. Las aplicaciones más comunes incluyen estimación de
proporciones, medias y realización de pruebas de hipótesis.

6.​ Población y muestra.

Población: conjunto total de elementos de interés en un estudio (personas, objetos, eventos).


Muestra: subconjunto representativo de la población.
Para realizar inferencias válidas, la muestra debe ser aleatoria y adecuada en tamaño. Se usan muestras porque
estudiar a toda la población puede ser costoso o inviable.

7.​ Estimación de parámetros.

Consiste en obtener valores aproximados de características desconocidas de la población (como media o


proporción) a partir de los datos muestrales. Existen dos tipos:
●​ Estimación puntual: se da un único valor como estimación.
●​ Estimación por intervalos: se da un rango de valores donde probablemente se encuentra el
parámetro.
8.​ Propiedades: Insesgabilidad, insesgabilidad de mínima varianza, consistencia y distribución
asintóticamente normal.

a.​ Insesgabilidad (Unbiasedness): Un estimador es insesgado si su valor esperado coincide con el


parámetro poblacional que estima.
b.​ Insesgabilidad de mínima varianza (MVUE): Entre todos los estimadores insesgados, el mejor es aquel
que tiene la menor varianza posible.
c.​ Consistencia: Un estimador es consistente si, al aumentar el tamaño de la muestra, se aproxima al
valor real del parámetro.
d.​ Distribución asintóticamente normal: Muchos estimadores, bajo ciertas condiciones, tienden a seguir
una distribución normal cuando el tamaño de muestra es grande, lo que permite aplicar técnicas
inferenciales normales.

9.​ Bondad de un estimador: Error cuadrático medio (ECM).

Paul Newbold: Aplica el coeficiente de Pearson en análisis de datos empresariales, discutiendo su


interpretación en términos de decisiones gerenciales.

Jay Devore: Presenta métodos para calcular e interpretar el coeficiente de Pearson, incluyendo su uso en
pruebas de hipótesis sobre la relación entre variables.

Johnson & Kuby: Ofrecen una explicación clara y concisa del coeficiente de Pearson, con ejemplos que facilitan
su comprensión en contextos educativos.

Wackerly: Examina las propiedades estadísticas del coeficiente de Pearson, incluyendo su distribución y
comportamiento bajo diferentes supuestos.

10.​ Estimación puntual. Estimación por intervalos de confianza.

Dado un parámetro de interés como por ejemplo la media o la varianza de una población, el objetivo de la
estimación puntual es utilizar una muestra para calcular un número que representa en cierto sentido una
buena suposición del valor verdadero del parámetro. El número resultante se llama estimación puntual.
Un estimador puntual de un parámetro poblacional es una función de la información de la muestra que genera
un único número llamado estimación puntual. Por ejemplo, la media muestral es un estimador puntual de la
media poblacional, y el valor que toma para un conjunto de datos se llama estimación puntual.
una estimación puntual, por el hecho de ser un solo número, no proporciona información sobre la precisión y
confiabilidad de la estimación.

Una alternativa para reportar un solo valor del parámetro que se está estimando es calcular y reportar un
intervalo completo de valores factibles: un intervalo de confianza (IC).
Un intervalo de confianza siempre se calcula seleccionando primero un nivel de confianza, el cual mide el grado
de confiabilidad del intervalo.
Los niveles de confianza más frecuentemente utilizados son 90%, 95% y 99%., mientras más alto es el nivel de
confianza, más fuerte es la creencia de que el valor del parámetro que se está estimando queda dentro del
intervalo.

El ancho del intervalo da información sobre la precisión de una estimación del intervalo.
Si el nivel de confianza es alto y el intervalo resultante es bastante angosto, el conocimiento del valor del
parámetro es razonablemente preciso.

Intervalos de confianza para la media μ

Supongamos que el parámetro de interés es la media poblacional y que:


1)​ la distribución de la población es normal
2)​ el valor de la desviación estándar o de la población es conocido
En este caso, desconocemos el valor de la medida poblacional. Nuestro objetivo es hallar un intervalo de
valores, en lugar de un único número para estimar μ

Supongamos que tenemos una muestra X1, X2, …..Xn. Como la muestra fue tomada de una población
normalmente distribuida con media μ y desviación estándar σ, sabemos que independientemente del tamaño
n de la muestra, la media muestral 𝑋 está normalmente distribuida con media y desviación estándar σ/ 𝑛

Si estandarizamos la variable 𝑋 restando su media y dividiendo por su desviación estándar, obtenemos:


𝑋−µ
𝑍=
σ/ 𝑛
Que es la variable normal estándar
Preferimos trabajar con la variable normal estándar Z porque los valores de probabilidad están calculados para
esta variable.

Intervalo de 95% de confianza

Si fijamos un nivel de confianza del 95%, nos encontramos en la tabla de Z que el área bajo la curva que nos da
una probabilidad de 0,95 es la que está comprendida entre los valores -1,96, es decir:

𝑃(− 1, 96 < 𝑍 < 1, 96) = 0, 95


𝑋−µ
𝑃(− 1, 96 < < 1, 96) = 95
σ/ 𝑛
𝑋−µ σ σ
−−−−−−− (𝑋 − 1, 96 < µ < 𝑋 + 1, 96 )
σ/ 𝑛 𝑛 𝑛

Esta última expresión nos dice que μ está dentro del intervalo aleatorio
σ σ
(𝑋 − 1, 96 , + 1, 96 )
𝑛 𝑛

Por ende decimos que el intervalo es aleatorio 𝑋 irá variando de acuerdo a la muestra.

Entonces:
σ σ
𝑃 (𝑋 − 1, 96 < µ < 𝑋 + 1, 96 ) = 0, 95
𝑛 𝑛

Se puede leer como “La probabilidad de que el intervalo aleatorio incluya o cubra el valor verdadero de μ es
9,95”.
En la práctica, si después de tomar una muestra X1, X2…., Xn se calcula la media muestral observada𝑋 y luego
se sustituye 𝑋 en lugar de 𝑋 , el intervalo fijo resultante se llama intervalo de 95% de confianza para μ.

σ
Una expresión concisa para el intervalo es 𝑋 ± 1,96 donde - da el punto extremo izquierdo (límite inferior) y
𝑛
+ da el punto extremo derecho (límite superior)

Cálculo de intervalos para cualquier nivel de confianza

Cuando trabajamos con el nivel del 95%, encontramos en la tabla de la variable normal estándar que entre los
valores -1,96 y 1,96 la probabilidad es de 0,95 = 1 - 0,05.
Si llamamos ∝ = 0,05 podemos expresar el nivel de confianza como= 0,95 = 1 - ∝

Lo que observamos es que tanto a la izquierda de -1,96 como a la derecha de 1,96 el área es 0,025 = ∝ / 2,
por lo tanto llamamos Zv / 2= 1,96.
Es decir que P (Z < - Z∝/2) = ∝/2 y P( Z > Z∝/2) = ∝/2 o de manera equivalente.
𝑃(− 𝑍∝/2 < 𝑍 < 𝑍∝/2 = 1 − ∝

También se observa que:


𝑃(𝑍 < 𝑍∝/2) = 1 − ∝/2

La siguiente expresión da un intervalo de confianza de 100 (1-∝)% para la media μ de una población normal
cuando se conoce el valor de σ.

11.​ Formulación general del Test de Hipótesis (TH).

La prueba de hipótesis es un procedimiento estadístico que permite tomar decisiones respecto a parámetros
poblacionales, usando evidencia proveniente de una muestra.

Newbold: Define el TH como una herramienta para decidir si una afirmación sobre un parámetro poblacional
puede ser aceptada o rechazada con base en datos muestrales.
Devore: Señala que los TH siguen un proceso sistemático: planteamiento de hipótesis, elección de estadístico,
determinación del valor crítico, cálculo de la estadística de prueba y decisión.
Johnson & Kuby: Resaltan la importancia de basarse en supuestos adecuados (como normalidad) para aplicar
correctamente los tests.
Wackerly et al.: Enfatizan que los TH son la base del razonamiento inferencial formal, permitiendo evaluar la
evidencia cuantitativamente.

12.​ Hipótesis nula y alternativa.

Hipótesis nula (H₀): Es la afirmación que se somete a prueba. Usualmente representa el "estado de no efecto" o
"no diferencia".

Hipótesis alternativa (H₁): Representa lo que se desea probar, y es aceptada si la evidencia es suficiente para
rechazar H₀.

Tipos de H₁:
●​ Unilateral derecha: H₁: θ > θ₀
●​ Unilateral izquierda: H₁: θ < θ₀
●​ Bilateral: H₁: θ ≠ θ₀
●​ Devore: Subraya la importancia de definir las hipótesis antes de recolectar datos.
●​ Johnson & Kuby: Aclaran que H₀ y H₁ son mutuamente excluyentes, pero no simétricas: no aceptar H₀
no implica aceptar H₁ automáticamente.

13.​ Errores.

●​ Error tipo I (α): Rechazar H₀ cuando es verdadera.


●​ Error tipo II (β): No rechazar H₀ cuando H₁ es verdadera.
●​ Newbold: Señala que α es el nivel de significación fijado antes del análisis, mientras que β depende de
la potencia del test.
●​ Wackerly et al.: Discuten el equilibrio entre minimizar α y β, y cómo este compromiso afecta la
elección del tamaño muestral.

14.​ Nivel de significación del test.

Es la probabilidad máxima permitida de cometer un error tipo I. Comúnmente se fijan niveles como 0.01, 0.05
o 0.10.
●​ Devore: Explica que α se relaciona directamente con los valores críticos que definen la región de
rechazo.
●​ Johnson & Kuby: Indican que un valor pequeño de α implica mayor exigencia de evidencia para
rechazar H₀.

15.​ Poder del test.


El poder de una prueba es la probabilidad de detectar un efecto real, es decir, rechazar H₀ cuando H₁ es
verdadera.
Newbold: Muestra que el poder depende del tamaño del efecto, el tamaño muestral, el nivel α y la variabilidad
de los datos.
Wackerly et al.: Recalcan que un test con bajo poder es poco útil, ya que puede no detectar diferencias reales.

16.​ Región crítica.

La región crítica (o de rechazo) es el conjunto de valores de la estadística de prueba para los cuales se rechaza
H₀.
Devore: Enseña que la región crítica se determina a partir del valor crítico correspondiente al nivel de
significación.
Johnson & Kuby: Diferencian entre pruebas unilaterales y bilaterales al momento de definir esta región.

17.​ TH para parámetros de una población normal: TH para la media, TH para la varianza, TH para una
proporción.

Todos estos tests se basan en el supuesto de que la variable estudiada sigue una distribución normal o que la
muestra es lo suficientemente grande (Teorema del Límite Central).

a.​ Test para la media


Se utiliza para evaluar si la media poblacional μ es igual a un valor dado μ₀.
Newbold y Devore explican que se usa la distribución t de Student si la varianza poblacional es desconocida y el
tamaño de muestra es pequeño; en otros casos, se usa la distribución normal.

b.​ Test para la varianza


Se evalúa si la varianza σ² poblacional es igual a un valor dado σ₀².
Johnson & Kuby y Wackerly et al. utilizan la distribución chi-cuadrado como base del estadístico de prueba.
Este test es muy sensible a la normalidad.

c.​ Test para una proporción


Permite evaluar si la proporción poblacional p es igual a un valor específico p₀.
Devore y Newbold recomiendan usar una aproximación normal si se cumplen condiciones como np ≥ 5 y n(1 –
p) ≥ 5.

UNIDAD 6: REGRESIÓN Y CORRELACIÓN LINEAL. SERIES DE TIEMPO

1.​ Regresión y correlación lineal.

La regresión y correlación lineal es una técnica estadística utilizada para analizar la relación entre dos variables
cuantitativas. La regresión lineal busca modelar esa relación mediante una recta (Y = β₀ + β₁X + ε), donde Y es la
variable dependiente, X la independiente, β₀ y β₁ son parámetros que definen la recta, y ε es el error. Según
Newbold, este modelo permite predecir valores y evaluar asociaciones siempre que se cumplan ciertos
supuestos (linealidad, homocedasticidad, normalidad de los errores e independencia). Devore añade que la
significancia de los coeficientes puede probarse con test t, mientras que Johnson & Kuby explican el uso del
método de mínimos cuadrados para obtener la mejor recta ajustada. Wackerly desarrolla el modelo desde una
perspectiva probabilística, enfocándose en las propiedades de los estimadores. En cuanto a la correlación
lineal, esta mide la fuerza y dirección de la relación entre las dos variables mediante el coeficiente de Pearson
(r), que varía entre –1 y +1. Un valor cercano a ±1 indica una relación fuerte, mientras que r = 0 sugiere
ausencia de correlación lineal. Newbold remarca que una correlación alta no implica causalidad y sugiere usar
análisis gráfico de residuos. Johnson & Kuby abordan el cálculo e interpretación de r, incluyendo pruebas de
hipótesis sobre su significancia. Esta técnica es muy usada en economía, biología, ingeniería y otras ciencias
para predecir, entender relaciones y tomar decisiones basadas en datos.
2.​ Datos bivariados.

Son los valores de dos variables diferentes x e y que se obtienen del mismo elemento poblacional.
Ejemplo: x =edad de un niño y, y =tamaño del vocabulario de ese niño

Relaciones entre datos bivariado:


●​ Deterministicamente relacionados: una vez conocido el valor de x, el valor de y queda completamente
especificado.
Por ejemplo, supongamos que se decide rentar un auto por un día y la renta es de $2500 más $100
por km recorrido. Si x=el número de km recorridos y, y =el cargo de la renta, entonces y = 2500 + 100x.
●​ No determinısticamente relacionados: están relacionadas entre sí, pero no de forma determinística.
Por ejemplo, x =edad de un niño y, y =tamaño del vocabulario de ese niño.

El análisis de regresión es la parte de la estadística que se ocupa de investigar la relación entre dos o más
variables relacionadas en una forma no determinada. Se generaliza la relación lineal determinıstica y = ax + b a
una relación probabilıstica lineal.

Representación de dos variables cuantitativas

Se acostumbra expresar matem ́aticamente los datos como pares ordenados (x, y), donde:
●​ x es la variable de entrada (a veces llamada variable independiente).
●​ y es la variable de salida (a veces llamada variable dependiente)
La variable de entrada x se mide o controla para pronosticar la variable de salida y.

3.​ Diagrama de dispersión.

Es una gráfica de todos los pares ordenados de datos bivariados en un sistema de ejes de coordenadas. La
variable de entrada, x, se localiza en el eje horizontal, y la variable de salida, y, se localiza en el eje vertical.

4.​ Correlación lineal.

El objetivo principal del análisis de correlación es medir la fuerza de una relación entre dos variables.
Cuando la relación entre las variables es lineal, se habla de correlación lineal.

La forma del diagrama de dispersi on es un buen indicador de la correlacíon:


No siempre se tiene que la relación entre dos variables es lineal. Existen muchas formas de relación.

En este caso, hay relación pero no es lineal.

5.​ Coeficiente de correlación lineal de Pearson.

●​ Es la medida numérica de la fuerza de la relación lineal entre dos variables.


●​ El coeficiente refleja la consistencia del efecto que un cambio en una variable tiene sobre la otra.
●​ Ayuda a contestar la pregunta: ¿hay correlación lineal entre las dos variables bajo consideración?

Propiedades del coeficiente de correlación de Pearson


●​ r es un n ́umero entre −1 y 1.
●​ Un valor de 1 significa una correlación positiva perfecta; y cercano a 1, una relación lineal positiva.
●​ Un valor de –1 muestra una correlación negativa perfecta; y cercano a −1 una relación lineal negativa.
●​ Un valor de 0 o cercano a 0 indica que no hay relación lineal entre las variables.
Importante!!
Correlación no implica causalidad. Esto quiere decir que el hecho de que dos variables presenten una muy
buena correlación lineal no implica que el comportamiento de una de ellas explique el comportamiento de la
otra.

6.​ Regresión lineal.

La regresión lineal es una técnica estadística que se utiliza para modelar la relación entre dos variables
cuantitativas mediante una ecuación lineal. Esta ecuación permite predecir valores de una variable
(dependiente) a partir de los valores de otra variable (independiente).

La recta de ajuste, también conocida como la recta de regresión lineal, tiene la forma y = b0 + b1x, donde:

●​ y es la variable dependiente (la que se predice).


●​ x es la variable independiente (la que se usa para la predicción).
●​ b0 es la intersección con el eje y (el valor de y cuando x es cero).
●​ b1 es la pendiente de la recta (el cambio en y por cada cambio unitario en x).

El análisis de regresión busca encontrar los valores de b0 y b1 que mejor ajustan la recta a los datos,
minimizando la distancia entre los puntos de datos y la recta. Este proceso se conoce comúnmente como el
método de mínimos cuadrados.
El problema es que sobre un mismo conjunto de datos bivariados se pueden graficar infinitas rectas.
Este problema se soluciona construyendo la recta de mínimos cuadrados.

7.​ Recta de mínimos cuadrados.

8.​ Serie de tiempo indexada.

Una serie de tiempo es un conjunto de observaciones ordenadas cronológicamente, registradas en intervalos


regulares (diarios, mensuales, anuales, etc.).
●​ Serie indexada: Es una forma de representar las variaciones relativas respecto a un período base. Se
expresa mediante números índice, que permiten comparar datos a lo largo del tiempo.​

Newbold:
●​ Enfatiza su utilidad en economía y negocios para identificar patrones o anomalías en datos históricos.
●​ Distingue entre series aditivas y multiplicativas, según la forma de combinación de sus componentes.​

Devore:
●​ Las define como herramientas fundamentales en la detección de tendencias y cambios estructurales.​

Johnson & Kuby:


●​ Utilizan ejemplos económicos (como IPC o precios de acciones) para mostrar cómo se usan los índices
en análisis comparativo.

9.​ Componentes convencionales de las series de tiempo.

Toda serie de tiempo puede descomponerse en cuatro componentes fundamentales, según el enfoque clásico:
1.​ Tendencia (T): Comportamiento general a largo plazo. Ej: aumento sostenido de la población.
2.​ Estacionalidad (E): Fluctuaciones regulares que se repiten en períodos fijos (ej: ventas navideñas).
3.​ Ciclos (C): Variaciones no regulares pero recurrentes, asociadas a factores económicos o sociales (ej:
recesiones).
4.​ Variaciones irregulares (I): Cambios impredecibles debidos a eventos aleatorios (ej: guerras,
pandemias).​

Newbold:
●​ Propone dos modelos para representar estas componentes:​

○​ Modelo aditivo: Y = T + E + C + I
○​ Modelo multiplicativo: Y = T × E × C × I​

Devore:
●​ Subraya que estas componentes pueden identificarse y analizarse mediante técnicas de suavizamiento
y descomposición.

10.​ Técnicas y métodos utilizados en las series de tiempo.

El análisis de series de tiempo se apoya en diversas técnicas estadísticas para identificar y separar los
componentes:
●​ Medias móviles: Técnica de suavizamiento para reducir fluctuaciones aleatorias y destacar la
tendencia.
●​ Suavizamiento exponencial: Método que asigna mayor peso a datos recientes. Ideal para predicciones.
●​ Descomposición clásica: Separación de una serie en sus componentes.
●​ Ajuste estacional: Eliminación del efecto estacional para analizar tendencias reales.
●​ Modelos ARIMA (no desarrollados en todas las bibliografías introductorias, pero relevantes en niveles
avanzados).​

Newbold:
●​ Detalla el uso de medias móviles centradas para detectar tendencia y cálculo de índices estacionales.
●​ Introduce la lógica de predicción utilizando extrapolación de tendencias.​

Wackerly et al.:
●​ Aplican suavizamiento para el estudio de componentes no observables directamente.

11.​ Análisis de tendencias.


Es el estudio de la dirección general del comportamiento de la serie a lo largo del tiempo.
●​ Tendencia creciente: Ej: crecimiento económico.
●​ Tendencia decreciente: Ej: disminución del uso de tecnologías obsoletas.
●​ Sin tendencia clara: Datos fluctuantes o estacionarios.​

Johnson & Kuby:


●​ Utilizan técnicas gráficas (diagrama de línea) y ajuste de curvas (lineales o polinómicas).​

Devore:
●​ Asocia el análisis de tendencia con el uso de modelos de regresión lineal simple para representar
cambios a lo largo del tiempo.

12.​ Variaciones estacionales y cíclicas.

a. Variaciones estacionales:
Cambios periódicos que se repiten con una frecuencia fija (normalmente anual) debido a factores climáticos,
sociales o institucionales.
●​ Ejemplo: aumento en ventas de helados durante verano.​

Newbold destaca**:
●​ Se pueden medir mediante índices estacionales, calculados como promedio o mediana de los valores
para cada estación o trimestre.​

b. Variaciones cíclicas:
Fluctuaciones asociadas a cambios económicos de mediano o largo plazo (como ciclos económicos).
●​ A diferencia de la estacionalidad, no tienen periodicidad fija, pero siguen patrones.​

Wackerly et al.:
●​ Señalan que los ciclos pueden durar varios años, y son más difíciles de predecir.​

Johnson & Kuby:


●​ Vinculan los ciclos con la economía (producción, empleo, inversión), diferenciándolos de los efectos
estacionales.

13.​ Variaciones irregulares.

Son cambios impredecibles causados por factores aleatorios o extraordinarios (guerras, catástrofes naturales,
pandemias, etc.).
●​ No siguen ningún patrón reconocible ni se repiten.​

Newbold:
●​ Las considera residuos o errores aleatorios que no pueden explicarse por los otros componentes.
●​ Recomienda tratarlas estadísticamente como “ruido”, y no como parte del análisis estructural.​

Devore:
●​ Plantea que se deben excluir o minimizar en los modelos de predicción mediante técnicas de
suavizamiento.
UNIDAD 7: NÚMEROS ÍNDICES. NOCIONES DE CÁLCULO ACTUARIAL

1.​ Números Índices. Tipos. Índices precio, cantidad y valor. Usos. Problemas relacionados con los
números índices. Métodos de agregación simple y agregación ponderada. Método de relativos.

Los números índices son herramientas estadísticas utilizadas para medir cambios relativos en magnitudes
económicas o sociales (precios, cantidades, valores) respecto de un período base.
Tipos:
●​ Índice de precios: Mide cambios en precios (ej. IPC).
●​ Índice de cantidad: Mide cambios en cantidades físicas producidas o consumidas.
●​ Índice de valor: Refleja variaciones tanto de precios como de cantidades.​

Usos:
●​ Comparar niveles económicos entre diferentes períodos.
●​ Ajustar valores monetarios por inflación.
●​ Evaluar la evolución del poder adquisitivo.​

Problemas:
●​ Selección del período base.
●​ Representatividad de los bienes o servicios incluidos.
●​ Cambios en la calidad o en la canasta de productos.
●​ Influencia del método de ponderación.​

Métodos de cálculo:
●​ Métodos de agregación simple:
○​ Se calcula un promedio de los relativos individuales sin ponderación.
●​ Métodos de agregación ponderada:
○​ Asignan peso relativo a cada elemento, de acuerdo a su importancia.
●​ Método de relativos:
○​ Utiliza el cociente entre valores actuales y valores base multiplicado por 100.​

Autores:
●​ Newbold (cap. 16): Enfatiza el uso práctico en economía, discute problemas de calidad, ponderación y
elección de fórmulas.
●​ Devore: Presenta ejemplos con interpretación de resultados en contextos económicos reales.
●​ Johnson & Kuby: Analizan su construcción en contextos de investigación social.
●​ Wackerly: Detalla propiedades matemáticas y exactitud de los métodos de agregación.​

2.​ Aplicaciones de los números índices.

●​ Índices de precios al consumidor (IPC), índice de precios al productor (IPP).


●​ Deflación de series temporales (convertir series nominales a reales).
●​ Comparaciones regionales y temporales de nivel de vida.
●​ Evaluación de política económica.

3.​ Nociones de cálculo actuarial. Valor actual versus valor actuarial. Capitalización actuarial.
Probabilidad de supervivencia conjunta. Esperanza matemática de un grupo de miembros.

Valor actual vs. valor actuarial:


●​ Valor actual: Valor presente de un monto futuro descontado a una tasa de interés.
●​ Valor actuarial: Valor esperado considerando no solo el descuento financiero, sino también la
probabilidad de que se reciba (vida o muerte del beneficiario).​

Capitalización actuarial:
●​ Proceso por el cual se determina el valor actual de un conjunto de pagos futuros aleatorios asociados
a una variable de vida.
●​ Se basa en tablas de mortalidad y tasas de interés.​

Probabilidad de supervivencia conjunta:


●​ Es la probabilidad de que dos o más individuos sobrevivan a una edad determinada.
●​ Aplicación clave en seguros de vida conjuntos o pensiones de viudez.

Esperanza matemática de un grupo de miembros:


●​ Valor esperado de la duración de vida total de un grupo o del total de beneficios que se esperan pagar.​

Autores:
●​ Devore: Introduce las probabilidades aplicadas a seguros.
●​ Wackerly: Da un tratamiento riguroso al valor esperado en contextos actuariales.
●​ Newbold y Johnson & Kuby: Mencionan sus aplicaciones en economía y seguros.

También podría gustarte