Instituto Politécnico Nacional
Escuela Superior de Ingeniería Mecánica y Eléctrica.
Unidad Culhuacán
Materia:
Probabilidad y Estadística
Profesor:
Morales Garcia Fernando
Grupo:
6MV36
Alumnos:
Martinez Guzman Christopher
Mendoza Jimenez Yair
Sánchez López Neftali Uriel
Sanchez Rodriguez Javier
Vázquez Zarza Maximiliano
ÍNDICE
4.1 Variable aleatoria continua 3
4.2 La función de densidad de una variable aleatoria continua y momentos 7
Propiedades 8
Ejemplo 8
Ejemplo 10
4.3 Distribución de probabilidad uniforme. 12
Valor esperado y varianza 13
Ejemplo 14
Distribución uniforme continua. 14
Ejemplo 15
Valor esperado y varianza. 16
4.4 Distribución de probabilidad normal y normal estándar. 17
Distribución Normal 17
Distribucion Normal Estandar 19
4.5 Distribución de probabilidad Beta, Gamma, Weibull. 20
distribución de probabilidad beta (𝛃). 20
Función de distribución 21
EJEMPLO 22
distribución de probabilidad Gamma (𝛾). 23
EJEMPLO 24
distribución de probabilidad Weibull. 24
Función de Densidad 25
Función de Distribución 25
Efecto del parámetro de forma 26
Efecto del parámetro de escala 26
Efecto del parámetro de valor umbral 27
EJEMPLO 28
4.6 Distribución probabilidad t de student 29
Fórmula de la distribución t de Student 29
Representación de la distribución t de Student 30
Aplicación de la t de Student 31
Ejemplo 31
¿La variable aleatoria G puede aproximarse a una distribución t? 32
4.7 Distribución de probabilidad ji-cuadrada 32
Ejemplo 34
4.8 Distribución de probabilidad F 35
Ejemplo. 36
4.9 Variables aleatorias continuas conjugadas. 36
Función de densidad 37
Ejemplo 40
Valor esperado y varianza de variables aleatorias continuas. 41
4.10 Funciones de densidad para v.a.c. conjuntas y momento 42
Ejemplo 42
Momentos 44
Ejemplo 45
4.10 Covarianza, coeficiente de correlación y varianza de la adición de V.A.C conjunta
45
4.12 funciones de funciones de variables aleatorias 45
Ejemplo 46
5.1 Muestreo estadístico. Teorema de límite central 47
Ejemplo 59
Ejemplo 59
5.2 estimación puntual y estimación por intervalos 60
Estimación puntual. 60
Características de una estimación puntual. 61
Ejemplo 61
Estimación por intervalos 62
Ejemplo 62
Ejemplo 63
La diferencia entre la estimación puntual y la estimación 64
5.3 Prueba de hipótesis 65
Hipótesis nula (H0) 65
Hipótesis alternativa (H1) 66
Bilateral 66
Unilateral 66
5.4 Regresión lineal y no lineal 66
Tipos de regresión lineal 67
4.1 Variable aleatoria continua
Es aquella cuyo dominio de definición (campo de variación) es un intervalo (compacto) de la
recta real , una unión de varios intervalos , o la totalidad de la recta real.(Por lo tanto los
valores definidos de la variable aleatoria son un conjunto infinito no numerable .) El álgebra
de sucesos del que surge debe contener un número infinito no numerable de sucesos ,cada
uno de ellos se corresponderá con alguno de los intervalos incluidos en el campo de
definición.
Ejemplo 3. Ante el experimento : contemplar los coches que pasen por un tramo de
carretera se aleatoriza de forma que la variable aleatoria X =tiempo que hay que esperar
hasta que pase un coche X = [0,µ [ ,es decir X=R+.
En el caso continuo no podremos hacer corresponder a los valores (puntuales) con sucesos
de álgebra de sucesos, la correspondencia se establecerá entre sucesos del álgebra e
intervalos pertenecientes al campo de variación de la variable .En consecuencia no
podremos asignar probabilidades a los valores de la variable, sino sólo a intervalos.
Una variable aleatoria continua es el modelo teórico de una variable estadística continua
(agrupada por intervalos ).
Una variable aleatoria continua es aquella cuya función de distribución es continua:
La longitud de ciertos tornillos (en centímetros) es una variable aleatoria con la siguiente función de
densidad:
a) Para hacer cierto trabajo se prefieren tornillos con longitud entre 1,7 cm y 2,4 cm. ¿Cuál
es la probabilidad de que un tornillo tenga dicha longitud?
b) Si la longitud de cada tornillo es independiente de la longitud de otro tornillo. ¿Cuál es la
probabilidad de que tres tornillos tengan la longitud que se prefiere?
c) Si para construir lo que se necesita con uno de estos tornillos hay que hacer un gasto de
$10 por cm de longitud que tenga el tornillo más un gasto fijo de $4. ¿Cuál es el gasto
medio esperado por un tornillo?
La variable es X: longitud de ciertos tornillos (en cm).
Calculamos la probabilidad pedida
cómo el área bajo la curva de densidad entre
Una gráfica de la curva de densidad f mostrando el área comprendida entre x = 1,7 y x
= 2,4 es la siguiente:
Notemos que la función de densidad es simétrica respecto de x=2. Así que es razonable
que hayamos obtenido que
Entonces:
”(10*2)”
4.2 La función de densidad de una variable aleatoria continua y momentos
Definición Se dice que una variable aleatoria X es continua si su conjunto de posibles
valores es todo un intervalo (finito o infinito) de números reales. Por ejemplo, una
v.a.continua puede ser el tiempo de retraso con el que un alumno o un profesor llega al aula
de clases ó también el peso o la estatura de los estudiantes.
La función f(x) es una función de densidad de probabilidad para la variable aleatoria
continua X, definida sobre el conjunto de los números reales, sí:
Esto es, la probabilidad de que X tome un valor en el intervalo [a, b] es el área bajo la
gráfica de la función de densidad, como lo ilustra la figura 4.1 La gráfica de f (x), se conoce
a veces como curva de densidad.
Esto es, la probabilidad de que X tome un valor en el intervalo [a, b] es el área bajo la
gráfica de la función de densidad, como lo ilustra la figura. La gráfica de f(x), se conoce a
veces como curva de densidad.
Propiedades
Para una v.a X, fX(x) satisface las siguientes propiedades:
Note además que P(X=c)=0, para cualquier número real C.
Ejemplo
Un profesor de la UNAM nunca termina su clase antes del término de la hora, más nunca se
pasa de 2 minutos de ésta. Sea X: el tiempo que transcurre entre el término de la hora y el
término efectivo de la clase. Suponga que la fdp de X viene dada por:
1. Encuentre el valor de k.
2.¿Cuál es la probabilidad de que la clase termine a menos de un minuto después del
término de la hora?
3.¿Cuál es la probabilidad de que la clase continúe entre 60 y 90 segundos después del
término de la hora?
4.¿Cuál es la probabilidad de que la clase continúe por lo menos 90 segundos después del
término de la hora?
Ejemplo
A partir de la función de densidad de probabilidad f(x), calcular P(1 ≤ X ≤ 3)
Solución:
En este problema, nos piden calcular P(1 ≤ X ≤ 3). Y con la función de probabilidad de una
variable aleatoria continua, las probabilidades se calculan mediante el área bajo la curva,
por ello:
Graficamos la función f(x) para que se vea mucho mejor:
Como queremos calcular la probabilidad de que nuestra variable aleatoria discreta X tome
un valor entre 1 y 3, entonces sombreamos el área bajo la función f(x) en ese intervalo:
Solo nos queda calcular el valor del área sombreada y en este caso se puede realizar de 2
formas diferentes: mediante la fórmula del rectángulo y mediante la integral definida de f(x)
desde x igual a 1 hasta 3.
Con áreas:
4.3 Distribución de probabilidad uniforme.
Una distribución uniforme ution es un tipo de distribución de probabilidad simétrica en la que
todos los resultados tienen la misma probabilidad de ocurrir. Hay dos tipos de distribuciones
uniformes: discretas y continuas, una distribución uniforme discreta se describe mediante
una función de masa de probabilidad y una distribución uniforme continua se describe
mediante una función de densidad de probabilidad, las cuales son descritas por las
ecuaciones:
Distribución uniforme discreta
Una distribución uniforme discreta es aquella que tiene un número finito (o numerable mente
finito) de variables aleatorias que tienen la misma probabilidad de ocurrir, un ejemplo de
esta son el lanzamiento de un dado o la selección de una carta de un mazo estándar, donde
existe la misma probabilidad (1/6) de sacar 1, 2, 3, 4, 5 o 6. De manera similar, una baraja
de cartas estándar tiene 52 cartas diferentes, por lo que la probabilidad de seleccionar7
cualquier carta es 1/52, esto en ambos casos, hay resultados distintos (tirada de dados o
cartas), lo que indica la naturaleza discreta de los eventos.
Más específicamente, sea x una variable aleatoria discreta que tiene n valores en el
intervalo [a, b]; x tiene una distribución uniforme discreta si su función de masa de
probabilidad está definida por:
El gráfico de una distribución aleatoria discreta que muestra los 7 resultados, cada resultado
tiene la misma probabilidad (1/n) de ocurrir, por lo que la distribución es uniforme y discreta,
esto es:
Valor esperado y varianza
El valor esperado y la varianza son dos estadísticas que se calculan con frecuencia. Para
encontrar la varianza, primero determine el valor esperado para una distribución uniforme
discreta usando la siguiente ecuación:
Donde:
Es la función de masa de probabilidad de una distribución uniforme discreta, o 1/n. Así:
La varianza se puede encontrar insertando E (X² ) y [E (X)]²en la ecuación anterior:
Ejemplo
Se enumeran 10 pelotas de ping pong del 1 al 10 y se colocan en una bolsa. Se saca una
pelota de ping pong de la bolsa al azar.
1.- Encuentre el valor esperado y la varianza.
Usando n=10 y la ecuación es:
2.- Calcula la probabilidad de que el número de la pelota de ping pong dibujada esté entre 7
y 10.
El pmf es f (x)=1/10, y la probabilidad de seleccionar una pelota de ping pong numerada
entre 7 y 10 es:
Por tanto, la probabilidad de seleccionar una bola numerada entre el 7 y el 10 es del 20%.
Distribución uniforme continua.
Una distribución uniforme continua es un tipo de distribución de probabilidad simétrica que
describe un experimento en el que los resultados de la variable aleatoria tienen las mismas
probabilidades de ocurrir dentro de un intervalo. [a, b]. La función de densidad de
probabilidad (pdf) de una distribución uniforme continua, la cual es:
Una distribución uniforme continua también se conoce como distribución rectangular debido
al área rectangular formada entre a y b.
Ejemplo
Un servicio de transporte tarda 20 minutos en viajar desde la parada A hasta la parada B. El
servicio de transporte viaja entre las paradas A y B continuamente durante todo el día.
¿Cuál es la probabilidad de que una persona en la parada A espere más de 8 minutos a que
llegue el transbordador?
Sea X una variable aleatoria continua que representa el tiempo de espera de un
transbordador, por lo tanto, es:
La probabilidad de x y gt;8 está representado por el área de la región sombreada:
El área de la región sombreada se puede calcular por:
Por tanto, la probabilidad de que una persona espere más de 8 minutos es del 60%.
Valor esperado y varianza.
El valor esperado de un pdf viene dado por:
Para el pdf de una distribución uniforme continua, el valor esperado es:
La integral anterior representa la media aritmética entre a y b. Esto se debe a que la función
de densidad de probabilidad es uniforme desde a hasta b, lo que significa que, para una
distribución uniforme continua, no es necesario calcular la integral para encontrar el valor
esperado, con esto es posible calcular el valor esperado en un intervalo encontrando la
media aritmética entre los dos puntos finales, que suele ser un cálculo más simple. La
varianza de una variable aleatoria se puede encontrar usando la ecuación:
Donde:
Sustituir el pdf por una distribución uniforme continua da como resultado lo siguiente:
Esto se puede sustituir en la ecuación de varianza para encontrar la varianza:
4.4 Distribución de probabilidad normal y normal estándar.
Distribución Normal
Se dice que muchos fenómenos se distribuyen normalmente. Esto significa que si uno toma al azar
un número suficientemente grande de casos y construye un polígono de frecuencias con alguna
variable continua, por ejemplo peso, talla, presión arterial o temperatura, se obtendrá una curva de
características particulares, llamada distribución normal. Es la base del análisis estadístico, ya que en
ella se sustenta casi toda la inferencia estadística. La función de densidad de probabilidad para la
variable aleatoria continua fue descubierta por Carl Gauss al estudiar el comportamiento de los
procesos aleatorios. Es ampliamente utilizada en estadística y teoría de las probabilidades.
Esta función, también conocida como distribución normal tiene la forma de una campana, por este
motivo también es conocida como la campana de Gauss. Sus características son las siguientes:
• Es una distribución simétrica.
• Es asintótica, es decir sus extremos nunca tocan el eje horizontal, cuyos valores tienden a
infinito.
• En el centro de la curva se encuentran la media, la mediana y la moda.
• El área total bajo la curva representa el 100% de los casos.
• Los elementos centrales del modelo son la media y la varianza.
Esta función tiene un comportamiento muy similar a la función , cuya tabulación y gráfica
son las siguientes:
De acuerdo con lo anterior, se aprecian las siguientes características:
1. Su dominio es
2. Es continua.
3. Su rango es
4.
5. Su derivada es:
6. El máximo de la función se ubica en el punto
Esta distribución es un modelo matemático que permite determinar probabilidades de ocurrencia para
distintos valores de la variable. La distribución normal sirve para conocer la probabilidad de encontrar
un valor de la variable que sea igual o inferior a un cierto valor , conociendo la media, la desviación
estándar, y la varianza de un conjunto de datos en sustituyéndolos en la función que describe el
modelo.
Distribucion Normal Estandar
La distribución normal estándar es aquella que tiene una media de 0 y una desviación estándar de 1.
El área bajo la curva puede ser calculada por la distancia desde la media; media ± 1,96 DS encierran
entre sí el 95% y dejan fuera el 5%, 2,5% a cada lado de la curva.
Si pensamos que la distribución Normal es una distribución de probabilidades o, más
propiamente, una densidad de probabilidades, el área bajo la curva es igual a uno y como es
una distribución simétrica, la mitad del área está a la izquierda de la media y la otra mitad a la
derecha. Para calcular las probabilidades en relación a cualquier valor de X basta con calcular el
área:
Área bajo la curva normal:
Hay tablas, que aparecen en el apéndice de todos los libros de estadística, en las cuales se ha
hecho esta integración. Como cada variable observada tiene valores individuales de X,
probablemente todos diferentes y expresados en unidades de medición distintas, sería
necesario disponer de tablas o calcular separadamente para cada valor. Sin embargo, pueden
ser puestas en una escala comparable usando equivalentes estandarizados. Como se vio,
cualquier posición en el eje horizontal puede ser descrita como una distancia expresada en
desviaciones estándar desde la media con valor negativo o positivo. Esta unidad se conoce
como desviación Normal estándar o puntaje z. Es equivalente a una distribución Normal con una
media de 0 y una desviación estándar de 1, una distribución Normal especial conocida como
Normal estándar o Normal típica.
La transformación requerida es:
donde Xi es un número observado de una variable distribuida Normalmente con una media µ y
una desviación estándar σ.
La ecuación de la curva Normal adquiere una forma más simple al usar z en vez de X:
Área bajo la curva Normal estándar:
En las tablas de z, se pueden leer las proporciones en que esa área total es dividida en dos por
un valor de z. Con ellas podemos calcular la proporción de personas o de valores que
esperamos tengan cifras por sobre o por debajo de un valor determinado. Por ejemplo, valores
de presión arterial media, variable que se distribuye normalmente en una población, para la cual
estimamos valores de µ y σ de 100 y de 15, y queremos saber qué proporción de la población
esperamos tengan valores ≤ 120. Usando la fórmula anterior:
Este valor de z corresponde a una proporción de 0,9082 (Figura 3): estimamos que el 90,82%
de la población tiene una PAM ≤ 120.
4.5 Distribución de probabilidad Beta, Gamma, Weibull.
distribución de probabilidad beta (𝛃).
En teoría de la probabilidad y en estadística, la distribución beta es una familia de
distribuciones continuas de probabilidad definidas en el intervalo (0,1) parametrizada por
dos parámetros positivos de forma, denotados por 𝛂 y 𝛃 , que aparecen como exponentes
de la variable aleatoria y controlan la forma de la distribución.
Si una variable aleatoria continua 𝙓 tiene una distribución beta con parámetros 𝛂,𝛃>0
entonces escribiremos 𝙓∼ B(𝛼,𝛽).
Función de densidad
La función de densidad de 𝙓 es
para valores 0<𝙓<1 donde B(𝛼,𝛽) es la función beta y se define para 𝛼,𝛽>0 como
y algunas de las propiedades que satisface son:
Función de distribución
La función de distribución de X es
EJEMPLO
Si la proporción de una marca de televisores que requiere servicio durante el primer año de
operación es una variable aleatoria que tiene una distribución beta con α = 3 y β = 2, ¿Cuál
es la probabilidad de que al menos 80% de los nuevos modelos de esta marca que se
vendieron este año requieran servicio durante su primer año de operación?
distribución de probabilidad Gamma (𝛾).
Se le conoce, también, como una generalización de la distribución exponencial, además de
la distribución de Erlang y la distribución Ji-cuadrada. Es una distribución de probabilidad
continua adecuada para modelizar el comportamiento de variables aleatorias con asimetría
positiva y/o los experimentos en donde está involucrado el tiempo.
Una variable aleatoria X tiene una distribución gamma si su función de densidad está dada
por:
La función de distribución acumulativa de gamma F(x), la cual permite determinar la
probabilidad de que una variable aleatoria de gamma X sea menor a un valor específico x,
se determina de la siguiente expresión:
EJEMPLO
Supongamos que la experiencia demuestra que el tiempo X (en minutos) necesario para dar
mantenimiento periódico a un dictáfono sigue una distribución gamma con α = 3.1 y β= 2.A
un nuevo técnico en mantenimiento le toma 22.5 minutos revisar la máquina. ¿Concuerda
este tiempo utilizado en el mantenimiento al dictáfono con el período anterior?
La media y varianza de los tiempos de mantenimiento (con base en la experiencia anterior)
son:
E(X) = αβ= (3.1)(2) = 6.2 y
Var(X) = αβ= (3.1)(22)= 12.4
Se deduce que Advierta que x;= 22.5 supera a la esperanza E(X) = 6.2 por
16.3 minutos o, k= 16.3/3.52= 4.63. Así según la regla de Tchebychev.
Por tanto,
P(X-6.2≥16.3)=P(X-6.2≥16.3)≥ 1-0.9534=0.0466
Esta probabilidad se basa en el supuesto de que la distribución de los tiempos de
mantenimiento no es diferente de lo establecido. Por consiguiente, si observamos que P(X≥
22.5) es pequeña, debemos concluir que nuestro nuevo técnico en mantenimiento generó por
azar un período de mantenimiento prolongado, que tiene baja probabilidad de ocurrir, o que
es más lento que los anteriores. Si tomamos en cuenta la baja probabilidad de P(X ≥22.5),
optamos por la última probabilidad.
distribución de probabilidad Weibull.
El análisis de Weibull es la técnica mayormente escogida para estimar una probabilidad
basada en datos medidos o asumidos.
es una distribución versátil que se puede utilizar para modelar una amplia gama de
aplicaciones en ingeniería, investigación médica, control de calidad, finanzas y climatología.
Por ejemplo, la distribución se utiliza frecuentemente con análisis de fiabilidad para modelar
datos de tiempo antes de una falla.
Función de Densidad
Si X es una variable aleatoria continua, se dice que X tiene una distribución Weibull con
parámetros 𝛂,𝛄 > 0 y escribimos X∽ Weibull ( 𝛂,𝛄) si su función de densidad es
donde 𝛂 es el parámetro de forma y 𝛄 es el parámetro de escala de la distribución.
La distribución modela la distribución de fallos (en sistemas) cuando la tasa de fallos es
proporcional a una potencia del tiempo:
Un valor 𝛂<1 indica que la tasa de fallos decrece con el tiempo.
Cuando 𝛂=1, la tasa de fallos es constante en el tiempo.
Un valor 𝛂>1 indica que la tasa de fallos crece con el tiempo.
Función de Distribución
La función de distribución acumulada de una variable aleatoria X∽ Weibull ( 𝛂,𝛄) es
Dependiendo de los valores de sus parámetros, la distribución de Weibull puede adoptar
varias formas.
Efecto del parámetro de forma
El parámetro de forma describe la manera en que se distribuyen los datos. Una forma de 3
se aproxima a una curva normal. Un valor de forma bajo, por ejemplo 1, da una curva con
asimetría hacia la derecha. Un valor de forma alto, por ejemplo 10, da una curva con
asimetría hacia la izquierda.
Efecto del parámetro de escala
La escala, o vida característica, es el percentil 63.2 de los datos. La escala define la
posición de la curva de Weibull respecto del valor de umbral, lo cual es similar a la manera
en que la media define la posición de una curva normal. Una escala de 20, por ejemplo,
indica que el 63.2% de los equipos fallará en las primeras 20 horas después del tiempo
umbral.
Efecto del parámetro de valor umbral
El parámetro de valor umbral describe un desplazamiento de la distribución
alejándose del 0. Un valor umbral negativo desplaza la distribución hacia la izquierda,
mientras que un valor umbral positivo desplaza la distribución hacia la derecha. Todos
los datos deben ser mayores que el valor umbral. La distribución de Weibull de 2
parámetros es igual a la distribución de Weibull de 3 parámetros con un valor umbral
de 0. Por ejemplo, la distribución de Weibull de 3 parámetros (3,100,50) tiene la
misma forma y dispersión que la distribución de Weibull de 2 parámetros (3,100),
pero está desplazada 50 unidades hacia la derecha.
EJEMPLO
Ejemplo de Análisis Weibull aplicado a Fallas de Equipos
La técnica de Análisis Weibull puede ser usada para estimar probabilidad de muchos casos,
por lo que continuando con nuestros ejemplos, nos enfocaremos en un análisis de
confiabilidad asociado a una estadística de fallas de equipos de una planta Fraccionadora
de Gas, para lo cual tenemos la siguiente estadística de Tiempo Para Falla (TPF).
Analizando los datos de la tabla No. 2, como primera observación tenemos que hay un
95.98% que los TPF sean menores a 95.98%, por supuesto que es una información, pero
no nos ayuda mucho ya que tenemos datos desde 240 horas a 13,776 horas, por lo que
debemos analizar la gráfica de Weibull.
Del análisis tenemos que el Factor de Forma β es 0.6433 lo que indica que tenemos una
tasa de falla descendente, al igual que una t = η (aproximadamente 2,000).
Ya con los datos de forma y escala podemos realizar cualquier estimado de confiabilidad
utilizando la ecuación o el gráfico de Weibull.
R(t) = 1-F(t)
Por ejemplo, si queremos estimar cuál es la confiabilidad o probabilidad para que los
equipos no fallen a t1=500 horas o t2=3000 horas, obtendremos lo siguiente:
R(t1) = 80%
R(t2) = 10%
4.6 Distribución probabilidad t de student
La distribución t de Student o distribución t es un modelo teórico utilizado para
aproximar el momento de primer orden de una población normalmente distribuida
cuando el tamaño de la muestra es pequeño y se desconoce la desviación típica.
En otras palabras, la distribución t es una distribución de probabilidad que estima el
valor de la media de una muestra pequeña extraída de una población que sigue una
distribución normal y de la cual no conocemos su desviación típica.
Fórmula de la distribución t de Student
Dada una variable aleatoria continua L, decimos que la frecuencia de sus
observaciones puede aproximarse satisfactoriamente a una distribución t con g
grados de libertad tal que:
La variable aleatoria L sigue una distribución t con g grados de libertad.
Representación de la distribución t de Student
Función de densidad de una distribución t con 3 grados de libertad (df).
Como podemos ver, la representación de la distribución t se parece mucho a la
distribución normal salvo que la distribución normal tiene las colas más anchas y es
más apuntalada. En otras palabras, deberíamos añadir más grados de libertad a la
distribución t para que la distribución “crezca” y se parezca más a la distribución
normal.
A diferencia de la distribución normal que depende de la media y la varianza, la
distribución t sólo depende de los grados de libertad, del inglés, degrees of freedom
(df). En otras palabras, controlando los grados de libertad, controlamos la
distribución.
Aplicación de la t de Student
La distribución t se utiliza cuando:
Queremos estimar la media de una población normalmente distribuida a partir de
una muestra pequeña.
Tamaño de la muestra es inferior a 30 elementos, es decir, n < 30.
A partir de 30 observaciones, la distribución t se parece mucho a la distribución
normal y, por tanto, utilizaremos la distribución normal.
No se conoce la desviación típica o estándar de una población y tiene que ser
estimada a partir de las observaciones de la muestra.
Ejemplo
Suponemos que tenemos 28 observaciones de una variable aleatoria G que sigue
una distribución t de Student con 27 grados de libertad (df).
28 observaciones de la variable aleatoria G que sigue una distribución t con 27 grados
de libertad.
Dado que estamos trabajando con datos reales, siempre habrá un error de
aproximación entre los datos y la distribución. En otras palabras, la media, mediana
y moda no siempre serán cero (0) o exactamente iguales.
Representamos la frecuencia de cada observación de la variable G mediante un
histograma.
¿La variable aleatoria G puede aproximarse a una distribución t?
Razones para considerar que la variable G sigue una distribución t:
La distribución es simétrica. Es decir, existe el mismo número de observaciones
tanto a la derecha como a la izquierda del valor central. También, que la media y la
mediana tienden a aproximarse al mismo valor. La media es aproximadamente cero,
media = 0,016.
Las observaciones con más frecuencia o probabilidad están alrededor del valor
central. Las observaciones con menos frecuencia o probabilidad se encuentran lejos
del valor central.
4.7 Distribución de probabilidad ji-cuadrada
La distribución ji-cuadrada surge de la suma de normales estándar al cuadrado, su
definición formal es la siguiente:Sean variables aleatorias
independientes con distribución normal estándar, entonces la variable aleatoria dada
por:
Tiene una distribución conocida como ji-cuadrada con k grados de libertad.
Sea X una variable aleatoria ji-cuadrada con k grados de libertad, entonces su
función de densidad es:
Obsérvese que la función de densidad ji-cuadrada corresponde a una densidad
gamma con parámetros
La siguiente gráfica muestra la función de densidad de esta variable para distintos
valores de k, observe que cuando k es pequeño la probabilidad se concentra en
valores pequeños y conforme k crece la probabilidad se concentra en valores
mayores.
Dado que la ji-cuadrada es suma de variables aleatorias independientes, por el
teorema del límite central, esta distribución se aproxima a un normal conforme k
crece, como se puede ver en la gráfica. El único parámetro de la distribución
ji-cuadrada son los grados de libertad (el parámetro k) que corresponde al número
de variables aleatorias independientes en la suma que define la variable. La variable
ji-cuadrada siempre es positiva, pues corresponde a la suma de variables al
cuadrado.
Si X1 y X2 son dos variables aleatorias independientes, tales que x1∼ji-cuadrada
con n grados de libertad y X2∼ji-cuadrada con m grados de libertad, entonces
X1+X2∼ ji-cuadrada con n +m grados de libertad.
La mayoría de los textos de Probabilidad y Estadística contienen tablas de la
distribución ji-cuadrada con los valores de x, tales que
Para
α = 0.995,0.99,0.975,0.95,0.90,0.10,0.05,0.025,0.01,0.005
Si se requiere calcular la probabilidad del complemento se usa la fórmula:
Ejemplo
Sea X una variable aleatoria ji-cuadrada con 9 grados de libertad, encontrar el valor
de x, tal que:
Solución: Para hallar el valor de x, tal que:
En la tabla de la ji-cuadrada busque en la columna correspondiente la probabilidad
0.025 y el renglón de 9 grados de libertad para encontrar x=19.023.
Para determinar el valor de x, tal que:
Se encuentra la probabilidad del complemento , ahora en la
columna de 0.975 busque el renglón de 9 grados de libertad y ahí se encuentra el
valor de x=2.700.
4.8 Distribución de probabilidad F
La distribución F es una distribución continua de muestreo de la relación de dos
variables aleatorias independientes con distribuciones de chi-cuadrada, cada una
dividida entre sus grados de libertad. La distribución F es asimétrica hacia la
derecha y es descrita por los grados de libertad de su numerador (ν1) y
denominador (ν2). Las siguientes gráficas muestran el efecto de los diferentes
valores de grados de libertad en la forma de la distribución.
Utilice la distribución F cuando un estadístico de prueba sea la relación de dos
variables que tienen una distribución de chi-cuadrada cada una. Por ejemplo, utilice
la distribución F en el análisis de varianza y en pruebas de hipótesis para determinar
si dos varianzas de población son iguales.
Ejemplo.
Calcular las probabilidades de una distribución F con infinitos grados de libertad del
denominador
Supongamos que X sigue una distribución F con 5 grados de libertad del numerador
e infinitos grados de libertad del denominador y usted desea conocer la probabilidad
de que X sea menor que o igual a 2. Puede encontrar la probabilidad de que Y sea
menor que o igual a 2, donde Y sigue una distribución F con 5 grados de libertad del
numerador y 99999 grados de libertad del denominador y Y se aproxima a X.
Elija Calc > Distribuciones de probabilidad > F.
En Grados de libertad del numerador, ingrese 5.
En Grados de libertad del denominador, ingrese 99999.
Elija Constante de entrada e ingrese 2. Haga clic en Aceptar.
El valor de CDF para 2 es 0.924755. Este valor representa el área por debajo de la
curva hasta 2.
4.9 Variables aleatorias continuas conjugadas.
Las variables aleatorias continuas pueden tomar una cantidad infinita no numerable de
valores distintos, es decir, el conjunto de valores que puede tomar unas variables aleatorias
continuas tiene la misma cardinalidad que los números reales, estos son aquellos cuyo
conjunto de valores posibles es infinito no numerable, pero este debe de cumplir su función
de distribución. Esta se define por:
Una variable aleatoria X es absolutamente continua si y solamente si existe una función f:
Ɍ→Ɍ integrable y no-negativa tal que para cada x ꞓ Ɍ se cumple que:
Llamamos f la función de densidad de X. Se les llama absolutamente continúas debido a
que su función de distribución es una función absolutamente continua.
La definición FX, X es una variable aleatoria continua si la función de distribución de X
puede escribirse como la integral de una función integrable y no-negativa f, que es llamada
la densidad de X, es decir, las probabilidades de los eventos que involucran a una variable
aleatoria continua se pueden expresar en términos del área debajo de su función de
densidad.
En consecuencia, si X es una variable aleatoria continua con densidad f: Ɍ→Ɍ como
FX(x)→1 cuando x→ꝏ, se tiene que:
Además para cada a, b ꞓ Ɍ tales a<b se tiene que P(X ꞓ (a,b)) = Fx(b) – Fx(a), por lo que:
Es importante notar que en la definición pedimos que la densidad de una variable aleatoria
continua X debe ser una función integrable, lo cual garantiza que la función de distribución
de X es continua.
Función de densidad
Igual que una variable aleatoria discreta viene caracterizada por su función de probabilidad,
las variables aleatorias continuas vienen caracterizadas por una función llamada función de
densidad, que es una generalización de la función de probabilidad.
Matemáticamente, una función F es una función de densidad si verifica dos propiedades:
-f(x) es mayor o igual que cero en cualquier punto x (el dibujo de la función debe estar por
encima del eje horizontal).
- f(x) dx=1 (el área bajo la curva y el eje horizontal vale uno)
Ejemplo de una función de densidad simple.
El concepto de función de densidad procede de considerar que tenemos una población con
todos sus (infinitos) datos o posibles valores y dibujamos el histograma, polígono de
frecuencias o estimación de la densidad.
Ejemplos de variables aleatorias continuas:
-El tiempo que lleva completar un examen para una prueba de 60 minutos Valores posibles
= todos los números reales en el intervalo [0,60]
-Edad de un fósil Valores posibles = todos los números reales en el intervalo [edad mínima,
edad máxima]
-Millas por galón para un Toyota Prius Valores Posibles = todos los números reales del
intervalo [MPG mínimo, MPG máximo]
La principal diferencia entre las variables aleatorias continuas y discretas es que la
probabilidad continua se mide a lo largo de intervalos, mientras que la probabilidad discreta
se calcula en puntos exactos.
Distribución de variables aleatorias continuas.
Para poder tener un mejor desenlace de esta distribución tendremos como ejemplo las
diferentes tallas de zapatos. Para nuestro ejemplo de talla de zapatos, esto significaría
medir tallas de zapatos en unidades más pequeñas, como décimas o centésimas. A medida
que aumenta el número de intervalos, el ancho de las barras se vuelve cada vez más
estrecho, y la gráfica se acerca a una curva suave.
Para ilustrar esto, las siguientes gráficas representan dos pasos en este proceso de
estrechamiento de los anchos de los intervalos. Específicamente, los anchos de intervalo
son 0.25 y 0.10.
Estas curvas suaves se puede representar las distribuciones de probabilidad de variables
aleatorias continuas.
Se considera otra variable aleatoria X = longitud del pie de los machos adultos. A diferencia
del tamaño del zapato, esta variable no se limita a valores distintos y separados, ya que las
longitudes de los pies pueden tomar cualquier valor sobre un rango continuo de
posibilidades, por lo que no podemos presentar esta variable con un histograma de
probabilidad o una tabla. Esta se representa en una curva suave llamada curva de densidad
de probabilidad.
La probabilidad de que X obtenga valores en cualquier intervalo está representada por el
área por encima de este intervalo y por debajo de la curva de densidad. En el ejemplo de
longitud de pie, si nuestro intervalo de interés está entre 10 y 12 (marcado en rojo abajo), y
nos gustaría saber P (10 < X < 12), la probabilidad de que un macho elegido aleatoriamente
tenga una longitud de pie entre 10 y 12 pulgadas, tendremos que encontrar el área por
encima de nuestro intervalo de interés (10,12) y por debajo de nuestra curva de densidad,
sombreada en azul:
Por ejemplo, se interesa P (X < 9), la probabilidad de que un macho elegido aleatoriamente
tenga una longitud de pie inferior a 9 pulgadas se tiene que encontrar el área sombreada en
azul a continuación:
Ejemplo
El tiempo de conducir a la escuela para un estudiante de un colegio comunitario es un
ejemplo de una variable aleatoria continua. La función de densidad de probabilidad y las
áreas de regiones creadas por los puntos 15 y 25 minutos.
Solución:
1.- Se encuentra la probabilidad de que un estudiante tarda menos de 15 minutos en
conducir a la escuela.
2.-Se encuentra la probabilidad de que un estudiante no tome más de 15 minutos en
conducir a la escuela. Esta respuesta es la misma que la pregunta anterior, porque los
puntos no tienen probabilidad con variables aleatorias continuas.
3.-Se encuentra la probabilidad de que un estudiante tome más de 15 minutos en conducir a
la escuela.
4.-Se encuentra la probabilidad de que un estudiante tome entre 15 y 25 minutos en
conducir a la escuela.
Por lo que:
1.-P(X<15)=0.20
2.-P(X≤15)=0.20
3.-P(X>15)=0.45+0.35=0.80
4.-P(15≤X≤25)=0.45
Esto también se puede encontrar mediante el modelo de distribución para determinar
percentiles.
percentil es el valor xp tal que P(X<xp)=p
A partir del dibujo X20=15 minutos y X65=25 minutos
Valor esperado y varianza de variables aleatorias continuas.
La media y varianza se pueden calcular para la mayoría de las variables aleatorias
continuas. Esto es:
Valor esperado (media poblacional): μ=E(x)
Varianza poblacional: σ2=Var(x)=E[(x−μ)2]
Desviación estándar poblacional: σ=√(Var(x) )
4.10 Funciones de densidad para v.a.c. conjuntas y momento
Sea X una variable aleatoria continua. Entonces, una función de densidad de probabilidad
de X es una función f(x) tal que para dos números cualesquiera a y b con a ≤ b,
La probabilidad de que X asuma un valor en el intervalo [a, b] es el área sobre este intervalo
y bajo la gráfica de la función de densidad. Se puede apreciar mejor en la siguiente gráfica:
La gráfica de f(x) se suele llamar curva de densidad.
La función de probabilidad de una variable aleatoria continua siempre cumplirá con estas
condiciones:
Ejemplo
A partir de la función de densidad de probabilidad f(x), calcular P(1 ≤ X ≤ 3)
Solución:
En este problema, nos piden calcular P(1 ≤ X ≤ 3). Y con la función de probabilidad de una
variable aleatoria continua, las probabilidades se calculan mediante el área bajo la curva,
por ello:
Graficamos la función f(x) para que se vea mucho mejor:
Como queremos calcular la probabilidad de que nuestra variable aleatoria discreta X tome
un valor entre 1 y 3, entonces sombreamos el área bajo la función f(x) en ese intervalo:
Solo nos queda calcular el valor del área sombreada y en este caso se puede realizar de 2
formas diferentes: mediante la fórmula del rectángulo y mediante la integral definida de f(x)
desde x igual a 1 hasta 3.
Con áreas:
Con integrales:
Como verás, obtuvimos el mismo resultado con ambos métodos, una probabilidad de 0,5 o
50%.
Momentos
La media
Supongamos que generamos una muestra, de una variable discreta con función de
probabilidad P(·). En este caso, la media muestral es
donde fi es la frecuencia relativa de xi. Si dejamos que el tamaño de la muestra crezca,
entonces, recordando la definición frecuentista de la probabilidad, tenemos que fi → P (X =
xi) para i = 1, 2, . . . y luego,
De manera semejante, podemos pensar en estimar la media de una muestra de datos
continuos a través de un histograma cuando
y xi y fi representan el centro y la proporción de datos en la barra i’ estima. Dejando el
tamaño de la muestra acercarse al infinito y suponiendo que la anchura de las barras se
acerca a 0, se tiene
Ejemplo
ejemplo sobre los pasajeros del avión
¿Cuál es el número medio de pasajeros que llegan al aeropuerto?
Observamos que la media no tiene que ser uno de los valores posibles de X.
4.11 Covarianza, coeficiente de correlación y varianza de la adición de V.A.C conjunta
Covarianza
La covarianza es una medida de dispersión que indica, el promedio que tanto se alejan los
valores de sus medias respectivas. Es un valor que indica el grado de variación conjunta de
dos variables aleatorias conjuntas respecto a sus medias.
4.12 funciones de funciones de variables aleatorias
Sea X una variable aleatoria y sea g(x) una función de valor real definida en el eje
real.
Defina Y= g(X), esto es. Y está determinada por la evaluación de la función en g(x)
en el valor que ha tomado la variable aleatoria X. Entonces Y también es una
variable aleatoria.
Las probabilidades de los valores para Y dependen de la función g(x) así como la
función distribución acumulada de X.
Considere una función no lineal Y=g(X) como es:
donde |dy| es la longitud del intervalo y < Y ≤ (y+dy).
De forma similar, la probabilidad que el evento en cada intervalo es
aproximadamente
Ejemplo
Sea X el valor de las muestras de voltaje de una señal de voz, y suponga que X
tiene una distribución uniforme en el intervalo [-4d,4d].
Sea Y = q(X), donde la función característica de entrada-salida de un cuantizador
(convertidor analógico-digital) se muestra en la figura. Encuentre la función de
probabilidad de masa para Y.
Solución:
El evento {Y=q} para q en SY es equivalente al evento {X en Iq}, donde Iq es un
intervalo de puntos equivalentes mapeados en representación al punto q. La pmf de
Y se encuentra evaluando:
Lo que permite ver fácilmente que la representación de un punto tiene un intervalo
de longitud en él. Entonces existirán ocho posibles salidas equiprobables, es decir,
P[Y=q] = 1/8 para q en SY-
5.1 Muestreo estadístico. Teorema de límite central
La distribución muestral es una distribución teórica. Se crea tomando muchas
muestras de tamaño n de una población. Cada media muestral se trata entonces
como una única observación de esta nueva distribución, la distribución muestral. La
genialidad de pensar de esta manera es que reconoce que cuando tomamos una
muestra estamos creando una observación y esa observación debe provenir de
alguna distribución particular. El teorema del límite central responde a la pregunta:
¿de qué distribución procede la media de una muestra? Si se descubre esto,
entonces podemos tratar una media muestral como cualquier otra observación y
calcular probabilidades sobre los valores que puede tomar. En efecto, hemos
pasado del mundo de la estadística, en el que solo conocemos lo que tenemos de la
muestra, al mundo de la probabilidad, en el que conocemos la distribución de la que
procede la media muestral y los parámetros de esa distribución.
Las razones por las que se toma una muestra de una población son obvias. El
tiempo y el gasto de comprobar cada factura para determinar su validez o cada
envío para ver si contiene todos los artículos puede superar con creces el coste de
los errores de facturación o envío. En el caso de algunos productos, el muestreo
requeriría su destrucción, lo que se denomina muestreo destructivo. Un ejemplo de
ello es la medición de la capacidad de un metal para resistir la corrosión del agua
salada en las piezas de los buques oceánicos.
El muestreo plantea, pues, una cuestión importante: qué muestra se ha extraído.
Incluso si la muestra se extrajeron al azar, en teoría hay un número casi infinito de
muestras. Con solo 100 artículos, se pueden extraer más de 75 millones de
muestras únicas de tamaño cinco. Si hay seis en la muestra, el número de muestras
posibles aumenta a algo más de mil millones. Entonces, de los 75 millones de
muestras posibles, ¿cuál obtuvo? Si hay variación en los artículos que se van a
muestrear, habrá variación en las muestras. Se podría extraer una muestra
"desafortunada" y sacar conclusiones muy erróneas sobre la población. Este
reconocimiento de que cualquier muestra que extraigamos es en realidad solo una
de una distribución de muestras nos proporciona el que probablemente sea el
teorema más importante de la estadística: el teorema del límite central. Sin el
teorema del límite central sería imposible pasar a la estadística inferencial a partir de
la teoría de la probabilidad simple. En su forma más básica, el teorema del límite
central establece que, independientemente de la función de densidad de
probabilidad subyacente de los datos de la población, la distribución teórica de las
medias de las muestras de la población se distribuirá normalmente. En esencia, esto
dice que la media de una muestra debe tratarse como una observación extraída de
una distribución normal. El Teorema del Límite Central solo se cumple si el tamaño
de la muestra es "suficientemente grande", lo que se ha demostrado que es de solo
30 observaciones o más.
Observe que el eje horizontal del panel superior está etiquetado como X. Se trata de
las observaciones individuales de la población. Esta es la distribución desconocida
de los valores de la población. El gráfico está dibujado a propósito de forma
cuadriculada para mostrar que no importa lo extraña que sea en realidad. Recuerde
que nunca sabremos cómo es esta distribución, ni su media ni su desviación típica.
El eje horizontal del panel inferior está etiquetado como X 's. Se trata de la
distribución teórica denominada distribución muestral de las medias. Cada
observación de esta distribución es una media muestral. Todas estas medias
muestrales se calcularon a partir de muestras individuales con el mismo tamaño de
muestra. La distribución muestral teórica contiene todos los valores medios
muestrales de todas las muestras posibles que podrían haberse tomado de la
población. Por supuesto, nadie tomaría realmente todas estas muestras, pero si lo
hicieran, este es el aspecto que tendrían. Y el teorema del límite central dice que se
distribuirán normalmente.
El teorema del límite central va más allá y nos indica la media y la desviación típica
de esta distribución teórica.
La importancia práctica del teorema del límite central es que ahora podemos
calcular las probabilidades de obtener una media muestral, , de la misma manera
que lo hicimos para extraer observaciones específicas, X's, cuando conocíamos la
media y la desviación típica de la población y que los datos de la población estaban
distribuidos normalmente. La fórmula de estandarización tiene que modificarse para
reconocer que la media y la desviación típica de la distribución muestral, a veces
llamada error estándar de la media, son diferentes de las de la distribución de la
población, pero por lo demás no ha cambiado nada. La nueva fórmula de
estandarización es
Observe que en la primera fórmula se ha cambiado por simplemente µ en la
segunda versión. La razón es que matemáticamente se puede demostrar que el
valor esperado de es igual a µ. Esto se ha indicado en la anterior.
Matemáticamente, el símbolo E(x) indica el "valor esperado de x". Esta fórmula se
utilizará en la siguiente unidad para proporcionar estimaciones del parámetro
poblacional desconocido μ.
La ley de los grandes números dice que si se toman muestras cada vez más
grandes de cualquier población, entonces la media de la distribución muestral,
tiende a acercarse cada vez más a la verdadera media de la población, μ. A partir
del teorema del límite central, sabemos que a medida que n se hace más grande,
las medias muestrales siguen una distribución normal. Cuanto mayor sea n, menor
será la desviación típica de la distribución muestral. (Recuerde que la desviación
típica de la distribución muestral de X es ). Esto significa que la media muestral
x debe estar más cerca de la media poblacional μ a medida que n aumenta.
Podemos decir que μ es el valor al que se acercan las medias muestrales a medida
que n es mayor. El teorema del límite central ilustra la ley de los grandes números.
Este concepto es tan importante y desempeña un papel tan decisivo en lo que sigue
que merece un mayor desarrollo. De hecho, hay dos cuestiones críticas que se
derivan del teorema del límite central y de la aplicación de la ley de los grandes
números a este. Estos son
1. La función de densidad de probabilidad de la distribución muestral de las
medias se distribuye normalmente independientemente de la distribución
subyacente de las observaciones de la población y
2. la desviación típica de la distribución muestral disminuye a medida que
aumenta el tamaño de las muestras que se utilizaron para calcular las medias
de la distribución muestral.
Tomando estos en orden. Parece contradictorio que la población pueda tener
cualquier distribución y que la distribución de las medias procedentes de ella se
distribuya normalmente. Con el uso de computadoras, se pueden simular
experimentos que muestran el proceso por el cual la distribución de muestreo
cambia a medida que aumenta el tamaño de la muestra. Estas simulaciones
muestran visualmente los resultados de la demostración matemática del teorema del
límite central.
He aquí tres ejemplos de distribuciones poblacionales muy diferentes y la evolución
de la distribución muestral hacia una distribución normal a medida que aumenta el
tamaño de la muestra. El panel superior en estos casos representa el histograma de
los datos originales. Los tres paneles muestran los histogramas de 1000 muestras
extraídas al azar para diferentes tamaños de muestra: n=10, n= 25 y n=50. A
medida que aumenta el tamaño de la muestra, y el número de muestras tomadas se
mantiene constante, la distribución de las medias de 1000 muestras se acerca más
a la línea suave que representa la distribución normal.
La Figura es para una distribución normal de las observaciones individuales y
esperaríamos que la distribución de muestreo convergieron en la normal
rápidamente. Los resultados lo demuestran y muestran que, incluso con un tamaño
de muestra muy pequeño, la distribución se aproxima a la distribución normal.
La Figura es una distribución uniforme que, de forma un poco sorprendente, se
acerca rápidamente a la distribución normal incluso con solo una muestra de 10.
La Figura es una distribución sesgada. Esta última podría ser una exponencial,
geométrica o binomial con una pequeña probabilidad de éxito creando el sesgo en
la distribución. En el caso de las distribuciones asimétricas, nuestra intuición nos
dice que se necesitarán tamaños de muestra mayores para pasar a una distribución
normal y de hecho, eso es lo que observamos en la simulación. Sin embargo, con
un tamaño de muestra de 50, que no se considera muy grande, la distribución de las
medias muestrales ha adquirido muy decididamente la forma de la distribución
normal.
El teorema del límite central proporciona algo más que la prueba de que la
distribución muestral de las medias se distribuye normalmente. También nos
proporciona la media y la desviación típica de esta distribución. Además, como se
ha comentado anteriormente, el valor esperado de la media, , es igual a la media
de la población de los datos originales que es lo que nos interesa estimar a partir de
la muestra que tomamos. Ya hemos insertado esta conclusión del teorema del límite
central en la fórmula que utilizamos para estandarizar desde la distribución muestral
a la distribución normal estándar. Y, por último, el teorema del límite central también
ha proporcionado la desviación típica de la distribución muestral, , y esto es
crítico para poder calcular las probabilidades de los valores de la nueva variable
aleatoria,
La Figura muestra una distribución de muestreo. La media se ha marcado en el eje
horizontal de las y la desviación típica se ha escrito a la derecha sobre la
distribución. Observe que la desviación típica de la distribución muestral es la
desviación típica original de la población, dividida entre el tamaño de la muestra. Ya
hemos visto que, a medida que aumenta el tamaño de la muestra, la distribución
muestral se acerca cada vez más a la distribución normal. Como esto ocurre, la
desviación típica de la distribución muestral cambia de otra manera; la desviación
típica disminuye a medida que n aumenta. Cuando n es muy grande, la desviación
típica de la distribución muestral se hace muy pequeña y en el infinito colapsa sobre
la media de la población. Esto es lo que significa que el valor esperado de
es la media de la población, µ.
En valores no extremos de n, esta relación entre la desviación típica de la
distribución muestral y el tamaño de la muestra desempeña un papel muy
importante en nuestra capacidad para estimar los parámetros que nos interesan.
La Figura muestra tres distribuciones de muestreo. El único cambio que se ha
realizado es el tamaño de la muestra que se utilizó para obtener las medias
muestrales de cada distribución. A medida que aumenta el tamaño de la muestra, n
pasa de 10 a 30 a 50, las desviaciones típicas de las respectivas distribuciones
muestrales disminuyen porque el tamaño de la muestra está en el denominador de
las desviaciones típicas de las distribuciones muestrales.
Las implicaciones de esto son muy importantes. La Figura muestra el efecto del
tamaño de la muestra en la confianza que tendremos en nuestras estimaciones. Se
trata de dos distribuciones muestrales de la misma población. Una distribución de
muestreo se creó con muestras de tamaño 10 y la otra con muestras de tamaño 50.
Si todo lo demás es constante, la distribución de muestreo con un tamaño de
muestra de 50 tiene una desviación típica menor que hace que el gráfico sea más
alto y estrecho. El efecto importante de esto es que para la misma probabilidad de
una desviación típica de la media, esta distribución cubre mucho menos rango de
valores posibles que la otra distribución. Una desviación típica está marcada en el
eje para cada distribución. Esto se muestra con las dos flechas que son más o
menos una desviación típica para cada distribución. Si la probabilidad de que la
verdadera media esté a una desviación típica de la media, entonces para la
distribución de muestreo con el tamaño de muestra más pequeño, el rango posible
de valores es mucho mayor. Una pregunta sencilla es: ¿preferiría tener una media
muestral de la distribución estrecha y ajustada o de la distribución plana y amplia
como estimación de la media de la población? Su respuesta nos dice por qué la
gente intuitivamente siempre elegirá datos de una muestra grande en lugar de una
muestra pequeña. La media muestral que obtienen procede de una distribución más
compacta. Este concepto será la base de lo que se llamará nivel de confianza en la
siguiente unidad.
El teorema del límite central nos dice que la estimación puntual de la media
muestral, , proviene de una distribución normal de . Esta distribución teórica
se denomina distribución muestral de . Ahora investigamos la distribución de
muestreo para otro parámetro importante que deseamos estimar; p de la función de
densidad de probabilidad binomial.
Si la variable aleatoria es discreta, como en el caso de los datos categóricos, el
parámetro que deseamos estimar es la proporción de la población. Esta es, por
supuesto, la probabilidad de obtener un éxito en cualquier sorteo aleatorio. A
diferencia del caso que acabamos de discutir para una variable aleatoria continua en
la que no conocíamos la distribución poblacional de las X, aquí sí conocemos la
función de densidad de probabilidad subyacente para estos datos; es la binomial. La
variable aleatoria es X = el número de aciertos y el parámetro que deseamos
conocer es p, la probabilidad de sacar un acierto que es, por supuesto, la proporción
de aciertos en la población. La pregunta que se plantea es: ¿a partir de qué
distribución se obtuvo la proporción de la muestra, extraída? El tamaño de
la muestra es n y X es el número de aciertos encontrados en esa muestra. Se trata
de una pregunta paralela a la que acaba de responder el teorema del límite central:
¿de qué distribución era la media de la muestra, , extraída? Vimos que una vez
que supimos que la distribución era la normal, pudimos crear intervalos de confianza
para el parámetro poblacional: µ. También utilizaremos esta misma información para
comprobar las hipótesis sobre la media de la población más adelante. Ahora
queremos ser capaces de desarrollar intervalos de confianza para el parámetro
poblacional "p" a partir de la función de densidad de probabilidad binomial.
Para hallar la distribución de la que proceden las proporciones muestrales,
necesitamos desarrollar la distribución muestral de las proporciones muestrales, al
igual que hicimos con las medias muestrales. Imaginemos de nuevo que tomamos
una muestra aleatoria de, por ejemplo, 50 personas y les preguntamos si apoyan la
nueva emisión de bonos escolares. A partir de esto encontramos una proporción
muestral, p', y la graficamos en el eje de las p'. Hacemos esto una y otra vez, etc.,
hasta que tengamos la distribución teórica de las p'. Algunas proporciones de la
muestra presentarán una alta favorabilidad hacia la emisión de bonos y otras
presentarán una baja favorabilidad porque el muestreo aleatorio refleja la variación
de opiniones dentro de la población. Lo que hemos hecho puede verse en la Figura.
El panel superior es la distribución poblacional de probabilidades para cada valor
posible de la variable aleatoria X. Aunque no sabemos cómo es la distribución
específica porque no conocemos el parámetro poblacional, sí sabemos que debe
ser algo así. En realidad, no conocemos ni la media ni la desviación típica de esta
distribución de la población, la misma dificultad a la que nos enfrentamos al analizar
las X anteriormente.
La figura sitúa la media en la distribución de probabilidades de la población como
µ=np pero, por supuesto, no conocemos realmente la media de la población porque
no conocemos la probabilidad de éxito de la población, p. Debajo de la distribución
de los valores de la población se encuentra la distribución muestral de p's. De
nuevo, el teorema del límite central nos dice que esta distribución se distribuye
normalmente al igual que el caso de la distribución muestral para x¯'s. Esta
distribución muestral también tiene una media, la media de p', y una desviación
típica, σp'.
Es importante destacar que, en el caso del análisis de la distribución de las medias
muestrales, el teorema del límite central nos indicó el valor esperado de la media de
las medias muestrales en la distribución muestral, y la desviación típica de la
distribución muestral. De nuevo, el teorema del límite central proporciona esta
información para la distribución de muestreo de las proporciones. Las respuestas
son
1. El valor esperado de la media de la distribución muestral de las proporciones
de la muestra, µp', es la proporción de población, p.
2. La desviación típica de la distribución muestral de las proporciones de la
muestra, σp', es la desviación típica de la población dividida entre la raíz
cuadrada del tamaño de la muestra, n.
Estas dos conclusiones son las mismas que hemos encontrado para la distribución
de muestreo de las medias de las muestras. Sin embargo, en este caso, como la
media y la desviación típica de la distribución binomial dependen de
p, la fórmula de la desviación típica de la distribución muestral requiere una
manipulación algebraica para ser útil. Lo abordaremos en el próximo capítulo. A
continuación, se ofrece la demostración de estas importantes conclusiones del
teorema del límite central.
(El valor esperado de X, E(x), es simplemente la media de la distribución binomial
que sabemos que es np).
La desviación típica de la distribución muestral de las proporciones es, por tanto, la
siguiente
La Tabla resume estos resultados y muestra la relación entre la población, la
muestra y la distribución muestral. Nótese el paralelismo entre esta Tabla y la Tabla
7.1 para el caso en que la variable aleatoria es continua y estábamos desarrollando
la distribución muestral para las medias.
Repasando la fórmula de la desviación típica de la distribución muestral para las
proporciones vemos que a medida que n aumenta la desviación típica disminuye.
Esta es la misma observación que hicimos para la desviación típica de la
distribución de muestreo para las medias. De nuevo, a medida que aumenta el
tamaño de la muestra, se observa que la estimación puntual de µ o p procede de
una distribución cada vez más estrecha. Llegamos a la conclusión de que, con un
nivel de probabilidad determinado, el rango del que procede la estimación puntual
es menor a medida que aumenta el tamaño de la muestra, n. La figura muestra este
resultado para el caso de las medias muestrales. Simplemente sustituya p' por y
podemos ver el impacto del tamaño de la muestra en la estimación de la proporción
de la muestra.
Hemos visto que el tamaño de la muestra tiene un efecto importante en la varianza
y, por tanto, en la desviación típica de la distribución muestral. También es
interesante la proporción de la población total que ha sido muestreada. Hemos
asumido que la población es extremadamente grande y que hemos muestreado una
pequeña parte de ella. A medida que la población se hace más pequeña y
muestreamos un mayor número de observaciones, las observaciones de la muestra
no son independientes entre sí. Para corregir el impacto de esto, se puede utilizar el
factor de corrección finito para ajustar la varianza de la distribución de muestreo. Es
apropiado cuando se muestrea más del 5 % de la población y esta tiene un tamaño
poblacional conocido. Hay casos en los que se conoce la población, por lo que hay
que aplicar el factor de corrección. El problema se plantea tanto para la distribución
muestral de las medias como para la distribución muestral de las proporciones. El
factor de corrección de la población finita para la varianza de las medias que
aparece en la fórmula de normalización es:
y para la varianza de las proporciones es:
Los siguientes ejemplos muestran cómo aplicar el factor. Las varianzas muestrales
se ajustan mediante la fórmula anterior.
Ejemplo
Se sabe que la población de pastores alemanes blancos en EE. UU. es de 4.000
perros y el peso medio de los pastores alemanes es de 75,45 libras. También se
sabe que la desviación típica de la población es de 10,37 libras.
Si el tamaño de la muestra es de 100 perros, halle la probabilidad de que una
Tenga en cuenta que "difiere en menos" hace referencia al área a ambos lados de la
media dentro de 2 libras a la derecha o a la izquierda.
Ejemplo
Cuando un cliente hace un pedido a Rudy's On-Line Office Supplies, un sistema
informático de información contable (accounting information system, AIS)
comprueba automáticamente si el cliente ha superado su límite de crédito. Los
registros anteriores indican que la probabilidad de que los clientes superen su límite
de crédito es de 0,06.
Supongamos que en un día determinado se realizan 3.000 pedidos en total. Si
seleccionamos al azar 360 pedidos, ¿cuál es la probabilidad de que entre 10 y 20
clientes superen su límite de crédito?
5.2 estimación puntual y estimación por intervalos
Estimación puntual.
la estimación puntual es un proceso mediante el cual se estima el valor de un
parámetro poblacional a partir de los datos de una muestra, esto es que la
estimación puntual consiste en aproximar el valor de un parámetro de una población
usando como referencia el valor muestral del parámetro
Por ejemplo, para determinar la media de una población de 1000 individuos
podemos hacer una estimación puntual y calcular el valor de la media de una
muestra de 50 personas. De manera que podemos tomar el valor de la media
muestral como una estimación puntual de la media poblacional.
Así pues, la estimación puntual sirve para hacer una aproximación de un parámetro
de una población estadística cuyo valor es desconocido. De esta forma, aunque no
se sabe el valor del parámetro poblacional con certeza, nos podemos hacer una
idea de cuánto vale.
Generalmente, el tamaño de la población de un estudio estadístico es muy grande,
por lo que podemos usar la estimación puntual para analizar a menos individuos y
tomar el valor de una muestra como una aproximación del valor de la población.
Por lo tanto, un estimador puntual es el valor muestral de un parámetro que se toma
como una aproximación del valor poblacional de dicho parámetro mediante un
proceso de estimación puntual.
Características de una estimación puntual.
Insesgadez: un estimador insesgado es aquel cuyo valor muestral es igual al valor
de la población. De modo que cuanto mayor sea el sesgo de un estimador, menos
exacto será, nos interesa que el sesgo del estimador puntual sea bajo, para que la
diferencia entre el valor del estimador puntual y el valor real sea lo más próximo a
cero posible.
Consistencia: un estimador consistente es aquel que a medida que se aumenta el
tamaño de la muestra su valor se aproxima más al valor real del parámetro. De
manera que cuanto más grande sea el tamaño muestral, mejor será la estimación
puntual realizada.
Eficiencia: cuanto menor sea la varianza de la distribución muestral del estimador
puntual, mayor será la eficiencia del estimador puntual, si nos basamos solo en esta
característica, entre dos estimadores puntuales siempre escogeremos el estimador
con una eficiencia mayor (o una varianza menor)
Ejemplo
se utilizan los siguientes parámetros estadísticos de una muestra como una
estimación puntual de los parámetros poblacionales:
-La estimación puntual de la media de una población es el valor de la media
aritmética de la muestra. En general, se utiliza el símbolo ẍ para representar el valor
de la media muestral, mientras que el símbolo de la media poblacional es la letra
griega µ.
Por lo que ẍ = µ
- La desviación típica (o desviación estándar) de una población se puede estimar
puntualmente mediante el valor de la desviación típica muestral. La desviación típica
de la población se representa con la letra griega σ y el valor de la desviación típica
de la muestra se indica con la letra s.
Donde s = σ
- La proporción de una población se puede estimar de manera puntual con el valor
de la proporción muestral. El símbolo para la proporción poblacional es la letra p y,
por otro lado, el símbolo de la proporción muestral es ρ
Donde ρ = p
Estimación por intervalos
La estimación por intervalos consiste en establecer el intervalo de valores donde es
más probable se encuentre el parámetro. La obtención del intervalo se basa en las
siguientes consideraciones:
a) Si conocemos la distribución muestral del estimador podemos obtener las
probabilidades de ocurrencia de los estadísticos muestrales.
b) Si conociéramos el valor del parámetro poblacional, podríamos establecer la
probabilidad de que el estimador se halle dentro de los intervalos de la distribución
muestral.
c) El problema es que el parámetro poblacional es desconocido, y por ello el
intervalo se establece alrededor del estimador. Si repetimos el muestreo un gran
número de veces y definimos un intervalo alrededor de cada valor del estadístico
muestral, el parámetro se sitúa dentro de cada intervalo en un porcentaje conocido
de ocasiones. Este intervalo es denominado "intervalo de confianza".
Ejemplo
Se generan 100000 muestras aleatorias (n=25) de una población que sigue la
distribución Normal, y resulta:
La distribución de las Medias muestrales aproxima al modelo Normal:
En consecuencia, el intervalo dentro del cual se halla el 95% de las Medias
muestrales es:
Seguidamente generamos una muestra de la población y obtenemos su media, que
es igual a 4.5. Si establecemos el intervalo alrededor de la media muestral, el
parámetro poblacional (5.1) está incluido dentro de sus límites:
la distancia de un punto A a un punto B es la misma que de B a A , la distancia
desde m a la media muestral es la misma que va de la media muestral a m, si
hacemos un muestreo con un número grande de muestras observamos que el 95%
de las veces (aproximadamente) el valor de la Media de la población (m) se
encuentra dentro del intervalo definido alrededor de cada uno de los valores de la
Media muestral. El porcentaje de veces que el valor de m se halla dentro de alguno
de los intervalos de confianza es del 95%, y es denominado nivel de confianza. Se
establece un intervalo de confianza en que el % de veces que m se halle dentro del
intervalo sea igual al 99%, la expresión anterior es:
Ejemplo
muestra la distribución de las Medias muestrales obtenidas de 100000 muestras
aleatorias y los intervalos alrededor de cada una de las Medias obtenidas de diez de
las muestras:
donde ls y le simbolizan los límites superior e inferior del intervalo de confianza al
95%.
Nueve de los diez intervalos (salvo el definido alrededor de la Media muestral igual a
3.7) incluyen el valor del parámetro dentro sus límites.
La diferencia entre la estimación puntual y la estimación
Esto es por intervalos es el rango de valores que se usan como estimación de un
parámetro. En la estimación puntual se aproxima un parámetro a un valor concreto,
en cambio, en la estimación por intervalos se aproxima un parámetro a un conjunto
de valores.
Es decir, en la estimación por intervalos no se toma un solo valor como
aproximación del parámetro, sino que se toma un intervalo de valores como
referencia. De manera que el valor real del parámetro se encontrará dentro del
intervalo con un nivel de confianza determinado.
Así pues, la estimación puntual es más precisa que la estimación por intervalos
porque reduce la aproximación a un único valor. No obstante, la estimación por
intervalos es más fiable, ya que es más probable que el valor real del parámetro
esté dentro de un intervalo que determinar su valor exacto mediante una estimación
puntual.
5.3 Prueba de hipótesis
Una prueba de hipótesis es una regla que especifica si se puede aceptar o rechazar
una afirmación acerca de una población dependiendo de la evidencia proporcionada
por una muestra de datos.
Una prueba de hipótesis examina dos hipótesis opuestas sobre una población: la
hipótesis nula y la hipótesis alternativa. La hipótesis nula es el enunciado que se
probará. Por lo general, la hipótesis nula es un enunciado de que "no hay efecto" o
"no hay diferencia". La hipótesis alternativa es el enunciado que se desea poder
concluir que es verdadero de acuerdo con la evidencia proporcionada por los datos
de la muestra.
Con base en los datos de muestra, la prueba determina si se puede rechazar la
hipótesis nula. Usted utiliza el valor p para tomar esa decisión. Si el valor p es
menor que el nivel de significancia (denotado como α o alfa), entonces puede
rechazar la hipótesis nula.
Un error común de percepción es que las pruebas estadísticas de hipótesis están
diseñadas para seleccionar la más probable de dos hipótesis. Sin embargo, al
diseñar una prueba de hipótesis, establecemos la hipótesis nula como lo que
queremos desaprobar. Puesto que establecemos el nivel de significancia para que
sea pequeño antes del análisis (por lo general, un valor de 0.05 funciona
adecuadamente), cuando rechazamos la hipótesis nula, tenemos prueba estadística
de que la alternativa es verdadera. En cambio, si no podemos rechazar la hipótesis
nula, no tenemos prueba estadística de que la hipótesis nula sea verdadera. Esto se
debe a que no establecimos la probabilidad de aceptar equivocadamente la
hipótesis nula para que fuera pequeña.
Las hipótesis nula y alternativa son dos enunciados mutuamente excluyentes acerca
de una población. Una prueba de hipótesis utiliza los datos de la muestra para
determinar si se puede rechazar la hipótesis nula.
Hipótesis nula (H0)
La hipótesis nula indica que un parámetro de población (tal como la media, la
desviación estándar, etc.) es igual a un valor hipotético. La hipótesis nula suele ser
una afirmación inicial que se basa en análisis previos o en conocimiento
especializado.
Hipótesis alternativa (H1)
La hipótesis alternativa indica que un parámetro de población es más pequeño, más
grande o diferente del valor hipotético de la hipótesis nula. La hipótesis alternativa
es lo que usted podría pensar que es cierto o espera probar que es cierto.
La hipótesis alternativa puede ser unilateral o bilateral.
Bilateral
Utilice una hipótesis alternativa bilateral (también conocida como hipótesis no
direccional) para determinar si el parámetro de población es mayor que o menor que
el valor hipotético. Una prueba bilateral puede detectar cuándo el parámetro de
población difiere en cualquier dirección, pero tiene menos potencia que una prueba
unilateral.
Unilateral
Utilice una hipótesis alternativa unilateral (también conocida como hipótesis
direccional) para determinar si el parámetro de población difiere del valor hipotético
en una dirección específica. Usted puede especificar la dirección para que sea
mayor que o menor que el valor hipotético. Una prueba unilateral tiene mayor
potencia que una prueba bilateral, pero no puede detectar si el parámetro de
población difiere en la dirección opuesta.
5.4 Regresión lineal y no lineal
¿Qué es la regresión lineal?
La regresión lineal es un modelo matemático que describe la relación entre varias
variables. Los modelos de regresión lineal son un procedimiento estadístico que
ayuda a predecir el futuro. Se utiliza en los campos científicos y en los negocios, y
en las últimas décadas se ha utilizado en el aprendizaje automático.
La tarea de la regresión en el aprendizaje automático consiste en predecir un
parámetro (Y) a partir de un parámetro conocido X.
¿Por qué es importante la regresión lineal?
Los modelos de regresión lineal son muy populares en diversos campos de
investigación gracias a su rapidez y facilidad de interpretación.
Debido a su capacidad para transformar datos, pueden utilizarse para simular una
amplia gama de relaciones, y debido a su forma, que es más simple que la de las
redes neuronales, sus parámetros estadísticos se analizan y comparan con
facilidad, lo que permite que se les extraiga información valiosa.
La regresión lineal no sólo se utiliza con fines de predicción: también ha demostrado
su eficacia para describir sistemas. Si quieres modelar los valores de una variable
numérica, tendrás una lista relativamente corta de variables independientes y, como
esperas que el modelo sea comprensible, es probable que elijas la regresión lineal
como herramienta de modelización.
Tipos de regresión lineal
Dependiendo de los objetivos del estudio, puedes elegir entre diversos tipos de
análisis de regresión:
Simple
En una regresión lineal, se trata de establecer una relación entre una variable
independiente y su correspondiente variable dependiente. Esta relación se expresa
como una línea recta. No es posible trazar una línea recta que pase por todos los
puntos de un gráfico si estos se encuentran ordenados de manera caótica. Por lo
tanto, sólo se determina la ubicación óptima de esta línea mediante una regresión
lineal. Algunos puntos seguirán distanciados de la recta, pero esta distancia debe
ser mínima. El cálculo de la distancia mínima de la recta a cada punto se denomina
función de pérdida.
La ecuación de una línea recta tiene la siguiente forma:
donde:
Y es la variable independiente.
β₀ y β₁ son dos constantes desconocidas que representan el punto de intersección y
la pendiente respectivamente.
ε (epsilon) es la función de pérdida.
A continuación se muestra un ejemplo gráfico de un modelo de una regresión lineal
simple:
Limitaciones de la regresión lineal simple:
La regresión lineal simple establece que existe una relación entre las variables, pero
no revela una relación causal: Y depende de , pero no implica que genere a Y.
Si necesitas establecer algo más que la existencia de una relación, tendrás que
hacer análisis adicionales.
Múltiple
La regresión lineal múltiple encuentra la relación entre dos o más variables
independientes y su correspondiente variable dependiente.
La ecuación de regresión lineal múltiple tiene la siguiente forma:
Donde:
Y es la variable dependiente.
X es una variable independiente.
β son coeficientes.
ε (epsilon) es la función de pérdida.
A continuación se muestra un ejemplo de gráfico de un modelo de regresión lineal
múltiple:
Aplicaciones de la regresión lineal múltiple:
Este tipo de regresión permite predecir tendencias y valores futuros. El análisis de
regresión lineal múltiple ayuda a determinar el grado de influencia de las variables
independientes sobre la variable dependiente, es decir, cuánto cambiará la variable
dependiente cuando cambiemos las variables independientes.
Regresión no lineal
Última actualización: 2022-09-13
Regresión no lineal es un método para encontrar un modelo no lineal para la
relación entre la variable dependiente y un conjunto de variables independientes. A
diferencia de la regresión lineal tradicional, que está restringida a la estimación de
modelos lineales, la regresión no lineal puede estimar modelos con relaciones
arbitrarias entre las variables independientes y las dependientes. Esto se lleva a
cabo usando algoritmos de estimación iterativos. Tenga en cuenta que este
procedimiento no es necesario para modelos polinomiales simples de la forma Y = A
+ BX**2. Al definir W = X**2, obtenemos un modelo lineal simple, Y = A + BW, que
se puede estimar utilizando métodos tradicionales como el procedimiento de
Regresión lineal.
Ejemplo. ¿Puede pronosticarse la población basándose en el tiempo Un diagrama
de dispersión muestra que parece haber una estrecha relación entre la población y
el tiempo, pero la relación es no lineal y por eso exige la utilización de los métodos
de estimación especiales del procedimiento Regresión no lineal. Creando una
ecuación adecuada, como la del modelo logístico de crecimiento poblacional,
podemos obtener una buena estimación del modelo, lo que nos permitirá hacer
predicciones sobre la población para épocas que no se han sido medidas.
Estadísticas. Para las iteraciones: estimaciones de los parámetros y suma de
cuadrados residual. Para los modelos: suma de cuadrados para regresión, residual,
total corregido y no corregido, estimaciones de los parámetros, errores estándar
asintóticos y matriz de correlaciones asintóticas de estimaciones de los parámetros.
Consideraciones sobre datos de regresión no lineal
Datos. Las variables dependiente e independientes deben ser cuantitativas. Las
variables categóricas, como la religión, la mayoría de edad o el lugar de residencia,
han de recodificarse como variables binarias (dummy) o como otro de los tipos de
variables de contraste.
Supuestos. Los resultados son válidos sólo si se ha especificado una función que
describa con precisión la relación entre las variables independientes y las
dependientes. Además, la elección de buenos valores iniciales es muy importante.
Incluso si se ha especificado la forma funcional correcta para el modelo, si no utiliza
valores iniciales adecuados, puede que su modelo no logre converger o puede que
obtenga una solución que sea óptima localmente en vez de una que sea óptima
globalmente.
Procedimientos relacionados. Muchos modelos que en un principio parecen ser no
lineales pueden ser transformados en un modelo lineal, el cual pueda ser analizado
usando el procedimiento Regresión lineal. Si no está seguro de cuál es el modelo
adecuado, el procedimiento Estimación curvilínea puede ayudarle a identificar
relaciones funcionales útiles que estén presentes en los datos.
Comparación entre regresión no lineal y lineal
Para una explicación básica de la regresión no lineal, es importante entender las
similitudes y diferencias entre ésta y la regresión lineal.
Similitudes
Ambos análisis:
Describen matemáticamente la relación entre una variable de respuesta y una o
más variables predictoras.
Pueden modelar una relación curva.
Minimizan la suma de los cuadrados del error residual (SSE).
Tienen los mismos supuestos que usted puede verificar utilizando las gráficas de
residuos.
Diferencias
La diferencia fundamental entre las regresiones lineal y no lineal, y la base para los
nombres de los análisis, son las formas funcionales aceptables del modelo.
Específicamente, la regresión lineal requiere parámetros lineales mientras que la no
lineal no. Utilice la regresión no lineal en lugar de la regresión lineal cuando no
pueda modelar adecuadamente la relación con parámetros lineales.
Una función de regresión lineal debe ser lineal en los parámetros, lo cual restringe la
ecuación a una sola forma básica. Los parámetros son lineales cuando cada término
del modelo es aditivo y contiene solo un parámetro que multiplica el término:
Respuesta = constante + parámetro * predictor + ... + parámetro * predictor
Sin embargo, una ecuación no lineal puede adoptar muchas formas diferentes. De
hecho, debido a que el número de posibilidades es infinito, usted debe especificar la
función de expectativa que Minitab utiliza para realizar la regresión no lineal. Estos
ejemplos ilustran la variabilidad (las θ representan los parámetros):
La función que se elige suele depender del conocimiento previo de la forma de la
curva de respuesta o del comportamiento de las propiedades físicas y químicas del
sistema. Las formas no lineales posibles incluyen curvas cóncavas, convexas, de
crecimiento o descenso exponencial, sigmoidales (S) y asintóticas. Usted debe
especificar la función que satisfaga tanto los requisitos que dicte el conocimiento
previo como los supuestos de la regresión no lineal.
Aunque la flexibilidad para especificar muchas funciones de expectativa diferentes
es muy conveniente, también es cierto que puede requerirse un gran esfuerzo para
determinar la función que proporcione el ajuste óptimo para los datos. Esto, con
frecuencia, requiere investigación adicional, conocimiento del área de estudio y
análisis de ensayo y error. Además, en el caso de las ecuaciones no lineales,
determinar el efecto que tiene cada predictor sobre la respuesta puede ser menos
intuitivo que para las ecuaciones lineales.
REFERENCIAS
C, J. L. H., S, D. G., & T, L. a. M. (2014). La distribución Beta Generalizada como un modelo
de sobrevivencia para analizar la evasión universitaria. Estudios Pedagógicos.
https://doi.org/10.4067/s0718-07052014000100008
Muñoz, F. (2014). Distribuciones Poisson y Gamma: Una Discreta y Continua Relación.
Prospectiva, 12(1), 99. https://doi.org/10.15665/rp.v12i1.156
Distribución de Weibull - Minitab. (n.d.). (C) Minitab, LLC. All Rights Reserved. 2023.
https://support.minitab.com/es-mx/minitab/21/help-and-how-to/probability-distributions-rando
m-data-and-resampling-analyses/supporting-topics/distributions/weibull-distribution/#:~:text=
La%20distribuci%C3%B3n%20de%20Weibull%20es,de%20calidad%2C%20finanzas%20y
%20climatolog%C3%ADa.
Predictiva. (2020). Análisis Weibull: Ejemplos Básicos de como usarlo para los Análisis de
Confiabilidad. Predictiva21. https://predictiva21.com/analisis-weibull-ejemplos/
Distribución Normal. (s. f.).
http://prepa8.unam.mx/academia/colegios/matematicas/paginacolmate/applet
s/matematicas_VI_12/Applets_Geogebra/disnormal.html#:~:text=La%20distri
buci%C3%B3n%20normal%20sirve%20para,funci%C3%B3n%20que%20des
cribe%20el%20modelo.
Admin. (2017). LA DISTRIBUCIÓN NORMAL. Revista Chilena de Anestesia.
https://revistachilenadeanestesia.cl/la-distribucion-normal/#:~:text=La%20disti
buci%C3%B3n%20normal%20est%C3%A1ndar%20es,cada%20lado%20de
%20la%20curva.
¿Qué es una prueba de hipótesis? - Minitab. (s. f.). (C) Minitab, LLC. All rights
Reserved. 2021.
https://support.minitab.com/es-mx/minitab/20/help-and-how-to/statistics/basic-
statistics/supporting-topics/basics/what-is-a-hypothesis-test/
DEPARTAMENTO DE ESTADISTICA. (2008, November 5). 5. VARIABLES
ALEATORIAS Y SUS MOMENTOS. UNIVERSIDAD CARLOS III DE MADRID.
Retrieved June 1, 2023, from
https://halweb.uc3m.es/esp/personal/personas/mwiper/docencia/spanish/teoria_est_
el/tema5.pdf
Jorge, & Jorge. (2022). Función de probabilidad de una variable aleatoria continua |
Matemóvil. MateMovil. https://matemovil.com/funcion-de-densidad-de-probabilidad/
Distribución de ji cuadrado. (s. f.). Introducción a la estadística | JMP.
https://www.jmp.com/es_mx/statistics-knowledge-portal/chi-square-test/chi-sq
uare-distribution.html