Unidad 5
Variable Aleatoria
Conceptualmente podemos decir que una variable aleatoria es una funcion que asigna
valores numéricos a los posibles resultados de un determinado experimento aleatorio, es
decir, es una forma de representar de manera cuantitativa los resultados de un evento
incierto. Proporciona un medio para describir los resultados experimentales empleado
valores numéricos.
Su concepto técnico la define como una función que asigna un numero real a cada
elemento del espacio muestral de un experimento aleatorio. Recordamos que el espacio
muestral es el conjunto de todos los posibles resultados del experimento y la variable
aleatoria asigna un numero real a cada uno de estos resultados.
A modo de ejemplo podemos considerar el lanzamiento de un dado. El espacio muestral
para este experimento consiste en los resultados posibles: {1, 2, 3, 4, 5, 6}. Una variable
aleatoria asociada a este experimento podría ser el número obtenido en el lanzamiento.
Esta variable aleatoria asigna un número a cada resultado del espacio muestral: 1, 2, 3, 4,
5, 6.
Las variables aleatorias son fundamentales en la teoría de la probabilidad porque nos
permiten cuantificar y analizar diferentes aspectos de los experimentos aleatorios
Las clasificaciones de la variable aleatoria, pueden ser discretas o continuas,
dependiendo del tipo de valor numérico que asuma.
Variable Aleatoria Discreta
Conceptualmente podemos decir que una variable aleatoria discreta en probabilidad es
aquella que toma valores aislados o contables. Es una variable que asume un numero
finito de valores o una sucesión infinita de valores. En otras palabras mas simples
podemos decir que los valores que puede asumir están separados y se pueden enumerar.
Por ejemplo, considera el lanzamiento de un dado justo. La variable aleatoria asociada a
este experimento es el número obtenido en el lanzamiento. Los posibles valores que
puede tomar son {1, 2, 3, 4, 5, 6}, y cada valor tiene una probabilidad de 1/6 de ocurrir, ya
que el dado justo tiene 6 caras
Aunque los resultados de muchos experimentos se describen mediante valores
numéricos, los de otros no. Por ejemplo, en una encuesta se le puede preguntar a una
persona si recuerda el mensaje de un comercial de televisión. Este experimento tiene dos
resultados: que la persona no recuerda el mensaje y que la persona recuerda el mensaje.
Sin embargo, estos resultados se describen numéricamente definiendo una variable
aleatoria x como sigue: sea x
0 si la persona no recuerda el mensaje y sea x
1 si la persona recuerda el mensaje.
Las variables aleatorias discretas permiten calcular probabilidades exactas, ya que estas
se pueden sumar o manipular de forma discreta.
Función de Probabilidad
Conceptualmente la función de probabilidad también es conocida como función de masa
de probabilidad para las variables aleatorias discretas, es la función encargada de asignar
la probabilidad a cada uno de los valores posibles de una variable aleatoria.
La función de probabilidad se denota por f(x) donde f es el la variable aleatoria y x es el
valor posible que puede tomar. La definición mas técnica de la variable de probabilidad
nos dice que: Sea X una Variable Aleatoria (v.a.) la función de probabilidad puntual será:
p(X)=P(X=x) para todo x R.
La función de probabilidad cumple con las propiedades de:
No negatividad: Es decir, la probabilidad asignada a cada valor posible de la
variable aleatoria es no negativa, es decir, P(X) ≥ 0 para todo x.
Probabilidad total: Es decir, la suma de todas las probabilidades asignadas a los
valores posibles de la variable aleatoria es igual a 1. Matemáticamente se lo
expresa como Σ P(x) = 1.
En la practica generalmente la función de probabilidad se puede representar mediante
una tabla o mediante un grafico que nos muestra los valores posibles de la variable
aleatoria y las probabilidades correspondientes. Lo que nos permite visualizar de manera
clara la distribución de probabilidades de la variable aleatoria.
A modo de ejemplo podemos suponer que lanzamos un dado justo y queremos calcular la
función de probabilidad para la variable aleatoria que representa el numero obtenido en el
lanzamiento. Los posibles valores que puede tomar esta variable aleatoria son {1, 2, 3, 4,
5, 6}. Dado que se trata de un dado justo, cada valor tiene la misma probabilidad de
ocurrir, que es de 1/6.
La función de probabilidad para esta variable aleatoria sería la siguiente:
P(X = 1) = 1/6
P(X = 2) = 1/6
P(X = 3) = 1/6
P(X = 4) = 1/6
P(X = 5) = 1/6
P(X = 6) = 1/6
Esto indica que la probabilidad de obtener un 1 en el lanzamiento del dado es 1/6, al igual
que la probabilidad de obtener un 2, un 3, un 4, un 5 o un 6.
Una ventaja importante de definir una variable aleatoria y su correspondiente distribución
de probabilidad es que una vez que se conoce la distribución de probabilidad, es mas fácil
determinar la probabilidad de diversos eventos que pueden ser útiles en la materia al
momento de la toma de decisiones.
Función de Distribución.
Conceptualmente podemos decir que la funciona de distribución proporciona la
probabilidad acumulada de que una variable aleatoria sea menor o igual a un valor dado.
Tecnicamente podemos decir que Se llama función de distribución acumulativa, de una
variable aleatoria , discreta o continua, a una función tal que F(x) = P( X ≤ x)
La funcion de distribución cumple las propiedades de:
No negatividad: Es decir, la función de distribución es no negativa para todos los
valores x, es decir, F(x) ≥ 0.
Monotonía: Es decir, la función de distribución es monótonamente creciente, lo
que significa que a medida que x aumenta, la probabilidad acumulada también
aumenta o permanece constante. Esto se puede expresar como F(x₁) ≤ F(x₂) si x₁
≤ x₂.
Límites de probabilidad: Es decir, la función de distribución tiene límites de
probabilidad en los extremos, es decir, cuando x tiende a menos infinito, la
probabilidad acumulada tiende a cero (F(-∞) = 0), y cuando x tiende a más infinito,
la probabilidad acumulada tiende a uno (F(∞) = 1)
En la practica, la funcion de distribución se utiliza para calcular la probabilidad de que una
variable aleatoria tome valores dentro de un rango determinado. Esto se realiza mediante
la diferencia de probabilidades acumuladas en los extremos del rango. Con denotación
matemática, para un intervalo cerrado a,b, la probabilidad de que X este dentro de ese
intervalo se lo calcula mediante la formula de :
P(a ≤ X ≤ b) = F(b) - F(a)
Es importante destacar en este punto que la funcion de distribución se utiliza tanto para
variables aleatorias discretas como continuas, la explicación de la continua lo desarrollare
mas adelante.
A modo de ejemplo podemos suponer que tenemos una variable aleatoria X que
representa el número de caras obtenidas al lanzar una moneda justa dos veces. Los
posibles valores que puede tomar esta variable aleatoria son {0, 1, 2}. Ahora,
calcularemos la función de distribución acumulativa (FDA) para cada valor posible.
Para x = 0:
F(0) = P(X ≤ 0) = P(X = 0) = 1/4
Para x = 1:
F(1) = P(X ≤ 1) = P(X = 0) + P(X = 1) = 1/4 + 2/4 = 3/4
Para x = 2:
F(2) = P(X ≤ 2) = P(X = 0) + P(X = 1) + P(X = 2) = 1/4 + 2/4 + 1/4 = 4/4 = 1
Entonces, la función de distribución acumulativa para esta variable aleatoria discreta sería
la siguiente:
0 | 1/4
1 | 3/4
2|1
Esta funcion de distribución acumulativa nos indica las probabilidades acumuladas de
obtener un valor igual o menor a cada valor posible de la variable aleatoria X. Por
ejemplo, la probabilidad de obtener 0 o menos caras es 1/4 , la probabilidad de obtener 1
o menos caras es 3/4 , y la probabilidad de obtener 2 o menos caras es 1.
Valor esperado
Conceptualmente podemos decir que el valor esperado o media de una variable aleatoria
es una medida de localización central que representa al promedio ponderado de los
posibles valores de una variable.
Formalmente podemos denotarlo como E(X) y se define como la suma de cada valor
posible de X multiplicado por su probabilidad correspondiente. La expresión matemática
es:
E(X) = Σ(x * P(X = x))
Donde x representa cada valor posible de X y P(X = x) es la probabilidad de que X tome
ese valor.
Esta imagen anterior indica que para calcular el valor esperado de una variable aleatoria
discreta se multiplica cada valor de la variable aleatoria por su probabilidad
correspondiente f(x) y después se suman estos productos
Para los casos de variables aleatorias continuas, la formula procede a convertirse en una
integral
E(X) = ∫(x * f(x)) dx
Donde f(x) es la función de densidad de probabilidad de X.
El valor esperado lo que realiza es mostrar el centro de gravedad o el promedio
ponderado de los valores posibles de una variable aleatoria. Nos da una idea clara de
donde se encuentra la mayor concentración de valores de una variable y es una medida
fundamental para el análisis de las caracteristicas de una distribución de probabilidad.
El valor esperado tiene propiedades como:
Linealidad: El valor esperado es lineal, lo que significa que si a y b son constantes
y X e Y son variables aleatorias, entonces E(aX + bY) = aE(X) + bE(Y).
Consistencia: Si todos los valores posibles de una variable aleatoria son iguales, el
valor esperado es igual a ese valor.
Monotonía: Si X e Y son dos variables aleatorias y X ≤ Y siempre, entonces E(X) ≤
E(Y).
El valor esperado aparte de ser útil para realizar comparaciones, estimaciones y
predicciones basadas en las característica de una variable aleatoria, es clave en el calculo
de otras cantidades estadísticas como la varianza y desviación estándar.
Varianza
La varianza es la medida de dispersión que proporciona una medida cuantitativa de que
tan dispersos están los valores de una variable alrededor de su valor esperado. En el
caso de la variable aleatoria discreta, se utiliza la varianza para resumir la variabilidad en
los valores de la variable aleatoria. Tambien podríamos decir que la varianza es un
promedio ponderado de los cuadrados de las desviaciones de una variable aleatoria de su
media. La misma se calcula sumando los cuadrados de las diferencias entre cada valor
posible de X y su correspondiente valor esperado, bajo la ponderación de las
probabilidades correspondientes.
En términos matemáticos, la varianza de una variable aleatoria discreta se la denota como
El punto principal en el cual se enfoca la varianza es en capturar la dispersión de los
valores de una variable aleatoria en relación con su valor esperado. Una varianza alta nos
indicaría un mayor nivel de dispersión de los valores respecto a la media, y una varianza
baja nos indicaría un menor nivel de dispersión.
La varianza cuenta con ciertas propiedades tal como:
La varianza siempre es no negativa, es decir, Var(X) ≥ 0.
Si todos los valores posibles de X son iguales, la varianza es cero.
La varianza es invariante ante cambios en la ubicación, es decir, Var(X + c) =
Var(X) donde c es una constante.
La varianza es sensible a cambios de escala, es decir, Var(aX) = a^2 * Var(X)
donde a es una constante
Es importante destacar que la varianza es una medida cuadrática, lo que implica que los
resultados están en unidades cuadradas de la variable aleatoria original, si nosotros
necesitaramos una medida de dispersión en las mismas unidades que la variable original,
deberíamos recurrir a la desviación estándar.
Desviación Estándar
La desviación estándar es una medida de dispersión que proporciona una medida de
cuanto se desvían los valores de una variable aleatoria discreta de su valor esperado o
media. Básicamente podemos decir que es la raíz cuadrada positiva de la varianza. Su
aplicación es simple ya que solamente debemos realizar este calculo matemático a un
valor que ya tenemos como la varianza. La podríamos denotar como:
Desviación estándar (σ) = √Var(X)
Donde Var(X) representa la varianza de la variable aleatoria X.
Lo que nos proporciona la desviación estándar es una estimación de la dispersión
promedio de los valores de una variable aleatoria alrededor de su valor esperado. Nos
indica cuanto se espera que los valores difieran del valor esperado.
La desviación estándar tiene las siguientes propiedades:
Si todos los valores posibles de X son iguales, la desviación estándar es cero.
La desviación estándar es siempre no negativa, es decir, σ ≥ 0.
Dependiendo el resultado que nos arroje la desviación, es la interpretación que se debe
hacer, por ejemplo si la desviación estándar es baja, los valores tienden a estar
agrupados cerca del valor esperado, lo que indica una menor dispersión. Por otro lado, si
la desviación estándar es alta, los valores tienden a estar más dispersos alrededor del
valor esperado.
Distribución Binominal
Conceptualmente podemos decir que la distribución de probabilidad binomial es un
modelo que describe el numero de éxitos de una serie de experimentos independientes,
donde cada experimento tiene dos posibles resultados, el éxito o el fracaso. Es un tipo de
distribución de probabilidad discreta utilizada ampliamente en diversas aplicaciones tales
como estudios de fiabilidad, pruebas de hipótesis y análisis de datos.
Dicha distribución esta caracterizada puntualmente por dos parámetros denominados n y
p
El parámetro n representa el número total de experimentos o ensayos
independientes.
El parámetro p es la probabilidad de éxito en cada experimento
La funcion matemática de probabilidad de dicha distribución para un valor especifico
k(que seria el numero de éxitos) esta definida como:
P(X = k) = C(n, k) * p^k * (1 - p)^(n - k)
Donde:
C(n, k) es el coeficiente binomial, que se calcula como C(n, k) = n! / (k! * (n -
k)!)
p^k representa la probabilidad de k éxitos.
(1 - p)^(n - k) representa la probabilidad de que los restantes (n - k) ensayos
sean fracasos.
La distribución Binomial esta relacionada directamente con un experimento de pasos
multiples que se lo conoce como experimento binomial, dicho experimento cuenta de 4
propiedades especificas.
Un ejemplo muy común de aplicación de la distribución binomial es el lanzamiento de una
moneda. Supongamos que lanzamos una moneda 10 veces y queremos calcular la
probabilidad de obtener exactamente 6 caras. En este caso, n = 10 (10 lanzamientos) y p
= 0.5 (probabilidad de obtener cara en cada lanzamiento). Usando la fórmula de la
distribución binomial, podemos calcular:
P(X = 6) = C(10, 6) * 0.5^6 * (1 - 0.5)^(10 - 6) = 0.2051
Esto significa que la probabilidad de obtener exactamente 6 caras en 10 lanzamientos de
una moneda justa es de aproximadamente 0.2051, o 20.51%
En la practica cotidiana, se puede decir que la distribución binomial tiene muchas
aplicaciones ya que se lo utiliza para el análisis de tazas de éxito en pruebas de distintos
ámbito asi como tambien en el calculo de probabilidades de juegos de azar.
Distribución de Poisson
Conceptualmente podemos decir que la distribución de Poisson es un modelo de
probabilidad discreto que se utiliza para describir la ocurrencia de eventos raros en un
intervalo de tiempo o especio especifico. Se utiliza el numero de eventos que ocurren en
un intervalo de tiempo dado es independiente de la ocurrencia de eventos en otros
intervalos y la tasa promedio de ocurrencia de eventos es constante.
La distribución de Poisson esta caracterizada por un paramentro λ, que representa a la
tasa promedio de ocurrencia de eventos por unidad de tiempo o espacio.
La funcion de probabilidad de la distribución de Poisson para un determinado valor
especifico k (es decir, el numero de eventos que ocurren) se define como:
P(X = k) = (e^(-λ) * λ^k) / k!
Donde:
e es la base del logaritmo natural (aproximadamente 2.71828).
λ es el parámetro de tasa promedio de ocurrencia de eventos.
k! es el factorial de k.
Debemos tener en cuenta que los experimentos de Poisson tiene ciertas propiedades que
se deben cumplir, tales como:
La probabilidad de ocurrencia es la misma para cualquiera dos intervalos de la
misma magnitud.
La ocurrencia o no-ocurrencia en cualquier intervalo es independiente de la
ocurrencia o no-ocurrencia en cualquier otro intervalo.
Un ejemplo común de aplicación de la distribución de Poisson es el conteo de llamadas
telefónicas recibidas en un centro de atención durante un período de tiempo.
Supongamos que en promedio se reciben 4 llamadas telefónicas por minuto. Podemos
usar la distribución de Poisson para calcular la probabilidad de recibir exactamente 6
llamadas telefónicas en un minuto. Usando la fórmula de la distribución de Poisson,
podemos calcular:
P(X = 6) = (e^(-4) * 4^6) / 6! ≈ 0.1042
Esto significa que la probabilidad de recibir exactamente 6 llamadas telefónicas en un
minuto, cuando la tasa promedio de llamadas es de 4 por minuto, es de aproximadamente
0.1042, o 10.42%.
La distribución de Poisson es ampliamente utilizada en el análisis de datos y la
modelización de eventos raros en una variedad de campos, incluyendo
telecomunicaciones, seguridad, finanzas y epidemiología
Distribuciones de Variables Aleatorias Continuas
Conceptualmente una variable aleatoria continua es aquella cuyos valores pueden tomar
cualquier valor dentro de un intervalo o conjunto de valores especifico. A su vez, la
distribución de una variable aleatoria continua se refiere a la forma en que los posibles
valores de una variable están distribuidos en un rango continuo. Describe la probabilidad
de que la variable tome valores dentro de los diferentes intervalos de rango.
Una variable aleatoria continua se define a través de su función de probabilidad, que
describe la distribución de probabilidad de los posibles valores que puede tomar la
variable aleatoria. La función es no negativa y satisface ciertas propiedades tales como:
La integral de la función de densidad sobre todos los valores posibles debe ser
igual a 1:
∫f(x) dx = 1
La probabilidad de que la variable aleatoria tome un valor específico es siempre
cero:
P(a ≤ X ≤ b) = ∫f(x) dx = 0, donde a y b son dos valores individuales.
Como la variable aleatoria continua puede tomar valores en un rango continuo, la
probabilidad se mide en términos de áreas bajo la curva de la función de densidad. La
probabilidad de que la variable aleatoria caiga dentro de un intervalo especifico se obtiene
realizando la integral de la función de densidad sobre ese determinado intervalo.
Las variables aleatorias continuas se encuentran comúnmente en fenómenos físicos y en
muchas aplicaciones prácticas, como la duración de un evento, mediciones de tiempo,
peso, altura, temperatura, etc.
Existen diversas distribuciones de probabilidad continuas que se utilizan en diferentes
situaciones. Algunas de las distribuciones continuas más comunes son:
Distribución Normal (o Gaussiana): Es una de las distribuciones más importantes y
se utiliza para modelar una amplia variedad de fenómenos. Tiene una forma de
campana simétrica y está completamente determinada por su media y desviación
estándar.
Distribución Uniforme: Todos los valores dentro de un rango tienen la misma
probabilidad. La función de densidad es constante dentro del rango y cero fuera de
él.
Distribución Exponencial: Se utiliza para modelar el tiempo entre eventos en un
proceso de Poisson. Tiene una cola larga y se caracteriza por su tasa de
ocurrencia media.
Distribución Gamma: Es una distribución generalizada que puede utilizarse para
modelar tiempos de espera, duraciones y otros procesos relacionados.
Distribución Beta: Se utiliza comúnmente para modelar proporciones y
probabilidades en un rango acotado.
Distribución Lognormal: Se utiliza para modelar variables que tienen distribuciones
asimétricas positivas, como los precios de las acciones.
Es importante tener en cuenta que cada distribución de probabilidad continua tiene su
propia función de densidad y propiedades específicas. La elección de la distribución
adecuada depende del fenómeno que se esté modelando y de las características de los
datos observados.
Funcion de distribución para variables aleatorias continuas
Conceptualmente la funcion de distribución para variables aleatorias continuas, tambien
se la conoce como funcion de distribución acumulativa y proporciona la probabilidad
acumulada de que una variable aleatoria continua sea menor o igual a un valor especifico.
Es generalmente denotada en la practica como:
F(x) = P(X ≤ x) = ∫f(t) dt
desde menos infinito hasta x
Donde:
f(t) es la función de densidad de probabilidad (FDP) de la variable aleatoria continua X.
Respecto a la función, respeta las siguientes propiedades:
F(x) es no decreciente: Es decir, a medida que x aumenta, F(x) no disminuye. Es
decir, a medida que nos movemos hacia la derecha en la escala de valores, la
probabilidad acumulada no puede disminuir.
F(x) está acotada: Es decir, la función de distribución acumulativa está acotada
entre 0 y [Link] consecuente, la probabilidad acumulada siempre se encuentra en
el rango de 0 a 1.
F(x) es continua desde la derecha: Es decir, la función de distribución acumulativa
es continua en todos los puntos excepto posiblemente en los puntos de salto,
donde se producen cambios abruptos en la probabilidad acumulada.
Una de las aplicaciones principales de dicha funcion es calcular probabilidades
acumuladas usadas para calcular probabilidades individuales. Es decir, si necesitaramos
calcular la probabilidad de que la variable aleatoria caiga dentro de un intervalo especifico
(a,b] podemos restar la probabilidad acumulada en a de la probabilidad acumulada en b.
Si denotaramos esto en formula, nos quedaría que:
P(a < X ≤ b) = F(b) - F(a)
Un ejemplo de función de distribución acumulativa es la de una distribución normal
estándar. La funcion de una distribución normal estándar se denota como Φ(z) y
proporciona la probabilidad acumulada de que una variable aleatoria normal estándar sea
menor o igual a un valor específico z. Esta función se utiliza ampliamente en el campo de
la estadística y se encuentra disponible en la tabla o calculadoras estadísticas
Funcion de Densidad para variables aleatorias continuas
La funcion de densidad de probabilidad es una funcion que describe la distribución de
probabilidad de una variable aleatoria continua. Nos proporciona la probabilidad relativa
de que la variable aleatoria tome valores dentro de un rango continuo de posibles valores.
En conceptos matemáticos, la funcion de densidad de probabilidad se denota como f(x),
donde la x representa el valor de la variable aleatoria continua. Y debe cumplir con las
siguientes propiedades:
f(x) ≥ 0: Es decir, la función de densidad es siempre no negativa. La probabilidad
de que la variable aleatoria tome cualquier valor específico es mayor o igual a
cero.
La integral de la función de densidad sobre todos los valores posibles es igual a 1:
∫f(x) dx = 1
La funcion de densidad proporciona información sobre la forma de la distribución de
probabilidad de la variable aleatoria continua. La forma especifica de la funcion de
densidad depende del tipo de distribución que se este utilizando para modelar la variable
aleatoria continua.
Algunas de las funciones de densidad de probabilidad para distribuciones de variables
aleatorias continuas mas comunes podemos decir que son:
Distribución Normal (Gaussiana): Donde la función de densidad de probabilidad de
una distribución normal tiene una forma de campana simétrica. Está
completamente determinada por su media (μ) y su desviación estándar (σ). La
función de densidad de la distribución normal se puede expresar como:
f(x) = (1 / (σ * √(2π))) * e^(-((x-μ)^2 / (2σ^2)))
Distribución Exponencial: Donde, la función de densidad de probabilidad de una
distribución exponencial se utiliza para modelar el tiempo entre eventos en un
proceso de Poisson. Tiene una cola larga y se caracteriza por su parámetro de
tasa (λ). La función de densidad de la distribución exponencial se puede expresar
como:
f(x) = λ * e^(-λx), para x ≥ 0 f(x) = 0, para x < 0
Distribución Uniforme: Donde, en una distribución uniforme, todos los valores
dentro de un rango tienen la misma probabilidad. La función de densidad de
probabilidad de una distribución uniforme es constante dentro del rango y cero
fuera de él. Por ejemplo, para una distribución uniforme en el intervalo [a, b], la
función de densidad se puede expresar como:
f(x) = 1 / (b - a), para a ≤ x ≤ b
f(x) = 0, para x < a o x > b
Distribución Gamma: La distribución gamma es una distribución generalizada que
se utiliza para modelar tiempos de espera, duraciones y otros procesos
relacionados. Tiene dos parámetros: α (alfa) y β (beta). La función de densidad de
probabilidad de una distribución gamma se puede expresar como:
f(x) = (1 / (Γ(α) * β^α)) * x^(α-1) * e^(-x/β), para x ≥ 0
f(x) = 0, para x < 0
Distribución Exponencial: La función de densidad de probabilidad de una
distribución exponencial se utiliza para modelar el tiempo entre eventos en un
proceso de Poisson. Tiene una cola larga y se caracteriza por su parámetro de
tasa (λ). La función de densidad de la distribución exponencial se puede expresar
como:
f(x) = λ * e^(-λx), para x ≥ 0 f(x) = 0, para x < 0
Distribución Lognormal: La distribución lognormal se utiliza para modelar variables
que tienen distribuciones asimétricas positivas, como los precios de las acciones.
La función de densidad de probabilidad de una distribución lognormal se puede
expresar como:
f(x) = (1 / (x * σ * √(2π))) * e^(-(ln(x) - μ)^2 / (2σ^2)), para x > 0
f(x) = 0, para x ≤ 0
Donde μ (mu) y σ (sigma) son la media y la desviación estándar del logaritmo natural de la
variable aleatoria.
Estos son solo algunos ejemplos de funciones de densidad de probabilidad para
distribuciones de variables aleatorias continuas. Cada distribución tiene su propia función
de densidad con parámetros específicos que caracterizan su forma y comportamiento.
La función de densidad de probabilidad es fundamental para el cálculo de probabilidades,
así como para el análisis y la modelización de datos en el campo de la probabilidad y la
estadística. Proporciona información valiosa sobre cómo se distribuyen los valores de una
variable aleatoria continua y es una herramienta clave para el estudio de las propiedades
y el comportamiento de las variables aleatorias continuas.
Distribución Normal: Función de densidad y Función de distribución
Conceptualmente podemos decir que la distribución normal es simétrica y tiene forma de
campana. Se encuentra completamente determinada por dos parámetros: la media y la
desviación estándar. La media representa el centro de la distribución y la desviación
estándar controla la dispersión de los datos alrededor de la linea.
Es de las distribuciones de probabilidad mas usadas para describir variables aleatorias
continuas. Ya que posee una gran cantidad de aplicaciones, en las cuales como ejemplo
podemos decir que la variable aleatoria puede ser el peso, la estatura de la persona,
puntuaciones de examen, precipitación fluvial o cantidades similares. Es decir, la
aplicación de la distribución normal nos describe que tan probables son los resultados
obtenidos de un muestreo.
Las distribuciones normales poseen ciertas características tales como:
1. Toda la familia de distribuciones normales se diferencia por medio de dos
parámetros: la media μ y la desviación estándar σ.
2. El punto más alto de una curva normal se encuentra sobre la media, la cual
coincide con la mediana y la moda.
3. La media de una distribución normal puede tener cualquier valor: negativo, positivo
o cero. A continuación se muestran tres distribuciones normales que tienen la
misma desviación estándar, pero diferentes medias. (10, 0 y 20).
4. La distribución normal es simétrica, siendo la forma de la curva normal al lado
izquierdo de la media, la imagen especular de la forma al lado derecho de la
media. Las colas de la curva normal se extienden al infinito en ambas direcciones
y en teoría jamás tocan el eje horizontal. Dado que es simétrica, la distribución
normal no es sesgada; su sesgo es cero.
5. La desviación estándar determina qué tan plana y ancha es la curva normal. Las
desviaciones estándares grandes corresponden a curvas más planas y más
anchas, lo cual indica mayor variabilidad en los datos.
6. Las probabilidades correspondientes a la variable aleatoria normal se dan
mediante áreasbajo la curva normal. Toda el área bajo la curva de una distribución
normal es 1. Como esta distribución es simétrica, el área bajo la curva y a la
izquierda de la media es 0.50 y el área bajo la curva y a la derecha de la media es
0.50.
Respecto a la función de densidad de probabilidad de la distribución normal se puede
expresar como:
f(x) = (1 / (σ * √(2π))) * e^(-((x-μ)^2 / (2σ^2)))
Donde:
x es un valor en la variable aleatoria continua.
μ es la media de la distribución.
σ es la desviación estándar de la distribución.
π es una constante aproximadamente igual a 3.14159
Y la misma posee ciertas propiedades tales como:
La curva es simétrica alrededor de la media μ.
La curva alcanza su máximo en x = μ.
A medida que nos alejamos de la media, la curva disminuye suavemente.
El área total bajo la curva es igual a 1.
Con respecto a la función de distribución acumulativa de la distribución normal,
generalmente se la denota como Φ(x), y nos proporciona la probabilidad acumulada de
que una variable aleatoria normal sea menor o igual a un valor especifico x. Esta función
es la que nos permite calcular las probabilidades acumuladas y realizar cálculos
relacionados con la distribución normal.
La forma en que se la calcula la distribución normal es a través de una tabla o un sistema
de software estadístico. La función de distribución normal tiene las siguientes
propiedades:
Si tiende a menos infinito es igual a cero Φ(-∞) = 0 y si tiende a mas infinito es
igual a uno Φ(+∞) = 1
La función es creciente y continua
La función es simétrica alrededor de la media
A modo de ejemplo podemos suponer que tenemos una variable aleatoria X que sigue
una distribución normal con una media μ = 50 y una desviación estándar σ = 10. Para
encontrar la probabilidad de que X esté entre 40 y 60, podemos utilizar la FDA de la
distribución normal.
P(X ≤ 60) = Φ(60) = 0.8413
P(X ≤ 40) = Φ(40) = 0.1587
Entonces, la probabilidad de que X esté entre 40 y 60 es:
P(40 < X ≤ 60) = P(X ≤ 60) - P(X ≤ 40) = 0.8413 - 0.1587 = 0.6826
Esto significa que hay aproximadamente un 68.26% de probabilidad de que X esté entre
40 y 60 en esta distribución normal.
A modo de conclusión, la bibliografía menciona que la distribución normal es ampliamente
utilizada en el campo de la estadística y se aplica en áreas como el modelado de datos, la
inferencia estadística, el análisis de muestras y la teoría de errores.
Distribución Normal Estándar N(0,1)
Conceptualmente podemos decir que una distribución normal estándar es una forma
especifica de la distribución normal en donde la media es igual a 0 y la desviación
estándar es igual a 1. Generalmente también se la denota como distribución normal
estándar unitaria o distribución Z.
La distribución antes mencionada, al igual que la normal, tiene una forma de campana
simétrica y es una referencia importante en estadística debido a que sus propiedades son
generalizadas y permite su interrelación con otras distribuciones normales. Nos permite
estandarizar los valores de una distribución normal original y permitir comparaciones y
reducciones a cálculos mucho mas sencillos.
Como ocurre con otras variables aleatorias continuas, los cálculos de la probabilidad en
cualquier distribución normal se hacen calculando el área bajo la gráfica de la función de
densidad de probabilidad. Por tanto, para hallar la probabilidad de que una variable
aleatoria normal que esté dentro de un determinado intervalo, se tiene que calcular el área
que se encuentra bajo la curva normal y sobre ese intervalo. Para la distribución normal
estándar ya se encuentran calculadas las áreas bajo la curva normal y contamos con
tablas que dan estas áreas y que se usan para calcular las probabilidades en la practica.
La función de densidad de probabilidad (FDP) de la distribución normal estándar se puede
expresar en términos matemáticos como:
f(x) = (1 / √(2π)) * e^(-x^2 / 2)
Donde:
x es un valor en la variable aleatoria continua.
π es una constante aproximadamente igual a 3.14159.
Con respecto a las caracteristicas, la distribución normal estándarizada tiene las
siguientes propiedades:
La media μ es igual a 0.
La desviación estándar σ es igual a 1.
La curva es simétrica alrededor de x = 0.
La curva alcanza su máximo en x = 0.
El área total bajo la curva es igual a 1.
Para ejemplificar podemos suponer que queremos calcular la probabilidad de que un valor
aleatorio siga una distribución normal estándar y sea menor o igual a 1. Para esto,
utilizamos la función de distribución acumulativa (FDA) de la distribución normal estándar:
P(X ≤ 1) = Φ(1)
Utilizando una tabla de valores o un software estadístico, encontramos que Φ(1) es
aproximadamente 0.8413. Por lo tanto, la probabilidad de que un valor aleatorio de una
distribución normal estándar sea menor o igual a 1 es de aproximadamente 0.8413 o
84.13%
Distribución Chicuadrado
Conceptualmente podemos decir que la distribución chicuadrado es una distribución de
probabilidad continua que surge en la inferencia estadística y se utiliza principalmente
para realizar la prueba de hipótesis y análisis de varianza. También utilizada para la suma
de cuadrados de variables aleatorias normales estandarizadas independientes. Es
caracterizada principalmente por el parámetro denominado “grado de libertar”. Ya que es
este quien determina la forma que tomara la distribucion. Dicha distribucion solo toma
valores no negativos y la forma generalmente es asimétrica hacia la derecha.
La función de densidad de probabilidad (FDP) de la distribución chi-cuadrado se puede
denotar como:
f(x) = (1 / (2^(k/2) * Γ(k/2))) * x^((k/2)-1) * e^(-x/2)
Donde:
x es un valor en la variable aleatoria continua.
k es el número de grados de libertad.
Γ(k/2) es la función gamma, que es una constante de normalización para asegurar
que la integral de la función de densidad sea igual a 1.
Con respecto a sus caracteristicas, la distribución chi-cuadrado tiene las siguientes
propiedades:
La media de la distribución chi-cuadrado es igual a k.
La varianza de la distribución chi-cuadrado es igual a 2k.
A modo de ejemplo podemos mencionar que suponemos que estamos realizando un
estudio sobre la dispersión de puntajes en un examen. Si se sabe que los puntajes siguen
una distribución normal y se obtienen 20 puntajes de muestra, podemos calcular la chi-
cuadrado para probar la hipótesis de que la varianza poblacional es igual a 10. En este
caso, el número de grados de libertad sería 19 (número de puntajes de muestra menos 1).