República Bolivariana de Venezuela
Ministerio del Poder Popular para la Educación
Instituto Universitario Politécnico Santiago Mariño
Extensión Maracaibo-Edo. Zulia
Asignatura: Estadística II
Profesora: Carmen Rangel
VARIABLES ALEATORIAS
Realizado por:
Dariana Villalobos (45) V-25.484.720
Maracaibo; Julio del 2018
INDICE GENERAL
Pág.
TITULO.............................................................................................................. 1
INDICE GENERAL ............................................................................................ 2
I. MARCO TEÓRICO ............................................................................ 3
1.1. ¿Qué son variables aleatorias? .............................................. 3
1.2. Tipos de variables aleatorias .................................................. 3
1.3. Características de las variables aleatorias .............................. 3
1.4. Funciones de las variables aleatorias ...................................... 4
1.5. ¿Qué son las probabilidades? ................................................ 5
1.6. Distribuciones discretas de probabilidad ................................ 5
1.6.1. Bernoulli ........................................................................ 5
1.6.2. Binomial ........................................................................ 5
1.6.3. Geométrica ................................................................... 6
1.6.4. Binomial Negativa ......................................................... 6
1.6.5. Multinomial ................................................................... 6
1.6.6. Poisson ......................................................................... 6
1.6.7. Hipergeométrica............................................................ 6
1.6.8. Poisson como aproximación a la Binomial e
Hipergeométrica............................................................ 7
1.7. Distribuciones continuas de probabilidad ................................ 7
1.7.1. Uniforme ....................................................................... 7
1.7.2. Exponencial .................................................................. 7
1.7.3. Gamma ......................................................................... 8
1.7.4. Beta ............................................................................. 8
1.7.5. Weibull .......................................................................... 8
1.7.6. Normal Estandarizada .................................................. 8
1.7.7. Normal como aproximación a la Binomial ..................... 8
1.8. ¿Qué es Esperanza matemática? ........................................... 8
1.9. ¿Qué es Momento matemático? ............................................ 9
II. EJERCICIOS .................................................................................... 10
III. REFERENCIAS BIBLIOGRÁFICAS ................................................. 12
I. MARCO TEÓRICO
1.1. ¿Qué son variables aleatorias?
Es una función que asigna un valor, usualmente numérico, al resultado de
un experimento aleatorio. Por ejemplo, los posibles resultados de tirar un dado
dos veces y obtener una cantidad de resultados del 1 al 6, la temperatura
máxima medida a lo largo del día en una ciudad concreta, etc.
1.2. Tipos de variables aleatorias
Variable aleatoria discreta: Una variable aleatoria discreta solo
puede tener valores contables distintos, tales como 0, 1, 2, 3, etc.
Los ejemplos incluyen el número de estudiantes en un aula, el
número de aviones en un aeropuerto o el número de defectos en un
lote.
Variable aleatoria continua: es continua si su recorrido es
un conjunto no numerable. Esto significa que el conjunto de
posibles valores de la variable abarca todo un intervalo de números
reales. Por ejemplo, la variable que asigna la estatura a una
persona extraída de una determinada población es una variable
continua ya que, teóricamente, todo valor entre, 0 y 2,50 m, es
posible.
1.3. Características de las variables aleatorias
Una vez que hemos definido una variable aleatoria y hemos construido su
función de cuantía o densidad (en el caso de variables aleatorias discretas o
continuas), un simple examen de la gráfica de la distribución de la variable
aleatoria puede ser interesante ya que contiene toda la información sobre sus
propiedades probabilísticas. Sin embargo existe otra alternativa que reduce al
máximo la información disponible y permite realizar un análisis de la variable
aleatoria de forma más simple, esta alternativa consiste en obtener algunas
medidas numéricas y gráficas que resuman las características de dicha
distribución, dando así sentido a toda la información de forma exacta y clara.
En este caso, podemos comparar distintas distribuciones de probabilidad
comparando los valores característicos correspondientes a esas distribuciones.
Las medidas tendencia central (media, mediana o moda) nos indican el
centro de la distribución de frecuencias, es un valor que se puede tomar como
representativo de todos los datos. Asimismo las medidas de posición, los
cuantíles, son valores de la distribución que la dividen en partes iguales, es
decir en intervalos, que comprenden el mismo número de valores.
Las medidas de dispersión (varianza, desviación típica o coeficiente de
variación) cuantifican la separación, la dispersión, la variabilidad de los valores
de la distribución respecto al valor central, indican hasta qué punto las medidas
de tendencia central son representativas como síntesis de la información. Las
medidas de forma (coeficiente de asimetría o curtosis) contrastan la forma que
tiene la representación gráfica, bien sea el histograma o el diagrama de barras,
de la distribución de los datos con la distribución normal.
1.4. Funciones de las variables aleatorias
Sea una variable aleatoria χ sobre (Ω,A,P) y una función medible de
Borel 𝑔: ℝ → ℝ, entonces 𝑌 = 𝑔(𝑋) será también una variable aleatoria
sobre Ω, dado que la composición de funciones medibles también es medible a
no ser que 𝑔 sea una función medible de Lebesgue. El mismo procedimiento
que permite ir de un espacio de probabilidad (Ω,P) a (ℝ,𝑑𝐹𝑥 ) puede ser
utilizado para obtener la distribución de . La función de probabilidad
acumulada de 𝑌 es 𝐹𝑌 (𝑦) = 𝑃(𝑔(𝑋) ≤ 𝑦)
Si la función g es invertible, es decir g-1 existe, y es monótona creciente,
entonces la anterior relación puede ser extendida para obtener 𝐹𝑌 (𝑦) =
𝑃(𝑔(𝑋) ≤ 𝑦) = 𝑃(𝑋 ≤ g −1 (y)) = Fx (g −1 (y)) y, trabajando de nuevo bajo las
mismas hipótesis de invertibilidad de g y asumiendo además diferenciabilidad,
podemos hallar la relación entre las funciones de densidad de probabilidad al
diferenciar ambos términos respecto de y, obteniendo 𝑓𝑌 (𝑦) =
𝑑𝑔−1(𝑦)
𝑓𝑥 (𝑔−1 (𝑦)) | |.
𝑑𝑦
Si g no es invertible pero cada y tiene un número finito de raíces, entonces
la relación previa con la función de densidad de probabilidad puede
𝑑𝑔𝑖−1(𝑦)
generalizarse como 𝑓𝑌 (𝑦) = ∑𝑖 𝑓𝑋 (𝑔𝑖−1 (𝑦)) | |donde xi = gi-1(y). Las
𝑑𝑦
fórmulas de densidad no requieren que g sea creciente.
1.5. ¿Qué son las probabilidades?
Es la mayor o menor posibilidad de que ocurra un determinado suceso. En
otras palabras, su noción viene de la necesidad de medir o determinar
cuantitativamente la certeza o duda de que un suceso dado ocurra o no.
Esta establece una relación entre el número de sucesos favorables y el
número total de sucesos posibles. Por ejemplo, lanzar un dado, y que salga el
número uno (caso favorable) está en relación a seis casos posibles (1, 2, 3, 4,
5 y 6); es decir, la probabilidad es 1/6.
1.6. Distribuciones discretas de probabilidad
Se denomina distribución de variable discreta a aquella cuya función
de probabilidad solo toma valores positivos en un conjunto de valores de X
finito o infinito numerable.
1.6.1. Bernoulli
Se utiliza cuando un proceso aleatorio tenga exactamente dos resultados,
evento o no evento. Por ejemplo, en el campo de la calidad, un producto se
puede clasificar como bueno o malo.
Las variables de Bernoulli pueden tomar dos valores numéricos, 0 y 1,
donde 1 corresponde a un evento y 0 corresponde a un no evento.
1.6.2. Binomial
Esta distribución aparece de forma natural al realizar repeticiones
independientes de un experimento que tenga respuesta binaria, generalmente
clasificada como “éxito” o “fracaso”; este experimento recibe el nombre de
experimento de Bernoulli. Ejemplos de respuesta binaria pueden ser el hábito
de fumar (sí/no)
1.6.3. Geométrica
Permite calcular la probabilidad de que tenga que realizarse un número k de
repeticiones antes de obtener un éxito por primera vez; esta probabilidad
decrece a medida que aumenta k con lo que la función de masa de
probabilidad es siempre decreciente.
1.6.4. Binomial Negativa
Es un modelo adecuado para tratar aquellos procesos en los que se repite
un determinado ensayo o prueba hasta conseguir un número determinado de
resultados favorables
1.6.5. Multinomial
Es una generalización de la distribución binomial. En este caso, en un
experimento interesa estudiar no la ocurrencia de un único suceso o la de su
contrario, sino la de varios sucesos (tres o más).
1.6.6. Poisson
Surge cuando un evento o suceso “raro” ocurre aleatoriamente en el
espacio o el tiempo. La variable asociada es el número de ocurrencias del
evento en un intervalo o espacio continuo, por tanto, es una variable aleatoria
discreta que toma valores enteros de 0 en adelante (0, 1, 2,...). Por ejemplo, el
número de pacientes que llegan a un consultorio en un lapso dado.
1.6.7. Hipergeométrica
Suele aparecer en procesos muestrales sin reemplazo, en los que se
investiga la presencia o ausencia de cierta característica. Piénsese, por
ejemplo, en un procedimiento de control de calidad en una empresa
farmacéutica, durante el cual se extraen muestras de las cápsulas fabricadas y
se someten a análisis para determinar su composición. Durante las pruebas,
las cápsulas son destruidas y no pueden ser devueltas al lote del que
provienen. En esta situación, la variable que cuenta el número de cápsulas que
no cumplen los criterios de calidad establecidos sigue una distribución
hipergeométrica. Por tanto, esta distribución es la equivalente a la binomial,
pero cuando el muestreo se hace sin reemplazo, de forma que la probabilidad
de éxito no permanece constante a lo largo de las n pruebas, a diferencia de la
distribución binomial.
1.6.8. Poisson como aproximación a la Binomial e
Hipergeométrica
Se puede probar que la distribución binomial tiende a converger a la
distribución de Poisson cuando el parámetro n tiende a infinito y el parámetro p
tiende a ser cero, de manera que el producto de n por p sea una cantidad
constante. De ocurrir esto la distribución binomial tiende a un modelo de
Poisson de parámetro l igual a n por p.
Este resultado es importante a la hora del cálculo de probabilidades, o,
incluso a la hora de inferir características de la distribución binomial cuando el
número de pruebas sea muy grande y la probabilidad de éxito sea muy
pequeña.
1.7. Distribuciones continuas de probabilidad
Se denomina variable continua a aquella que puede tomar cualquiera de los
infinitos valores existentes dentro de un intervalo. En el caso de variable
continua la distribución de probabilidad es la integral de la función de densidad.
1.7.1. Uniforme
Es útil para describir una variable aleatoria con probabilidad constante sobre
el intervalo en el que está definida. También es conocida con el nombre de
distribución rectangular por el aspecto de su función de densidad. Una
peculiaridad importante de esta distribución es que la probabilidad de un
suceso depende exclusivamente de la amplitud del intervalo considerado y no
de su posición en el campo de variación de la variable.
1.7.2. Exponencial
Describe procesos en los que interesa saber el tiempo hasta que ocurre
determinado evento; en particular, se utiliza para modelar tiempos de
supervivencia. Un ejemplo es el tiempo que tarda una partícula radiactiva en
desintegrarse.
1.7.3. Gamma
Sirve de modelo para numerosos experimentos en donde interviene el
tiempo como sucede en la llegada de aviones a un aeropuerto.
1.7.4. Beta
Es adecuada para variables aleatorias continuas que toman valores en el
intervalo (0,1), lo que la hace muy apropiada para modelar proporciones. En la
inferencia bayesiana, por ejemplo, es muy utilizada como distribución a priori
cuando las observaciones tienen una distribución binomial.
1.7.5. Weibull
Se utiliza para modelar situaciones del tipo tiempo-fallo, modelar tiempos de
vida o en el análisis de supervivencia, aparte de otros usos como, por ejemplo,
caracterizar el comportamiento climático de la lluvia en un año determinado.
1.7.6. Normal Estandarizada
Es una distribución con forma de campana donde las desviaciones estándar
sucesivas con respecto a la media establecen valores de referencia para
estimar el porcentaje de observaciones de los datos. Estos valores de
referencia son la base de muchas pruebas de hipótesis, como las pruebas Z y
t.
1.7.7. Normal como aproximación a la Binomial
Cuando la cantidad de experimentos tiende a infinito (generalmente se
considera que esto sucede cuando n≥30), la distribución binomial tiende a la
distribución normal, siempre y cuando p y q no sean ninguna menor a 0,1.
1.8. ¿Qué es Esperanza matemática?
Es la suma de la probabilidad de cada posible suceso multiplicado por la
frecuencia de dicho proceso. Si todos los sucesos son de igual probabilidad, la
esperanza es la media aritmética.
Para una variable aleatoria discreta con valores posibles 𝒙𝟏+ 𝒙𝟐+ … . 𝒙𝒏 y
sus probabilidades representadas por la función de probabilidad 𝑷(𝑿𝒊) la
esperanza se calcula como:
𝒏
𝔼 = ∑ 𝒙𝒊 𝒑(𝒙𝒊 )
𝒊=𝟏
1.9. ¿Qué es Momento matemático?
En estadística el momento central o centrado de orden k de una variable
aleatoria X es la esperanza matemática 𝐸 [(𝑋 − 𝐸 [𝑋])𝑘 ] donde E es el operador
de la esperanza. Si una variable aleatoria no tiene media el momento central es
indefinido.
II. EJERCICIOS
2.1. Sea S= {alto, medio, bajo}. Defina las variables aleatorias X, Y, Z
como:
Alto Medio Bajo
X -12 -2 3
Y 0 0 1
Z 6 0 4
Determine si cada una de las siguientes relaciones es cierta o falsa:
a) X < Y
X(Alto) -12 Y(Alto) 0 X<Y -12 < 0 Verdadero
X(Medio) -2 Y(Medio) 0 X<Y -2 < 0 Verdadero
X(Bajo) 3 Y(Bajo) 1 X<Y 3>1 Falso
b) X ≤ Y
X(Alto) -12 Y(Alto) 0 X≤Y -12 ≤ 0 Verdadero
X(Medio) -2 Y(Medio) 0 X≤Y -2 ≤ 0 Verdadero
X(Bajo) 3 Y(Bajo) 1 X≤Y 3≥1 Falso
c) Y < Z
Y(Alto) 0 Z(Alto) 6 Y<Z 0<6 Verdadero
Y(Medio) 0 Z(Medio) 0 Y<Z 0=0 Falso
Y(Bajo) 1 Z(Bajo) 4 Y<Z 1<4 Verdadero
d) Y ≤ Z
Y(Alto) 0 Z(Alto) 6 Y≤Z 0≤6 Verdadero
Y(Medio) 0 Z(Medio) 0 Y≤Z 0≤0 Verdadero
Y(Bajo) 1 Z(Bajo) 4 Y≤Z 1≤4 Verdadero
e) XY < Z
XY(Alto) -12x0=0 Z(Alto) 6 XY<Z 0<6 Verdadero
XY(Medio) -2x0=0 Z(Medio) 0 XY<Z 0=0 Falso
XY(Bajo) 3x1=3 Z(Bajo) 4 XY<Z 3<4 Verdadero
f) XY ≤ Z
XY(Alto) -12x0=0 Z(Alto) 6 XY≤Z 0≤6 Verdadero
XY(Medio) -2x0=0 Z(Medio) 0 XY≤Z 0≤0 Verdadero
XY(Bajo) 3x1=3 Z(Bajo) 4 XY≤Z 3≤4 Verdadero
2.2. Sea S= {1, 2, 3, 4, 5}.
a) Defina sobre S dos variables aleatorias X e Y no constantes y
diferentes (es decir, no iguales).
X Y
1 2
3 4
5 1
2 3
4 5
b) Con las variables aleatorias X e Y que ha definido, sea Z= X+Y 2 .
Calcule Z(s) para todo s ϵ S.
𝐙 = 𝐗 + 𝐘𝟐
Z = 1 + 22 = 5
Z = 2 + 32 = 11
Z = 3 + 42 = 19
Z = 4 + 52 = 29
Z = 5 + 12 = 6
III. REFERENCIAS BIBLIOGRÁFICAS
Peña, D. (2008). Fundamentos de Estadística (1ª edición). Alianza
Editorial. Recuperado de https://es.wikipedia.org/wiki/Variable_aleatoria
Universidad de Cartagena de Indias. (2005). Características de las
variables aleatorias. [PDF file]. Colombia. Recuperado de
http://www.cartagena99.com/recursos/alumnos/apuntes/Tema2_Caracte
risticas_de_las_variables_aleatorias.pdf
Dirección Xeral de Saude Pública. (2014). Ayudar de Distribuciones de
Probabilidad. [PDF file]. Galicia. Recuperado de
https://www.sergas.es/Saude-publica/Documents/1899/Ayuda_Epidat_
4_Distribuciones_de_probabilidad_Octubre2014.pdf
Sangaku S.L. (2018). Esperanza matemática. Bolivia. Recuperado de
https://www.sangakoo.com/es/temas/esperanza-matematica