0% encontró este documento útil (0 votos)
40 vistas12 páginas

Variables Aleatorias

El documento presenta un estudio sobre variables aleatorias, definiendo sus tipos, características y funciones, así como las probabilidades asociadas. Se abordan distribuciones discretas y continuas de probabilidad, incluyendo ejemplos como Bernoulli, Binomial, Poisson y Normal. Además, se discuten conceptos como esperanza matemática y momentos matemáticos.

Cargado por

InformesTecnicos
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
40 vistas12 páginas

Variables Aleatorias

El documento presenta un estudio sobre variables aleatorias, definiendo sus tipos, características y funciones, así como las probabilidades asociadas. Se abordan distribuciones discretas y continuas de probabilidad, incluyendo ejemplos como Bernoulli, Binomial, Poisson y Normal. Además, se discuten conceptos como esperanza matemática y momentos matemáticos.

Cargado por

InformesTecnicos
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Educación


Instituto Universitario Politécnico Santiago Mariño
Extensión Maracaibo-Edo. Zulia
Asignatura: Estadística II
Profesora: Carmen Rangel

VARIABLES ALEATORIAS

Realizado por:

 Dariana Villalobos (45) V-25.484.720

Maracaibo; Julio del 2018


INDICE GENERAL

Pág.

TITULO.............................................................................................................. 1
INDICE GENERAL ............................................................................................ 2
I. MARCO TEÓRICO ............................................................................ 3
1.1. ¿Qué son variables aleatorias? .............................................. 3
1.2. Tipos de variables aleatorias .................................................. 3
1.3. Características de las variables aleatorias .............................. 3
1.4. Funciones de las variables aleatorias ...................................... 4
1.5. ¿Qué son las probabilidades? ................................................ 5
1.6. Distribuciones discretas de probabilidad ................................ 5
1.6.1. Bernoulli ........................................................................ 5
1.6.2. Binomial ........................................................................ 5
1.6.3. Geométrica ................................................................... 6
1.6.4. Binomial Negativa ......................................................... 6
1.6.5. Multinomial ................................................................... 6
1.6.6. Poisson ......................................................................... 6
1.6.7. Hipergeométrica............................................................ 6
1.6.8. Poisson como aproximación a la Binomial e
Hipergeométrica............................................................ 7
1.7. Distribuciones continuas de probabilidad ................................ 7
1.7.1. Uniforme ....................................................................... 7
1.7.2. Exponencial .................................................................. 7
1.7.3. Gamma ......................................................................... 8
1.7.4. Beta ............................................................................. 8
1.7.5. Weibull .......................................................................... 8
1.7.6. Normal Estandarizada .................................................. 8
1.7.7. Normal como aproximación a la Binomial ..................... 8
1.8. ¿Qué es Esperanza matemática? ........................................... 8
1.9. ¿Qué es Momento matemático? ............................................ 9
II. EJERCICIOS .................................................................................... 10

III. REFERENCIAS BIBLIOGRÁFICAS ................................................. 12


I. MARCO TEÓRICO

1.1. ¿Qué son variables aleatorias?

Es una función que asigna un valor, usualmente numérico, al resultado de


un experimento aleatorio. Por ejemplo, los posibles resultados de tirar un dado
dos veces y obtener una cantidad de resultados del 1 al 6, la temperatura
máxima medida a lo largo del día en una ciudad concreta, etc.

1.2. Tipos de variables aleatorias

 Variable aleatoria discreta: Una variable aleatoria discreta solo


puede tener valores contables distintos, tales como 0, 1, 2, 3, etc.
Los ejemplos incluyen el número de estudiantes en un aula, el
número de aviones en un aeropuerto o el número de defectos en un
lote.

 Variable aleatoria continua: es continua si su recorrido es


un conjunto no numerable. Esto significa que el conjunto de
posibles valores de la variable abarca todo un intervalo de números
reales. Por ejemplo, la variable que asigna la estatura a una
persona extraída de una determinada población es una variable
continua ya que, teóricamente, todo valor entre, 0 y 2,50 m, es
posible.

1.3. Características de las variables aleatorias

Una vez que hemos definido una variable aleatoria y hemos construido su
función de cuantía o densidad (en el caso de variables aleatorias discretas o
continuas), un simple examen de la gráfica de la distribución de la variable
aleatoria puede ser interesante ya que contiene toda la información sobre sus
propiedades probabilísticas. Sin embargo existe otra alternativa que reduce al
máximo la información disponible y permite realizar un análisis de la variable
aleatoria de forma más simple, esta alternativa consiste en obtener algunas
medidas numéricas y gráficas que resuman las características de dicha
distribución, dando así sentido a toda la información de forma exacta y clara.
En este caso, podemos comparar distintas distribuciones de probabilidad
comparando los valores característicos correspondientes a esas distribuciones.

Las medidas tendencia central (media, mediana o moda) nos indican el


centro de la distribución de frecuencias, es un valor que se puede tomar como
representativo de todos los datos. Asimismo las medidas de posición, los
cuantíles, son valores de la distribución que la dividen en partes iguales, es
decir en intervalos, que comprenden el mismo número de valores.

Las medidas de dispersión (varianza, desviación típica o coeficiente de


variación) cuantifican la separación, la dispersión, la variabilidad de los valores
de la distribución respecto al valor central, indican hasta qué punto las medidas
de tendencia central son representativas como síntesis de la información. Las
medidas de forma (coeficiente de asimetría o curtosis) contrastan la forma que
tiene la representación gráfica, bien sea el histograma o el diagrama de barras,
de la distribución de los datos con la distribución normal.

1.4. Funciones de las variables aleatorias

Sea una variable aleatoria χ sobre (Ω,A,P) y una función medible de


Borel 𝑔: ℝ → ℝ, entonces 𝑌 = 𝑔(𝑋) será también una variable aleatoria
sobre Ω, dado que la composición de funciones medibles también es medible a
no ser que 𝑔 sea una función medible de Lebesgue. El mismo procedimiento
que permite ir de un espacio de probabilidad (Ω,P) a (ℝ,𝑑𝐹𝑥 ) puede ser
utilizado para obtener la distribución de . La función de probabilidad
acumulada de 𝑌 es 𝐹𝑌 (𝑦) = 𝑃(𝑔(𝑋) ≤ 𝑦)

Si la función g es invertible, es decir g-1 existe, y es monótona creciente,


entonces la anterior relación puede ser extendida para obtener 𝐹𝑌 (𝑦) =
𝑃(𝑔(𝑋) ≤ 𝑦) = 𝑃(𝑋 ≤ g −1 (y)) = Fx (g −1 (y)) y, trabajando de nuevo bajo las
mismas hipótesis de invertibilidad de g y asumiendo además diferenciabilidad,
podemos hallar la relación entre las funciones de densidad de probabilidad al
diferenciar ambos términos respecto de y, obteniendo 𝑓𝑌 (𝑦) =
𝑑𝑔−1(𝑦)
𝑓𝑥 (𝑔−1 (𝑦)) | |.
𝑑𝑦
Si g no es invertible pero cada y tiene un número finito de raíces, entonces
la relación previa con la función de densidad de probabilidad puede
𝑑𝑔𝑖−1(𝑦)
generalizarse como 𝑓𝑌 (𝑦) = ∑𝑖 𝑓𝑋 (𝑔𝑖−1 (𝑦)) | |donde xi = gi-1(y). Las
𝑑𝑦

fórmulas de densidad no requieren que g sea creciente.

1.5. ¿Qué son las probabilidades?

Es la mayor o menor posibilidad de que ocurra un determinado suceso. En


otras palabras, su noción viene de la necesidad de medir o determinar
cuantitativamente la certeza o duda de que un suceso dado ocurra o no.

Esta establece una relación entre el número de sucesos favorables y el


número total de sucesos posibles. Por ejemplo, lanzar un dado, y que salga el
número uno (caso favorable) está en relación a seis casos posibles (1, 2, 3, 4,
5 y 6); es decir, la probabilidad es 1/6.

1.6. Distribuciones discretas de probabilidad

Se denomina distribución de variable discreta a aquella cuya función


de probabilidad solo toma valores positivos en un conjunto de valores de X
finito o infinito numerable.

1.6.1. Bernoulli

Se utiliza cuando un proceso aleatorio tenga exactamente dos resultados,


evento o no evento. Por ejemplo, en el campo de la calidad, un producto se
puede clasificar como bueno o malo.

Las variables de Bernoulli pueden tomar dos valores numéricos, 0 y 1,


donde 1 corresponde a un evento y 0 corresponde a un no evento.

1.6.2. Binomial

Esta distribución aparece de forma natural al realizar repeticiones


independientes de un experimento que tenga respuesta binaria, generalmente
clasificada como “éxito” o “fracaso”; este experimento recibe el nombre de
experimento de Bernoulli. Ejemplos de respuesta binaria pueden ser el hábito
de fumar (sí/no)
1.6.3. Geométrica

Permite calcular la probabilidad de que tenga que realizarse un número k de


repeticiones antes de obtener un éxito por primera vez; esta probabilidad
decrece a medida que aumenta k con lo que la función de masa de
probabilidad es siempre decreciente.

1.6.4. Binomial Negativa


Es un modelo adecuado para tratar aquellos procesos en los que se repite
un determinado ensayo o prueba hasta conseguir un número determinado de
resultados favorables

1.6.5. Multinomial

Es una generalización de la distribución binomial. En este caso, en un


experimento interesa estudiar no la ocurrencia de un único suceso o la de su
contrario, sino la de varios sucesos (tres o más).

1.6.6. Poisson

Surge cuando un evento o suceso “raro” ocurre aleatoriamente en el


espacio o el tiempo. La variable asociada es el número de ocurrencias del
evento en un intervalo o espacio continuo, por tanto, es una variable aleatoria
discreta que toma valores enteros de 0 en adelante (0, 1, 2,...). Por ejemplo, el
número de pacientes que llegan a un consultorio en un lapso dado.

1.6.7. Hipergeométrica

Suele aparecer en procesos muestrales sin reemplazo, en los que se


investiga la presencia o ausencia de cierta característica. Piénsese, por
ejemplo, en un procedimiento de control de calidad en una empresa
farmacéutica, durante el cual se extraen muestras de las cápsulas fabricadas y
se someten a análisis para determinar su composición. Durante las pruebas,
las cápsulas son destruidas y no pueden ser devueltas al lote del que
provienen. En esta situación, la variable que cuenta el número de cápsulas que
no cumplen los criterios de calidad establecidos sigue una distribución
hipergeométrica. Por tanto, esta distribución es la equivalente a la binomial,
pero cuando el muestreo se hace sin reemplazo, de forma que la probabilidad
de éxito no permanece constante a lo largo de las n pruebas, a diferencia de la
distribución binomial.

1.6.8. Poisson como aproximación a la Binomial e


Hipergeométrica

Se puede probar que la distribución binomial tiende a converger a la


distribución de Poisson cuando el parámetro n tiende a infinito y el parámetro p
tiende a ser cero, de manera que el producto de n por p sea una cantidad
constante. De ocurrir esto la distribución binomial tiende a un modelo de
Poisson de parámetro l igual a n por p.

Este resultado es importante a la hora del cálculo de probabilidades, o,


incluso a la hora de inferir características de la distribución binomial cuando el
número de pruebas sea muy grande y la probabilidad de éxito sea muy
pequeña.

1.7. Distribuciones continuas de probabilidad

Se denomina variable continua a aquella que puede tomar cualquiera de los


infinitos valores existentes dentro de un intervalo. En el caso de variable
continua la distribución de probabilidad es la integral de la función de densidad.

1.7.1. Uniforme

Es útil para describir una variable aleatoria con probabilidad constante sobre
el intervalo en el que está definida. También es conocida con el nombre de
distribución rectangular por el aspecto de su función de densidad. Una
peculiaridad importante de esta distribución es que la probabilidad de un
suceso depende exclusivamente de la amplitud del intervalo considerado y no
de su posición en el campo de variación de la variable.

1.7.2. Exponencial

Describe procesos en los que interesa saber el tiempo hasta que ocurre
determinado evento; en particular, se utiliza para modelar tiempos de
supervivencia. Un ejemplo es el tiempo que tarda una partícula radiactiva en
desintegrarse.
1.7.3. Gamma

Sirve de modelo para numerosos experimentos en donde interviene el


tiempo como sucede en la llegada de aviones a un aeropuerto.

1.7.4. Beta

Es adecuada para variables aleatorias continuas que toman valores en el


intervalo (0,1), lo que la hace muy apropiada para modelar proporciones. En la
inferencia bayesiana, por ejemplo, es muy utilizada como distribución a priori
cuando las observaciones tienen una distribución binomial.

1.7.5. Weibull

Se utiliza para modelar situaciones del tipo tiempo-fallo, modelar tiempos de


vida o en el análisis de supervivencia, aparte de otros usos como, por ejemplo,
caracterizar el comportamiento climático de la lluvia en un año determinado.

1.7.6. Normal Estandarizada

Es una distribución con forma de campana donde las desviaciones estándar


sucesivas con respecto a la media establecen valores de referencia para
estimar el porcentaje de observaciones de los datos. Estos valores de
referencia son la base de muchas pruebas de hipótesis, como las pruebas Z y
t.
1.7.7. Normal como aproximación a la Binomial

Cuando la cantidad de experimentos tiende a infinito (generalmente se


considera que esto sucede cuando n≥30), la distribución binomial tiende a la
distribución normal, siempre y cuando p y q no sean ninguna menor a 0,1.

1.8. ¿Qué es Esperanza matemática?

Es la suma de la probabilidad de cada posible suceso multiplicado por la


frecuencia de dicho proceso. Si todos los sucesos son de igual probabilidad, la
esperanza es la media aritmética.

Para una variable aleatoria discreta con valores posibles 𝒙𝟏+ 𝒙𝟐+ … . 𝒙𝒏 y
sus probabilidades representadas por la función de probabilidad 𝑷(𝑿𝒊) la
esperanza se calcula como:
𝒏

𝔼 = ∑ 𝒙𝒊 𝒑(𝒙𝒊 )
𝒊=𝟏

1.9. ¿Qué es Momento matemático?

En estadística el momento central o centrado de orden k de una variable


aleatoria X es la esperanza matemática 𝐸 [(𝑋 − 𝐸 [𝑋])𝑘 ] donde E es el operador
de la esperanza. Si una variable aleatoria no tiene media el momento central es
indefinido.
II. EJERCICIOS
2.1. Sea S= {alto, medio, bajo}. Defina las variables aleatorias X, Y, Z
como:
Alto Medio Bajo
X -12 -2 3
Y 0 0 1
Z 6 0 4

Determine si cada una de las siguientes relaciones es cierta o falsa:


a) X < Y
X(Alto) -12 Y(Alto) 0 X<Y -12 < 0 Verdadero

X(Medio) -2 Y(Medio) 0 X<Y -2 < 0 Verdadero

X(Bajo) 3 Y(Bajo) 1 X<Y 3>1 Falso

b) X ≤ Y
X(Alto) -12 Y(Alto) 0 X≤Y -12 ≤ 0 Verdadero

X(Medio) -2 Y(Medio) 0 X≤Y -2 ≤ 0 Verdadero

X(Bajo) 3 Y(Bajo) 1 X≤Y 3≥1 Falso

c) Y < Z
Y(Alto) 0 Z(Alto) 6 Y<Z 0<6 Verdadero

Y(Medio) 0 Z(Medio) 0 Y<Z 0=0 Falso

Y(Bajo) 1 Z(Bajo) 4 Y<Z 1<4 Verdadero

d) Y ≤ Z
Y(Alto) 0 Z(Alto) 6 Y≤Z 0≤6 Verdadero

Y(Medio) 0 Z(Medio) 0 Y≤Z 0≤0 Verdadero

Y(Bajo) 1 Z(Bajo) 4 Y≤Z 1≤4 Verdadero

e) XY < Z
XY(Alto) -12x0=0 Z(Alto) 6 XY<Z 0<6 Verdadero

XY(Medio) -2x0=0 Z(Medio) 0 XY<Z 0=0 Falso

XY(Bajo) 3x1=3 Z(Bajo) 4 XY<Z 3<4 Verdadero

f) XY ≤ Z
XY(Alto) -12x0=0 Z(Alto) 6 XY≤Z 0≤6 Verdadero

XY(Medio) -2x0=0 Z(Medio) 0 XY≤Z 0≤0 Verdadero

XY(Bajo) 3x1=3 Z(Bajo) 4 XY≤Z 3≤4 Verdadero


2.2. Sea S= {1, 2, 3, 4, 5}.
a) Defina sobre S dos variables aleatorias X e Y no constantes y
diferentes (es decir, no iguales).
X Y
1 2
3 4
5 1
2 3
4 5

b) Con las variables aleatorias X e Y que ha definido, sea Z= X+Y 2 .


Calcule Z(s) para todo s ϵ S.
𝐙 = 𝐗 + 𝐘𝟐
Z = 1 + 22 = 5
Z = 2 + 32 = 11
Z = 3 + 42 = 19
Z = 4 + 52 = 29
Z = 5 + 12 = 6
III. REFERENCIAS BIBLIOGRÁFICAS

 Peña, D. (2008). Fundamentos de Estadística (1ª edición). Alianza


Editorial. Recuperado de https://es.wikipedia.org/wiki/Variable_aleatoria

 Universidad de Cartagena de Indias. (2005). Características de las


variables aleatorias. [PDF file]. Colombia. Recuperado de
http://www.cartagena99.com/recursos/alumnos/apuntes/Tema2_Caracte
risticas_de_las_variables_aleatorias.pdf

 Dirección Xeral de Saude Pública. (2014). Ayudar de Distribuciones de


Probabilidad. [PDF file]. Galicia. Recuperado de
https://www.sergas.es/Saude-publica/Documents/1899/Ayuda_Epidat_
4_Distribuciones_de_probabilidad_Octubre2014.pdf

 Sangaku S.L. (2018). Esperanza matemática. Bolivia. Recuperado de


https://www.sangakoo.com/es/temas/esperanza-matematica

También podría gustarte