0% encontró este documento útil (0 votos)
26 vistas15 páginas

Definición y Tipos de Variables Aleatorias

muestra y conceptos de variables aleatorias
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
26 vistas15 páginas

Definición y Tipos de Variables Aleatorias

muestra y conceptos de variables aleatorias
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

DEFNICION DE VARIABLES ALEATORIAS

Antes de realizar un experimento aleatorio no se puede predecir con exactitud qué


resultados se van a observar, sino que, como mucho, se puede describir cuales
van a ser los resultados posibles y con qué probabilidad puede ocurrir cada uno de
ellos. En muchas ocasiones, nos interesa más que el resultado completo del
experimento, una función real de los resultados. Tales funciones cuyos valores
dependen de los posibles resultados de un experimento aleatorio, se llaman
variables aleatorias. En todo proceso de observación o experimento aleatorio
podemos definir una variable aleatoria asignando a cada resultado del
experimento un número:

• Si el resultado del experimento es numérico porque contamos o medimos, los


posibles valores de la variable coinciden con los resultados del experimento.

• Si el resultado del experimento es cualitativo, hacemos corresponder a cada


resultado un número siguiendo algún criterio.

Por lo tanto podemos decir que las variables aleatorias es un numero real
asociado al resultado de un experimento aleatorio , es decir, una funcion real en
el espacio muestral x= Ω Ƥ

Es decir si un expeimento aleatorio, a cada suceso elemental del espacio (Ω , Ƥ)


le asignamos un valor numerico obtenemos una variable que”hereda” de Ω la
propabilidad Ƥ.
La probabilidad Ƥ de que x tome un valor concreto a Ƥ(x=a), es la probabilidad
que corresponde a la union de los sucesos aleatorios elementales a los que
hemos asignado ese valor a.

BIBLIOGRAFIA

MODELOS DE PROBABILIDAD Y MUESTREO ALEATORIO


JuliIan de la Horra
Departamento de Matemáticas U.A.M.
ESTADISTICA APLICADA Y MODELIZACION. I.T. DISEÑO INDUSTRIAL
CURSO VARIABLES ALEATORIAS (2009-2010) –INGENIERIA ECONOMICA.

TIPOS DE VARIABLES ALEATORIAS

Las variables aleatorias las podemos clasificar en:

Variable aleatoria discretas: Es aquella que consta de unidades o partes


separadas unas de otras, como los árboles de un monte, los soldados de un
ejército; Es decir aquella en las que el rango es finito o infinito numerable.

Características:

 Los valores de una variable cambian de un experimento a otro al cambiar


los resultados del experimento.

 Las propiedades de la función de probabilidad se deducen de forma


inmediata de las opciones de la probabilidad.

Variables aleatorias continúas: es aquella que consta de unidades o partes que


no están separadas unas de otras, como la longitud de una línea, el área de una
superficie, el volumen de un sólido, es decir aquella en las que el rango es un
intervalo de números reales.

Características:
 La función de densidad no tiene por qué ser simétrica, ni estar definida para
toda la recta final.

 La forma de la curva dependerá de uno o más parámetros.

Distribución de probabilidad

La distribución de probabilidad indica toda la gama de valores que pueden


representarse como resultado de un experimento si éste se llevase a cabo. Es
decir, describe la probabilidad de que un evento se realice en el futuro, constituye
una herramienta fundamental para la prospectiva, puesto que se puede diseñar un
escenario de acontecimientos futuros considerándolas tendencias actuales de
diversos fenómenos naturales.

Esta clase de distribuciones se ocupan de las expectativas son modelos de gran


utilidad para hacer inferencias y tomar decisiones en condiciones de
incertidumbre.

Distribución uniforme discreta


Es la distribución de probabilidad se asocia a variables cuyos posibles valores
tienen todos la misma probabilidad. Si una variable aleatoria X cuyos posibles
valores son x1, . . . , xn, tiene distribución uniforme discreta entonces P(X = x1) =
P(X = x2) = · · · = P(X = xn) = 1 n Intuitivamente, esta variable está asociada al
experimento similares al de elegir al azar un número entre 1 y n sin disponer de
ninguna información adicional. µ = x1 + · · · + xn n = ¯x , σ2 = (x1 − µ) 2 + · · · +
(xn − µ)

DISTRIBUCCION NORMAL
La Normal es la distribución de probabilidad más importante. Multitud de variables
aleatorias continuas siguen una distribución normal o aproximadamente normal.
Una de sus características más importantes es que casi cualquier distribución de
probabilidad, tanto discreta como continua, se puede aproximar por una normal
bajo ciertas condiciones. La distribución de probabilidad normal y la curva normal
que la representa, tienen las siguientes características:
• La curva normal tiene forma de campana y un solo pico en el centro de la
distribución. De esta manera, la media aritmética, la mediana y la moda de la
distribución son iguales y se localizan en el pico. Así, la mitad del área bajo la
curva se encuentra a la derecha de este punto central y la otra mitad está a la
izquierda de dicho punto.
• La distribución de probabilidad normal es simétrica alrededor de su media.
• La curva normal desciende suavemente en ambas direcciones a partir del valor
central. Es asintótica, lo que quiere decir que la curva se acerca cada vez más al
eje X pero jamás llega a tocarlo. Es decir, las “colas” de la curva se extienden de
manera indefinida en ambas direcciones.

DISTRIBUCION BINOMIAL
Es una de las distribuciones de probabilidad más útiles (control de calidad,
producción, investigación). Tiene que ver con el experimento aleatorio que
produce en cada ensayo o prueba uno de dos resultados posibles mutuamente
excluyentes: ocurrencia de un criterio o característica específico (llamado éxito) y
no ocurrencia de éste (llamado fracaso). Los términos o calificativos de "éxito y
fracaso" son solo etiquetas y su interpretación puede no corresponder con el
resultado positivo o negativo de un experimento en la realidad

http://es.slideshare.net/yovana93/tipos-de-12071948
LA DISTRIBUCIÓN DE JI CUADRADO O CHI CUADRADO (X^2).
Es una distribución relacionada con la distribución normal con un parámetro n que
representa los grados de libertad y es una distribución asimétrica positiva, está es
la distribución de la variable

Z= x 21+ x 22+…… x 2n

Donde x 1……. x n,, son variables aleatorias que siguen la distribución normal de
estándar N(0,1)
La distribución x 2se encuentra tabulada para los diferentes valores de n (grados de
libertad) y dada su utilización en estadística inductiva proporciona el valor de la
variable (percentiles) para una probabilidad determinad, es decir determinamos el
2
x p tal que p ( x 2 ≤ x 2)=p (probabilidad pre-determinada) ose ala probabilidad
2
acumulada asta x p.

Ejemplo:
En lafigura siguiente se muestra el grafico de la distribucion chicuadrado con 7
grados de libertad hallar los valores criticos para que el area sombreada de la
derecha sea de 0,5.

Solucion:

Nospiden P( x 2> x 22)=0,5, area de la derech; la tabla V de x 2 chi cuadrado


proporciona probabilidades acumuladas,es decir el area a la isquierda de la
2
variable, Prababilidad hasta x 2.
P( x 2≤ x 22)= 1-0,5=0,5

Luego nos vamos a la tabla de chi-cuadrado con 7 grado de libertad en lacolumna


de p=0,5

Vemos que x 22= 6,346

Manual de Estadística universitaria: inductiva


Por Jaime Serret Moreno-Gil
https://books.google.com.co/books?id=3IXxqc2uNXEC&pg=PA293&dq=Distribuci
%C3%B3n+de+probabilidad+Chi+Cuadrado&hl=es-
419&sa=X&ved=0CBoQ6AEwAGoVChMI9f_Yr9C7yAIVxXceCh3OAA9E#v=onepa
ge&q=Distribuci%C3%B3n%20de%20probabilidad%20Chi%20Cuadrado&f=false

METODO DE KOLMOGOROV
La prueva de Kolmogorov es una alternativa para provar queuna muetra proviene
de una distribucion continua normal. Esta prueva se basa en lacomparacion entre
la funcion distribucion acumulada de una distribucion teorica Fi(x) con la funcion
distribucion acumulada de lamustra Fm(x)mos H0
Si lasfunciones dedistribucion acumuladas teorica y mustral no son significativa
mente diferentes, entonces decimos que lamuestra probiene de la ditribucion culla
funcion distribucion acumulada es Fm(x), sin embargo si las diferencias
entrelasfunciones distribuacion acumuladas son moy grande comopara que
nosean devidas solamente alazar, rechazamos H0.
Los paso a seguir son
a) Plantear la hipotesis H0: Fm(x)= Fi(x) para todo X € R
Ha: Fm(x)= Fi(x) por lo menos para un X
b) Calcular todoslos valores Fm(x) de lamuestra X1, X2…..Xn.
c) Determinar la desviacion maxima que esta dada por elsupremo de valores
adsolutos de las diferencias entre los valores de las funcion acumulada
teorica de la
muestra ǀFm(x) – Fi(x)ǀ
d) Escoger un nivel de significacion α (5%,1% osemejante).
e) No se rechaza H0 si el valor calculado es mayor que elde la tabla

En otras palabras el metodo de colmogorov es una prueva que sirve para evaluar
el ajuste de cualquere distribucion a un conjunto de datos, y consiste en comparar
la funcion de distribucien de la distribucion en referencia con la funcion de
distribucion empirica de los datos. El sistema de hipotesis esta dado por
H 0: la distribucion F es adecuada para los datos

Vs.
H 1: la distribucion F no es adecuada para los datos

Y la estadistica de prueva mide la diferencia maxima entre F(x) y la distribucion


empirica F n(x) y se define como
D= ¿ z│F(x) – Fn(x)│
dada la definicion de D, se rechaza H 0 para valores grandes de D. sin envargo, el
desarrollo de la distribucion nula de esta estadistica no es facil. En la se calcula el
valor de la estadistica D y lo comparamos con los porcentiles provistos por miller
(1956) y podemos tomar una decisión sobre el sistema de hipotesis de interes.
La pueva de Kolmogorov tambien puede ser una alternativa a la prueba Ji
Cuadrado de bondad de ajuste cuanto el número de datos es pequeño. La prueba
no debe ser aplicada si hay muchos empates. Y trabaja bajo los supuestos de:
a) Supuestos. Los datos están medidos al menos a nivel ordinal.
b) Hipótesis Nula: No hay diferencias entre las distribuciones comparadas.
c) Estadístico de contraste: D (mayor diferencia entre las frecuencias relativas de
las distribuciones).
d) Distribución del estadístico de contraste: Específico dependiendo de la
distribución con que se compare la distribución observada.
Teoría estadística: Aplicaciones y Métodos
Hanwen Zhang-Hugo Andrés Gutiérrez

https://books.google.com.co/books?
id=62u0U46_QLsC&pg=PA402&dq=prueba+de+kolmogorov-
smirnov+ejemplos&hl=es-
419&sa=X&ved=0CC4Q6AEwBGoVChMIqLqCwqa9yAIViaGACh2GVQmq#v=o
nepage&q&f=false

PRUEBAS DE NORMALIDAD: PRUEBA DE ANDERSON-DARLING

La prueba de Anderson-Darling es en general mas potente que las pruebas X 2 de


pearson y la de Kolmogorov, son envargo la prueva de Kolmogorov es menos
sencible a desajustes que pudieran haver en las colas de distribucion, que la
prueva de andreson-darling, en particular esta prueva funciona mejor que cualquer
otra cuando hay casos estraordinarios o aberrantes y utilizada para probar sin
conjunto de datos muéstrales provienen de una población con una distribución de
probabilidad continua específica .La prueba de Anderson-Darling se basa en la
comparación de la distribución de probabilidades acumulada empírica con la
distribución de probabilidades acumulada teórica.esta trabaja bajo las hipotesis de:

H0: Las variables aleatorias en un estudio siguen una distribución normal (µ, σ).
Ha: Las variables aleatorias en un estudio no siguen una distribución normal (µ,
σ).

La estadistica de andreson-darling esta dada por la sigfuente exprecion

Donde Pi es el area bajo la curva normal para el interbalo (-∞, Zi ), osea es la


funcion distribucion normal estandar evaluada en el i-esimo elemento (en orden
acendente) de la muestra.
Se presentan dos situaciones para la estidistica de andreson- darling: la primera
en que se conocen los parametros de distribucion llamdo caso 0 (cero), y la
segunda en que se conoce almenos uno de ellos (caso 1, 2 y 3)

Imagen tomada del libro: Estadística Básica Un Enfoque no parametrico

Estadística Básica Un Enfoque no parametrico


https://books.google.com.co/books?
id=SaGNZ9CDle0C&pg=PA42&dq=DISTRIBUCION+DE+Anderson+Darling&hl=es
-
419&sa=X&ved=0CBoQ6AEwAGoVChMIt9OMzOy9yAIVwY0NCh2u4QVc#v=onep
age&q=DISTRIBUCION%20DE%20Anderson%20Darling&f=false
GENERACIÓN DE VARIABLES ALEATORIAS
La generación de cualquier variable aleatoria se va a basar en la generación
previa de una distribución uniforme (0,1). Y las transformaciones de dichos
números generados en valores de otras distribuciones.
CARACTERISTICAS
 permiten generar sus variables usando algoritmos especialmente ajustados
para ellas.

 Entre los diferentes factores que se pueden considerar para determinar


qué algoritmo usar en un caso particular se encuentran:

1. Exactitud: se han de obtener valores de una variable con una precisión


dada. A veces se tiene suficiente con obtener una aproximación y otras
no.

2. Eficiencia: el algoritmo que implementa el método de generación tiene


asociado un tiempo de ejecución y un gasto de memoria. Elegiremos un
método que sea eficiente en cuanto al tiempo y a la cantidad de
memoria requeridos.

3. Complejidad: Buscamos métodos que tengan complejidad mínima,


siempre y cuando se garantice cierta exactitud.

4. Robusted: el método tiene que ser eficiente para cualquier valor que
tomen los parámetros de la distribución que siga la variable aleatoria.

5. Facilidad de implementación.
http://es.scribd.com/doc/52732724/Metodos-para-Generar-Variables-
aleatorias#scribd

MÉTODOS PARA GENERAR VARIABLES ALEATORIAS

Hay cuatro métodos generales de generación de variables aleatorias y una serie


de métodos Particulares de las distintas distribuciones. La facilidad de aplicación
de dichos métodos, así como el coste computacional asociado a los Mismos, varía
mucho según la familia de variables aleatorias a las que se apliquen. Normalmente
existen varios algoritmos que se pueden utilizar para generar valores de una
Determinada distribución, y diferentes factores que se pueden considerar para
determinar qué algoritmo utilizar en un caso particular. Desafortunadamente
dichos factores suelen entrar en conflicto unos con otros y a veces se ha de llegar
a una solución de compromiso.

MÉTODO DE LA TRANSFORMADA INVERSA:


Consiste en emplear la distribución acumulada F(x) de la distribución de
probabilidad a simular por medio de integración; como el rango de F(x) se
encuentra en el intervalo de cero (0) a uno (1), se debe generar un número
aleatorio ri para luego determinar el valor de la variable aleatoria cuya distribución
acumulada es igual a ri. El problema de este método radica en el hecho que
algunas veces se dificulta demasiado la consecución de la transformada inversa.
Este método consiste en los siguientes pasos:
1. Dada la función de densidad de probabilidad f(x), se elabora la función de
distribución acumulada como:

2. Se genera un número aleatorio r ∈ [0,1].


3. Se establece F(x) = r y se determina el valor de x. La variable x es entonces una
variable aleatoria continua de la distribución cuya fdp está dada por f(x).
Ejemplo: La velocidad del servicio de internet de une posee las siguientes
velocidades; 1 mega, 2 megas y 3 megas, estas velocidades fueron determinadas
trimodalmente con la siguiente probabilidad de que los clientes la adquieran.
Velocidad en Probabilidad
(Mega)
1 0,7
2 0,2
3 0,1

La FDA viene dada por:

0,0 0 ≤ x < 1
F(X) 0,7 1 ≤ x < 2
0,2 2≤x<3
1 3≤x

1 0 ≤ u < 0,7
−1
F (u) 2 0,7 ≤ u < 0,9

3 0,9 ≤ u < 1

Podemos ver que el internet con velocidades igual o menor que 1 mega es la más
solicitada por los clientes de une, que el 20% utilizan las velocidades que están
entre 1 y 2 y por ultimo solo un 10 % prefieren utilizar los que se encuentran 2-3
megas.
MÉTODO DE ACEPTACIÓN Y RECHAZO:
El método consiste en normalizar el rango de f mediante un factor de escala c,
luego definir a x como una función lineal de r, después se generan parejas de
números aleatorios r1, r2 y por último si el número encontrado se elige al azar
dentro del rango (a,b) y r b, se utiliza este método para encontrar los valores de
las variables aleatorias. El método consiste en normalizar el rango de f mediante
un factor de escala c, luego definir a x como una función lineal de r, después se
generan parejas de números aleatorios r1, r2 y por último si el número encontrado
se elige al azar dentro del rango (a, b) y r c f(x) se acepta, en caso contrario se
rechaza. El problema de este método es la cantidad de intentos que se realizan
antes de encontrar una pareja exitosa.
Este método consiste en los siguientes pasos:
1. Se selecciona una constante M, tal que M es el valor más grande de f(x) en el
intervalo [a, b].
2. Se genera dos números aleatorios r1 y r2, r1, r2 ∈ [0,1].
3. Se calcula x* = a + (b – a) r1. (Esto asegura que cada miembro de [a, b] tiene
una probabilidad igual de ser elegido como x*).
4. Se evalúa la función f(x) en el punto x*; sea f(x*).
5. Si r2 ≤ f(x*) / M, entonces se acepta x* como una variable aleatoria continua.
De lo contrario, se rechaza x* y se vuelve al paso 2.

Se tiene la siguiente función FDF:

F(X)= 2x 0≤ x≤ 1
0

Entonces el valor más grande es f(x), ocurre x= 1 y es igual a 2


Ejemplo: r1= 0.8 y r2= 0.3
Calculamos X=a + (b-a) r1
= 0+ (1-0)0.8=0.8
Evaluamos F(X) = 2x = 2*0.8= 1.6
Para comprobar r2 ≤ f(x)/m; 0.3 ≤ ½ por lo que se acepta X como una variable
continua X= 0.8
ALGORITMO DE CONVOLUCIÓN
En este algoritmo se hace uso del teorema del límite central.  Teorema del Límite
Central: La suma X de n variables aleatorias independientes y distribuidas de
manera idéntica (por ejemplo, x1, x2,…, xn, cada una con media μ (E (xi) = μ) y
varianza finita σ2 (Var (xi) = σ2)) tiene una distribución aproximadamente normal
con media nμ y varianza nσ2.
Este método consiste en los siguientes pasos:
1. Se generan n variables aleatorias con distribución U (0, 1).
2. Se calcula la variable z:

Se calcula la variable aleatoria normal x de la siguiente forma: x = zσ + µ


Se utiliza casi siempre los siguientes valores:
n = 12.
 μ = 0.5
σ2 = 1/12
Se calcula la variable z

MÉTODO DE COMPOSICIÓN
Otro método para generar valores de variables aleatorias no-uniformes es el
método de composición. Mediante este método la distribución de probabilidad F(x)
se expresa como una mezcla de varias distribuciones de probabilidad F(x)
seleccionadas adecuadamente.
El procedimiento para la selección de las F(x) se basa en el objetivo se minimizar
el tiempo de computación requerido para la generación de valores de la variable
aleatoria analizada.
Los pasos requeridos para la aplicación de este método en la simulación de
variables no-uniformes son los siguientes:

1. Dividir la distribución de probabilidad original en sub-áreas, tal como se muestra


en la figura
2. Definir la distribución de probabilidad para cada sub-área.

3. Expresar la distribución de probabilidad original en la forma siguiente:


F(x)=A1F1(x) + A2F2(x) +… AnFn(x) y ∑Ai = 1

4. Obtener la distribución acumulada de las áreas:

5. Generar dos números uniformes R1, R2


6. Seleccionar la distribución de probabilidad F(x) con la cual se va simular el valor
de x. La selección de esta distribución se obtiene al aplicar el método de la
transformada inversa, en la cual el eje Y está representado por la distribución
acumulada de las areas, y el eje X por las distribuciones F(x). Para esta selección
se utiliza el numero uniforme R1.
7. Utilizar el numero uniforme R2 para simular por el método de la transformada
inversa o algún otro procedimiento especial, números al azar que sigan la
distribución de probabilidad F(x) seleccionada en el paso anterior.

BIBLIOGRAFIA
http://alexrosete.orgfree.com/materiales_2004/06-Simulacion/
Manual_Asignatura-Simulacion_b.pdf
Winston, Wayne L. “Investigación de Operaciones”. Grupo Editorial Iberoamérica. México, 2005.

También podría gustarte