Distribuci´on de probabilidad de una variable aleatoria continua
La función de densidad de una variable aleatoria determina la funcion de
distribución y, por tanto, la distribución de probabilidad de la variable.
Debemos notar, sin embargo, que la obtención de la distribución de probabilidad a
partir de la función de densidad requiere hacer uso de la integral de Lebesgue,
como se especifica a continuación.
Si X es una variable continua con función de densidad fX, su distribución de
probabilidad esta determinada por la siguiente relación
donde la integral debe entenderse en el sentido de Lebesgue.
Así, si X es una variable de tipo continuo, para calcular la probabilidad de que X
tome valores en un determinado conjunto de Borel, basta integrar la función de
densidad en dicho conjunto.
En la práctica, los conjuntos de interés serán intervalos o uniones numerables de
intervalos y, en tal caso, la integral se reduce a una integral de Riemann, como
mostramos a continuación:
Si B ∈ B es un intervalo acotado, teniendo en cuenta que FX es continua,
se tiene
Si B ∈ B es un intervalo no acotado inferiormente, teniendo en cuenta de
nuevo la continuidad de FX,
Si B ∈ B es un intervalo no acotado superiormente,
Si B ∈ B es unión numerable de intervalos, es posible expresar B como unión
numerable de intervalos disjuntos
Esperanza matemática
En estadística la esperanza matemática (también
llamada esperanza, valor esperado, media poblacional o media) de
una variable aleatoria , es el número o que formaliza la
idea de valor medio de un fenómeno aleatorio.
Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la
probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho
suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado
de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene
constante y el experimento se repite un elevado número de veces. Cabe decir que
el valor que toma la esperanza matemática en algunos casos puede no ser
"esperado" en el sentido más general de la palabra (el valor de la esperanza
puede ser improbable o incluso imposible).
Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es
3,5. Podemos hacer el cálculo
y cabe destacar que 3,5 no es un valor posible al tirar el dado. En este caso, en el
que todos los sucesos son de igual probabilidad, la esperanza es igual a la media
aritmética.
Una aplicación común de la esperanza matemática es en las apuestas o
los juegos de azar. Por ejemplo, la ruleta francesa tiene 37 casillas equiprobables.
La ganancia para acertar una apuesta a un solo número paga de 35 a 1 (es decir,
cobramos 35 veces lo que hemos apostado). Por tanto, considerando los 37
posibles resultados, la esperanza matemática del beneficio para apostar a un solo
número es:
que es aproximadamente -0,027027. Por lo tanto uno esperaría, en media, perder
unos 2,7 céntimos por cada euro que apuesta, y el valor esperado para apostar 1
euro son 0.97273 euros. En el mundo de las apuestas, un juego donde el beneficio
esperado es cero (no ganamos ni perdemos) se llama un "juego justo".
Nota: El primer término es la "esperanza" de perder la apuesta de 1€, por eso el
valor es negativo. El segundo término es la esperanza matemática de ganar los
35€. La esperanza matemática del beneficio es el valor esperado a ganar menos
el valor esperado a perder.
MEDIA: La media o valor medio de una distribución de probabilidad se representa
por µ , y se define por:
En estas dos fórmulas f(x) es la función de probabilidad y la función densidad de
probabilidad respectivamente de la variable aleatoria X en consideración.
Conviene mencionar que la media m se conoce como esperanza matemática de
X o, brevemente, esperanza de X, y se representa por E(X).
Ejemplo 10: Supóngase que la variable aleatoria X es el número que queda hacia
arriba al lanzar un dado legal. La función de probabilidad correspondiente
es para X = 1, 2, 3, 4, 5, 6
Por consiguiente
que quiere decir que 3.5 es el valor esperado, lo que significa que 3.5 es el valor
central de la distribución. Obsérvese que no es necesario que el valor esperado
sea un valor posible de la variable aleatoria. También se interpreta en el sentido
de que en 10 ejecuciones del experimento, por ejemplo, se espera que la suma de
los números obtenidos sea de (10)(3.5) = 35.
Fig. 8 Función de probabilidad
correspondiente al ejemplo 4.10
VARIANZA: La varianza de una distribución se representa mediante s2 y se define
por
[4.2]
donde f(X) representa a la función de probabilidad y a la función densidad de
probabilidad, respectivamente, de la variable aleatoria.
Claramente porque , para todo X, y , para todo X. A la
raíz cuadrada positiva de la varianza la llamamos desviación estándar y se
denota s.
En palabras, la varianza es una medida de dispersión o variabilidad que no tiene
interpretación física ya que está en unidades cuadradas.
Si en las fórmulas anteriores desarrollamos el cuadrado del binomio y aplicamos
propiedades de las sumatorias (integrales) se llega a una expresión más
conveniente para realizar los cálculos
Distribución marginal : es la distribución de probabilidad
de un subconjunto de variables aleatorias de un conjunto
de variables aleatorias. La distribución marginal proporciona
la probabilidad de un subconjunto de valore La distribución marginal s del
conjunto sin necesidad de conocer los valores de las otras variables.
La probabilidad Marginal te permite obtener probabilidades totales.
Por ejemplo:
P (H): 610/1000= 0.61
P (M): 390/1000= 0.39
P (Messenger) = 423/1000= 0.423
P (Whatsup) = 577/1000= 0.577
De cada distribución bidimensional se pueden deducir dos distribuciones
marginales: una correspondiente a la variable x, y otra correspondiente a la variable y,
como en el ejemplo anterior: una distribución para Hombres y otra para Mujeres(sus
totales)
Es cuando nos interesa conocer la distribución de un componente por separado, sin
tener en cuenta a el otro componente.
Eso se denomina "marginar", y la distribución de la variable por separado se llama
"distribución marginal".
La función de distribución marginal de X
Usos
La función de probabilidad marginal es usada para hallar las diferentes
distribuciones de probabilidad estadística de las variables individuales, con esta
función podemos asignar diferentes valores a las variables conjuntas sin tener que
relacionarlas, por ello se amplía las probabilidades de cada una de las variables.
Características
La distribución marginal de X es simplemente la función de probabilidad de x, pero
la palabra marginal sirve para distinguirla de la distribución conjunta de X e Y.
Una distribución marginal nos da la idea de la forma como depende una
probabilidad con respecto a una sola variable.
Ventajas
La distribución marginal de dos variables aleatorias se puede obtener a partir de
su distribución conjunta.
Para una variable aleatoria se puede especificar probabilidades para dicha
variable sin tener en cuenta los valores de cuales quiera otras variables aleatorias
La estadística, es la rama de las matemáticas que estudia la
variabilidad, así como el proceso aleatorio que la genera siguiendo
leyes de probabilidad.
Clasificación:
Estadística Descriptiva.
Es aquella que consiste en la evaluación de un fenómeno por medio
de la observación y su posterior presentación en datos y gráficos con
el fin de detallar el mismo fenómeno y su comportamiento.
Los pasos por medio de los cuales procede la estadística
descriptiva son los siguientes:
Recolectar: en efecto los datos deben ser obtenidos de forma
consecuente de una muestra, es decir, los mismos deben proceder de
la observación exacta de un fenómeno y de su comportamiento, solo
así es posible recabar toda la información necesaria.
Analiza: no basta con la simple observación, los datos deben ser
sometidos a una serie de estudios con el fin de evaluarlos y proceder a
su respectiva categorización, los datos deben ser sometidos a
procesos analíticos con el fin de proyectar los resultados y si estos son
o no consecuentes para la investigación.
Caracterización o categorización, esto equivale al proceso de
agrupación de los datos en distintos grupos con el fin de que los
mismos puedan presentarse de forma segmentada para una mejor
apreciación de los resultados.
Estadística inferencial.
Refiere al estudio particular de una población con el fin de apreciar
el comportamiento determinado de la misma, en efecto, el proceso
de estudio procede es de una muestra, con la finalidad de obtener
de la mismas las alternativas o probabilidades que pudieron
ocasionar que el fenómeno se suscitará.
Para poder entender el concepto de estadística inferencial, es
menester proceder al estudio de los conceptos básicos de la
misma, como es población y muestra.
Una población no es más que una cantidad determinada de sujetos,
una universalidad con una característica peculiar que permite
agruparlas; mientras que una muestra es una pequeña toma que se
realiza de la población procediendo a la categorización de forma
más estricta.
La estadística inferencial plantea sus postulados por medio de
hipótesis que no son más que planteamientos referenciales que se
realizan respecto a una situación en específica, los mismos pueden
contener la conjugación de hechos con posibles alternativas de
ocurrencias.
La prioridad de esta rama de la estadística, es fijar conclusiones
eminentes y necesaria
Area de aplicación:
La estadística se utiliza en todas las áreas del conocimiento, ya sean
humanísticas, técnicas, científicas, laborales, deportivas, etc. Esto es,
actualmente resulta difícil indicar algún área o ciencia que no utilice la
Estadística.
Importancia:
La estadística resulta fundamental para conocer el comportamiento de
ciertos eventos, por lo que ha adquirido un papel clave en la
investigación. Se usa como un valioso auxiliar y en los diferentes
campos del conocimiento y en las variadas ciencias. Es un lenguaje que
permite comunicar información basada en datos cuantitativos.
Es tan importante que casi no existe actividad humana en que no esté
involucrada la Estadística. Las decisiones más importantes de nuestra
vida se toman con base en la aplicación de la Estadística. Pongamos
algunos ejemplos.
La estadística es de gran importancia en la investigación científica
debido a que:
Permite una descripción más exacta.
Nos obliga a ser claros y exactos en nuestros procedimientos y en
nuestro pensar.
Permite resumir los resultados de manera significativa y cómoda.
Nos permite deducir conclusiones generales
UNIVERSO en estadistica.
En estadística es el nombre especifico que recibe
particularmente la investigación social la operación dentro de
la delimitación del campo de investigación que tienen por
objeto la determinación del conjunto de unidades de
observaciones del conjunto de unidades de observación que
van a ser investigadas. Para muchos investigadores él
termino universo y población son sinónima. En general, el
universo es la totalidad de elementos o características que
conforman el ámbito de un estudio o investigación.
La población de un estudio estadístico es el conjunto de elementos objeto de
estudio. Cada elemento se denomina individuo. Cuando el número de individuos
de la población es muy grande, tomamos una parte de ésta, denominada muestra.
La muestra es un subconjunto de la población y tiene que ser representativa de la
misma.
Escalas de medición son una sucesión de medidas que permiten
organizar datos en orden jerárquico. Las escalas de medición, pueden
ser clasificadas de acuerdo a una degradación de las características
de las variables. Estas escalas son: nominales, ordinales, intervalares
o racionales. Según pasa de una escala a otra el atributo o la cualidad
aumenta. Las escalas de medición ofrecen información sobre la
clasificación de variables discretas o continuas, también más
conocidas como escalas grandes o pequeñas. Toda vez que dicha
clasificación determina la selección de la gráfica adecuada.
Las variables estadísticas pueden ser de dos tipos:
Cualitativas: son aquellas en la que los resultados
posibles no son valores numéricos. Por ejemplo: color
del pelo, tipo de ropa preferida, lugar de veraneo, etc.
Cuantitativas: aquellas cuyo resultado es un número.
A su vez, las hay de dos tipos:
o Cuantitativas discretas: cuando se toman
valores aislados. Por ejemplo: número de amigos de
tu pandilla, número de veces que vas al cine al mes,
número de coches que tiene tu familia.
o Cuantitativas continuas: cuando, entre dos
valores cualesquiera, puede haber valores
intermedios. Es decir, se toman todos los valores de
un determinado intervalo. Por ejemplo: peso de las
personas, nivel sobre el mar en que se encuentra tu
ciudad, medida del perímetro torácico.
- Media aritmética
La media aritmética es la suma de todos los datos dividida
entre el número total de datos. Se calculan dependiendo de
cómo vengan ordenados los datos
Moda
La moda de un conjunto de datos es el dato que más veces
se repite, es decir, aquel que tiene mayor frecuencia
absoluta. Se denota por Mo. En caso de existir dos valores
de la variable que tengan la mayor frecuencia absoluta,
habría dos modas. Si no se repite ningún valor, no existe
moda.
La mediana
La mediana es el valor que ocupa el lugar central entre todos los
valores del conjunto de datos, cuando estos están ordenados en
forma creciente o decreciente.
La mediana se representa por Me.