0% encontró este documento útil (0 votos)
34 vistas12 páginas

Resumen Estadistica

Este documento describe conceptos básicos de probabilidad y estadística, incluyendo experimentos aleatorios, espacio muestral, sucesos, probabilidad conjunta, probabilidad condicional, teorema de Bayes, variables aleatorias discretas y continuas, y distribuciones de probabilidad como la binomial.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
34 vistas12 páginas

Resumen Estadistica

Este documento describe conceptos básicos de probabilidad y estadística, incluyendo experimentos aleatorios, espacio muestral, sucesos, probabilidad conjunta, probabilidad condicional, teorema de Bayes, variables aleatorias discretas y continuas, y distribuciones de probabilidad como la binomial.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Resumen estadística

La probabilidad de que ocurra cada suceso es un número comprendido entre 0 y 1, la suma de


probabilidades de los sucesos es 1.

Un experimento aleatorio es un proceso que tiene dos o más resultados posibles y existe incertidumbre
sobre el resultado que se obtendrá.

Los resultados posibles de un experimento aleatorio se llaman resultados básicos y el conjunto de todos
los resultados básicos se llama espacio muestral y se representa por medio del símbolo S.

Los resultados básicos deben definirse de tal forma que no puedan ocurrir simultáneamente dos
resultados. Además, el experimento aleatorio debe llevar necesariamente a la ocurrencia de uno de los
resultados básicos.

Un suceso, E, es cualquier subconjunto de resultados básicos del espacio muestral. Un suceso ocurre si
el experimento aleatorio genera uno de los resultados básicos que lo constituyen. El suceso nulo
representa la ausencia de un resultado básico y se representa por medio de ∅.

Sean A y B dos sucesos contenidos en el espacio muestral S. Su intersección, representada por A ∩B, es
el conjunto de todos los resultados básicos en S que pertenecen tanto a A como a B. Por lo tanto, la
intersección A∩B ocurre si y sólo si ocurren tanto A como B. Utilizaremos la expresión probabilidad
conjunta de A y B para representar la probabilidad de la intersección de A y B.

Si los sucesos A y B no tienen ningún resultado básico común, se llaman mutuamente excluyentes y se
dice que su intersección, A∩B, es el conjunto vacío que indica que A∩B no puede ocurrir.

Sean A y B dos sucesos contenidos en el espacio muestral, S. Su unión, representada por AUB, es el
conjunto de todos los resultados básicos contenidos en S que pertenecen al menos a uno de estos dos
sucesos. Por lo tanto, la unión AUB ocurre si y sólo si ocurre A o B o ambos.

Sea A un suceso contenido en el espacio muestral, S. El conjunto de resultados básicos de un


experimento aleatorio perteneciente a S pero no a A se llama complementario de A y se representa por
medio de A. Es evidente que los sucesos A y A son mutuamente excluyentes, es decir, ningún resultado
básico puede pertenecer a ambos, y colectivamente exhaustivos, es decir, todos los resultados básicos
deben pertenecer a uno o al otro.

Sean A y B dos sucesos. Los sucesos A∩B y A∩B son mutuamente excluyentes y su unión es B.

(A∩B)U (A∩B)=B
Sean A y B dos sucesos. Los sucesos A y A∩B son mutuamente excluyentes y su unión es A∩B

A U (A∩B) =AUB
La probabilidad clásica es la proporción de veces que ocurrirá un suceso, suponiendo que todos los
resultados contenidos en un espacio muestral tienen la misma probabilidad de ocurrir. La división del
número de resultados contenidos en el espacio muestral que satisface el suceso por el número total de
resultados contenidos en el espacio muestral se obtiene la probabilidad de un suceso. La probabilidad
de un suceso A es:

P(A)=NA/N

donde NA es el número de resultados que satisfacen la condición del suceso A y N es el número total de
resultados contenidos en el espacio muestral.

Fórmula para hallar el número de combinaciones El proceso de recuento puede generalizarse


utilizando la siguiente ecuación para calcular el número de combinaciones de n objetos que se
toman k de cada vez:
La frecuencia relativa es el límite de la proporción de veces que ocurre el suceso A en un gran
número de pruebas, n: P(A)= nA/n donde nA es el número de veces que se obtiene A y n es el
número total de pruebas o resultados. La probabilidad es el límite a medida que n se hace más
grande (o tiende a infinito).

1. Si el espacio muestral, S, está formado por n resultados básicos igualmente probables, E1,
E2, ..., En, entonces

P(Ei )=1/n , i= 1,2, n

ya que los n resultados cubren el espacio muestral y son igualmente probables. Por ejemplo, si
se lanza al aire un dado equilibrado, la probabilidad de que salga cada uno de los seis
resultados básicos es 1/6.
2. Si el espacio muestral, S, está formado por n resultados básicos igualmente probables y el
suceso A está formado por nA de estos resultados, entonces:
P(A)=nA/n

Este resultado se deduce de la consecuencia 1 y el postulado 2. Todo resultado básico tiene la


probabilidad 1/n y, por el postulado 2, P(A) es simplemente la suma de las probabilidades de
los nA resultados básicos de A. Por ejemplo, si se lanza al aire un dado equilibrado y A es el
suceso «sale un número par», hay n=6 resultados básicos y nA=3 de ellos se encuentran en A.
Por lo tanto, P(A)=3/6=1/2.
3. Sean A y B sucesos mutuamente excluyentes. En ese caso, la probabilidad de su unión es la
suma de sus probabilidades individuales; es decir,

P(AUB)=P(A)+P(B)

En general, si E1, E2, ..., EK son sucesos mutuamente excluyentes,

P(E1UE2U…EK)=P(E1) + P(E2)+ P(EK)

Este resultado es una consecuencia del postulado 2. La probabilidad de la unión de A y B es


P(AUB)= ∑ P(Oi ) donde el sumatorio abarca todos los resultados básicos de AUB. Pero, dado
AUB

que A y B son mutuamente excluyentes, ningún resultado básico pertenece a ambos, por lo que
∑ P(Oi )= ∑ P(Oi ) + ∑ P(Oi )= P(A)+ P(B)
AUB A B

4. Si E1, E2, ..., EK son sucesos colectivamente exhaustivos, la probabilidad de su unión es

P(E1UE2…U EK)=1
Dado que los sucesos son colectivamente exhaustivos, su unión es todo el espacio muestral, S,
y el resultado se deduce del postulado 3.

A y su complementario, A, son mutuamente excluyentes y colectivamente exhaustivos.


P(AUA)= P(A)+P(A) =1

También es importante distinguir entre los términos mutuamente excluyente e independiente.


Dos sucesos son mutuamente excluyentes si no pueden ocurrir conjuntamente; es decir, la
probabilidad de su intersección es 0. Cuando los sucesos son independientes, la probabilidad de
su intersección es el producto de sus probabilidades individuales y, en general, esa probabilidad
no es 0.
También debe señalarse que si sabemos que dos sucesos son mutuamente excluyentes,
entonces si ocurre uno, el otro no puede ocurrir, y los sucesos no son independientes.

El teorema de Bayes permite reconsiderar las probabilidades condicionadas utilizando la


información de que se dispone. También permite saber cómo deben ajustarse las estimaciones
de la probabilidad, dada la información adicional.

Supongamos que una persona está interesada en el suceso B y tiene una opinión subjetiva
sobre la probabilidad de que ocurra; en este contexto, la probabilidad P(B) se llama
probabilidad a priori. Si obtiene entonces más información —a saber, que ha ocurrido el suceso
A—, eso puede cambiar su opinión personal sobre la probabilidad de que ocurra B. Como se
sabe que A ha ocurrido, la probabilidad relevante de B ahora es la probabilidad condicionada
de B, dado A, y se denomina probabilidad a posteriori. Podemos considerar que el teorema de
Bayes, visto de esta forma, es un mecanismo para actualizar una probabilidad a priori y
convertirla en una probabilidad a posteriori cuando se dispone de la información de que ha
ocurrido A. El teorema establece que la actualización se logra multiplicando la probabilidad a
priori por P(A/B)/P(A).

Variable aleatoria

Una variable aleatoria es una variable que toma valores numéricos determinados por el
resultado de un experimento aleatorio.
Hacemos la distinción utilizando letras mayúsculas, como X, para representar la variable
aleatoria y la correspondiente letra minúscula, x, para representar un valor posible. Por
ejemplo, antes de observar los resultados del lanzamiento de un dado al aire, podemos utilizar
la variable aleatoria X para representar el resultado. Esta variable aleatoria puede tomar los
valores específicos x=1, x=2, ..., x=6, cada uno con una probabilidad P(X=2)=…=P(X=6)=1/6.

Variable aleatoria discreta

Una variable aleatoria es una variable aleatoria discreta si no puede tomar más que una
cantidad numerable de valores.

Variable aleatoria continua

Una variable aleatoria es una variable aleatoria continua si puede tomar cualquier valor de un
intervalo.

He aquí algunos otros ejemplos de variables aleatorias continuas:

1. La renta anual de una familia.


2. La cantidad de petróleo importado en un mes.
3. La variación del precio de las acciones ordinarias de IBM en un mes.
4. El tiempo que transcurre desde que se instala un nuevo componente hasta que se avería.
5. El porcentaje de impurezas que hay en un lote de productos químicos.

A efectos prácticos, consideramos que las variables aleatorias son discretas cuando tiene
sentido asignar probabilidades a los resultados individuales posibles; todas las demás variables
aleatorias se consideran continuas.

Supongamos que X es una variable aleatoria discreta y que x es uno de sus valores posibles. La
probabilidad de que la variable aleatoria X tome el valor específico x se representa por medio
de P(X=x). La función de probabilidad de una variable aleatoria es una representación de las
probabilidades de todos los resultados posibles. Esta representación podría ser algebraica,
gráfica o tabular. En el caso de las variables aleatorias discretas, un sencillo método es
enumerar las probabilidades de todos los resultados posibles de acuerdo con los valores de x.
En el caso de las variables aleatorias discretas, la función de probabilidad acumulada a veces se
denomina función de masa acumulada. Puede verse en la definición que, cuando x 0 aumenta, la
función de probabilidad acumulada sólo cambia de valor en los puntos x 0 que puede tomar la
variable aleatoria con una probabilidad positiva. Su evaluación en estos puntos se realiza por
medio de la función de probabilidad.

El valor esperado es la medida correspondiente del punto central de una variable aleatoria.
Distribución binomial

Distribución de Bernoulli: Un experimento aleatorio que puede dar lugar a dos resultados
posibles mutuamente excluyentes y colectivamente exhaustivos, que por comodidad llamamos
«éxito» y «fracaso». Sea P la probabilidad de éxito, por lo que la probabilidad de fracaso es (1-
P). Definamos ahora la variable aleatoria X de manera que tome el valor 1 si el resultado del
experimento es un éxito y 0 en caso contrario. La función de probabilidad de esta variable
aleatoria es, entonces,

P(0)=(1-P) y P(1)=P

Una importante generalización de la distribución de Bernoulli es el caso en el que se realiza


varias veces un experimento aleatorio con dos resultados posibles y las repeticiones son
independientes. En este caso, podemos hallar las probabilidades utilizando la distribución
binomial.

El número de éxitos X resultantes de estas n pruebas podría ser cualquier número entero
comprendido entre 0 y n y nos interesa saber cuál es la probabilidad de obtener exactamente
X=x éxitos en n pruebas. Desarrollamos el resultado en dos fases. En primer lugar, observamos
que el resultado de las n pruebas es una secuencia de n resultados, cada uno de los cuales debe
ser un éxito (S) o un fracaso (F). Una secuencia con x éxitos y (n .x) fracasos es

S, S, ..., S (x veces) F, F, ..., F (n-x veces)

En palabras, el resultado de las x primeras pruebas es un éxito, mientras que el del resto es un
fracaso. Ahora bien, la probabilidad de éxito en una única prueba es P y la probabilidad de
fracaso es (1-P). Dado que las n pruebas son independientes entre sí, la probabilidad de
cualquier secuencia de resultados es, por la regla del producto de probabilidades, igual al
producto de las probabilidades de los resultados individuales. Por lo tanto, la probabilidad de
observar la secuencia específica de resultados que acabamos de describir es

[P x P x … x P] (x veces) x [(1-P) x(1-P) x…x(1-P)]=Px (1-P)(n-x) (n-x veces)

Según este argumento, la probabilidad de observar cualquier secuencia específica que


contenga x éxitos y (n-x) fracasos es Px (1-P)n-x
El suceso «se obtienen x éxitos en n pruebas» puede ocurrir de Cn x maneras mutuamente
excluyentes, cada una con una probabilidad Px(1 .P)n-x . Por lo tanto, por la regla de la suma de
probabilidades, la probabilidad que buscamos es la suma de estas C nx probabilidades
individuales.

1. En la aplicación se realizan varias pruebas, cada una de las cuales sólo tiene dos resultados: sí
o no, encendido o apagado, éxito o fracaso.
2. La probabilidad del resultado es la misma en cada prueba.
3. La probabilidad del resultado de una prueba no afecta a la probabilidad del resultado de
otras pruebas

Podemos utilizar la distribución binomial en las situaciones que se denominan «muestreo con
reposición». Si se repone el objeto seleccionado en la población, la probabilidad de seleccionar
ese tipo de objeto sigue siendo la misma y se satisfacen los supuestos binomiales

Distribución hipergeométrica

. En cambio, si no se reponen los objetos —«muestreo sin reposición»— las probabilidades


varían con cada selección y, por lo tanto, el modelo de probabilidad que debe utilizarse es la
distribución hipergeométrica. Si la población es grande (N>10.000) y el tamaño de la muestra
es pequeño (<1%), la variación de la probabilidad después de cada selección es muy pequeña.
En esas situaciones, la distribución binomial es una aproximación muy buena y es la que se
utiliza normalmente.
La distribución de Poisson

Podemos utilizar la distribución de Poisson para hallar la probabilidad de cada una de estas
variables aleatorias, que se caracterizan por ser el número de ocurrencias o de éxitos de un
suceso en un intervalo continúo dado (como el tiempo, la superficie o la longitud).

La suma de las variables aleatorias de Poisson también es una variable aleatoria de Poisson. Por
lo tanto, la suma de K variables aleatorias de Poisson, cada una de media λ, es una variable
aleatoria de Poisson de media Kλ

Aproximación de Poisson de la distribución binomial Antes hemos señalado que la distribución


de probabilidades de Poisson se obtiene partiendo de la distribución binominal, donde P tiende
a 0 y n tiende a infinito. Por lo tanto, la distribución de Poisson puede utilizarse como
aproximación de las probabilidades binomiales cuando el número de pruebas, n, es grande y al
mismo tiempo la probabilidad, P, es pequeña (generalmente tal que λ=nP≤7).
Variables aleatorias continuas

Para hallar la probabilidad de que una variable aleatoria continua X esté comprendida en un
intervalo específico, calculamos la diferencia entre la probabilidad acumulada en el extremo
superior del intervalo y la probabilidad acumulada en el extremo inferior del intervalo
En el caso de las variables aleatorias continuas, da lo mismo que escribamos «menor que» o
«menor o igual que», ya que la probabilidad de que X sea exactamente igual a b es 0. En el caso
de la variable aleatoria que está distribuida uniformemente en el rango de 0 a 1.000, la función
de distribución acumulada en ese rango es F(x)=0,001x. Por lo tanto, si a y b son dos números
comprendidos entre 0 y 1.000, siendo a<b,

P(a<X<b)=F(b)-F(a)=0,001(b-a)

También podría gustarte