0% encontró este documento útil (0 votos)
13 vistas33 páginas

Probabilidad

Cargado por

alejandro guerra
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
13 vistas33 páginas

Probabilidad

Cargado por

alejandro guerra
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

2.

5 Independencia:
- Cuempliendo estas tres reglas se puede asumer independencia:
- P( A∨B)=P( A)
- P(B∨ A)=P(B)
- P( A ∩ B)=P( A) P(B)
- Se puede usar las sig eq:
● P( A ∪ B)=P( A)+ P(B)−P( A ∩ B) → por lo menos uno
● P ( A ∩B ' )=P( A)−P (A ∩B)→ Solo “algo” éxito
EJ: Probabilidad de que A tenga éxito dado que por lo menos uno tiene éxito
A ∩B '
P( A ∩ B '∨ A ∪ B)=
A ∩B
- También hay ejercicios de la forma de:
- % de n=1−¿: ejemplo 20% de las agujas deben ser desechadas, en un
lote hay 100, cual es la probabilidad que solo uno esté mala
0.20=1−¿
Teorema de Bayes: Vincula B dado a y tambien A dado b. Valido cuando son mutuamente
excluyentes y su union es el espacio muestral

3.1 Variable aleatoria:


- Formación:
X(Va): S→ ℝ
s → X(s)= x(se le asigna un número)
Una probabilidad se da de la forma de:
P(X(s)=1)=P(x=1)

3.2 Variable aleatoria discreta:


- Función de masa de probabilidad Fmp

solo es un recorte del recorte


Gráfica:
o esta

- Función de distribución acumulada

Dado:
Tons:

Eq. P(a≤ X ≤ b)=P( X ≤ b)−P (X < a) →


P(a≤ X ≤ b)=P( X ≤ b)−P (X ≤(a−1 dato))
EJ:
Entre dos y cuatro líneas, inclusive, no están en uso:
6(numero total)-x
2 ≤6−X ≤ 4
−4 ≤−X ≤−2
4 ≤ X≤2
Grafica:

3.3 Valores esperados:


● E [x ]=Σ x∗p( x )
2
σ =Var [ X ]=E[ X ]−E [ X ]=( Σ x ∗p(x ) )− [ Σ x∗p(x ) ] → el segundo término es la
2 2 2 2

esperanza al cuadrado
○ Resultados respecto a la varianza:
■ E( X +Y )=E( X)+ E (Y )
■ E(aX )=aE (X )
■ E( X +b)=E (X )+b
● σ =√ ❑
○ Resultados respecto a la desviación estándar:
■ V ( X)≥ 0
2
■ V ( aX)=a ∗V ( X )
■ V ( aX +b)=a 2 V ( X)

3.31 Distribución uniforme:


1
● p(x i )=
n
b +a
○ μ=E (x)=
2
2
○ σ =V ( x)=¿ ¿

3.32 probabilidad binomial:


● Probabilidad binomial: eventos repetidos, son independientes tiene éxito o fracaso

○ p(x )=b (x(exito), n , p)= ( nx ) p ¿→ R pbinom(x , n , p)


x

p<0.5 sesgo a la derecha



p=0.5 simetrica

p>0.5 sesgo a la izquierda

○ E(x )=np
○ V (x )=np (1− p)

4.0 Variable aleatoria continua

4.1 Función de densidad de probabilidad


- f (x)≥ 0

- ∫ f ( x )dx=1
−∞
b
- Para: P(a≤ X ≤ b)=∫ f (x)dx
a

- P( X 1 ≤ X ≤ X 2)=P (X 1 < X < X 2) da igual que signo se use más o menos

4.2 Función de distribución acumulada


x
- F (x)=P (X ≤ x )= ∫ f (t)dt cuando es menor que
−∞

● P(a≤ X ≤ b)=F (b)−F (a) cuando hay extremos se resume en:


b a
F (x)=P (a ≤ X ≤b)=∫ f (t)d− ∫ f (t)d
−∞ −∞

- μ=E (X )= ∫ x∗f (x )dx
−∞

σ =V (X )= ∫ x ∗f (x)dx−μ
2 2 2
-
−∞
- σ =√ ❑

4.30 Distribución continua uniforme


b+ a
- μ=E (X )=
2
2
- σ =V ( x)=¿ ¿
- Función de densidad de probabilidad
1
- si a ≤ x ≤ b
b−a
- Función de distribución acumulada
x−a
- si a ≤ x ≤ b
b−a
- 1 si x> b
- En R para hacer 10 obs runif(10,a,b) desde a hasta b
4.31 Distribución normal X~N( μ , σ )
- Función de densidad de probabilidad

-
- E( X )=μ
2
- V ( X)=σ

-
4.32 Distribución normal estándar Z~N(0,1)
- V.a normal con μ=0 y σ =1

-
X−μ
- Z= → siempre muestra parte inferior de gráfica
σ
- Para saber z puede poner pnorm(Z) o pnorm(x, μ,σ ) calcula a la izquierda
- En R qnorm(ϕ , μ,σ )(es al revez de pnorm)
4.33 Notación alfa
+ Z α =−Z 1−α
+ Z 0.025=1.96
+ dbinom is a probability mass function of binomial distribution, while pbinom is a
cumulative distribution function of this distribution. The first one tells
you what is Pr(X=x) (probability of observing value equal to x), while
the second one, what is Pr(X≤x) (probability of observing value smaller
or equal then x).

4.34 Aproximación normal de la binomial N(np ,√ ❑)


- E( X )=μ=n∗p
- V ( X)=σ 2=n∗p∗(1−p)
- σ =√ ❑
- APROXIMACION VALIDA PARA
- np> 5 y n(1− p)> 5
- Si n es grande mhmh
Z seria
X−np
- Z= √

4.342 Factor de corrección OJO HACER ESTO
- Para aproximar una distribución discreta por una distribución continua, se
debe introducir el factor de corrección por continuidad.
- P(a−0.5< X <a+ 0.5)
- En la prueba va pedir comparar haciendo la binomial en R que
sería (dbinom(X, N , p ))recordar que esto solo da la probabilidad del
X. pbinom va sumando desde abajo.

5.1 Variables aleatorias conjuntamente distribuidas


5.1.1 Dos variables aleatorias discretas

- Probabilidad marginal X e Y respectivamente

- EJ
Px(100)=0.2+0.1+0.02=0.5
Py(0)=0.2+0.05
Para ser independientes los valores siguientes deben ser iguales:
P(100,0)=0.2
Px(100)*Py(0)=0.5*0.25=0.125
No son iguales entonces son dependientes.

5.1.2 Dos variables aleatorias continuas

-
- Probabilidad marginal

5.1.3 Variables aleatorias independientes

-
- EJ raro
5.1.4 Más de dos variables aleatorias

- EJ

5.1.5
Independencia
X1..Xn v.a
independientes discretas
con p1(x1)...pn(xn)
p(x1...xn)=p1(x1)...pn(xn)

(continuas) : f1(x1)...fn(xn)
f(x1...xn)=f1(x1)...fn(xn)
- EJ
5.1.6 Distribuciones condicionales

5.2 Valores esperados, covarianza y correlación


5.2.1 Valor esperado

5.2.2 Covarianza
Y E(xy)

5.2.3 Correlación
Definido entre -1 y 1.
- Si X y Y son independientes, entonces 0, pero 0 no implica independencia.

5.3 Estadísticos y sus distribuciones


5.3.1 Estadístico
- Un estadístico es cualquier cantidad cuyo valor puede ser calculado a partir de
datos muestrales. Antes de obtener los datos, existe incertidumbre sobre qué
valor de cualquier estadístico particular resultará. Por consiguiente, un
estadístico es una variable aleatoria y será denotada por una letra mayúscula; se
utiliza una letra minúscula para representar el valor calculado u observado del
estadístico.
5.3.2 Muestra aleatoria
- Se dice que las variables aleatorias X1, X2, . . . , Xn forman una muestra
aleatoria simple de tamaño n si
- Las Xi son variables aleatorias independientes.
- Cada Xi tiene la misma distribución de probabilidad.
- Si cumplen las dos partes serán independientes e idénticamente distribuidas

5.4 Distribución de la media muestral


5.4.2 El caso de la distribución normal

5.4.3 Teorema del límite central


Ignorar el T sub 0.

x −μ
Z=
σ / √❑
Debe dar altura media, muestra aleatoria y eso en un ejercicio.
6.1 Conceptos generales de la estimación puntual

Error cuadrático medio

se puede calcular

6.1.2 Estimadores insesgados


- Principio de estimación insesgada Cuando se elige entre varios estimadores
diferentes de , se elige uno insesgado.

6.1.3 Estimadores con varianza mínima

6.1.4 Error standard


6.2 Métodos de estimación puntual
6.2.1 El método de momentos

- EJ
6.2.2 Estimación de máxima verosimilitud
EJ1 :
EJ2:
7.1 Propiedades básicas de los intervalos de confianza
7.1.1 intervalo de confianza para la media, σ conocido
SI dice error usamos la anterior, si es intervalor es:

7.1.2 Intervalo de confianza para la media, σ desconocida


7.1.3 Intervalos de confianza

7.1.3.2 Intervalo de confianza para la media tamaño de muestra grande

7.1.4 Intervalo de confianza para una proporción de la población


7.1.4 Intervalo de confianza para la varianza
- La población muestreada está normalmente distribuida.

8.1 Pruebas de hipotesis

8.1.2 Errores
8.1.3 Pruebas sobre una media poblacional
Válido para cada caso.
8.1.3.2 Valores P en las pruebas de hipótesis

8.1.4 Intervalos de confianza para una proporción de la población


8.1.4 Intervalos de confianza para la varianza (OJO ES 1-alpha medio)

8.1.5 Regresión lineal


DOE
2 sample t-test
https://www.youtube.com/watch?v=j9ZPMlVHJVs

También podría gustarte