0% acharam este documento útil (0 voto)
38 visualizações24 páginas

3 + Probabilidade

O documento aborda conceitos fundamentais de probabilidade, incluindo experimentos aleatórios, espaço amostral e eventos. Ele define eventos, suas operações e tipos, além de apresentar axiomas e teoremas relacionados à probabilidade, como o Teorema de Bayes. O texto também discute a importância da análise combinatória na contagem de eventos e a probabilidade condicional e independência de eventos.
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
0% acharam este documento útil (0 voto)
38 visualizações24 páginas

3 + Probabilidade

O documento aborda conceitos fundamentais de probabilidade, incluindo experimentos aleatórios, espaço amostral e eventos. Ele define eventos, suas operações e tipos, além de apresentar axiomas e teoremas relacionados à probabilidade, como o Teorema de Bayes. O texto também discute a importância da análise combinatória na contagem de eventos e a probabilidade condicional e independência de eventos.
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd

Probabilidade

Vamos ver que a probabilidade expressa por meio de valores numéricos


as possibilidades da ocorrência dos resultados de um fenômeno.

Experimento aleatório, espaço amostral e eventos

Introdução
Todas as vezes que se estudam fenômenos de observação, cumpre-se
distinguir o próprio fenômeno e o modelo matemático (determinístico ou
probabilístico) que melhor o explique.
Os fenômenos estudados pela estatística são fenômenos cujo resultado,
mesmo em condições normais de experimentação, varia de uma observação
para outra, dificultando dessa maneira a previsão de um resultado.
A observação de um fenômeno casual é recurso poderoso para se
entender a variabilidade do mesmo. Entretanto, com suposições adequadas e
sem observar diretamente o fenômeno, podemos criar um modelo teórico que
reproduza de forma bastante satisfatória a distribuição das frequências quando
o fenômeno é observado diretamente. Tais modelos são os chamados modelos
de probabilidades.
Os fenômenos determinísticos conduzem sempre a um mesmo resultado
quando as condições iniciais são as mesmas. Ex: tempo de queda livre de um
corpo. Mantidas as mesmas condições, as variações obtidas para o valor do
tempo de queda livre de um corpo são extremamente pequenas (em alguns
casos, desprezíveis).
Os fenômenos aleatórios podem conduzir a diferentes resultados e
mesmo quando as condições iniciais são as mesmas, existe a imprevisibilidade
do resultado. Ex: lançamento de um dado.
Podemos considerar os experimentos aleatórios como fenômenos
produzidos pelo homem.
• Lançamento de uma moeda honesta;
• Lançamento de um dado;
• Lançamento de duas moedas;
• Retirada de uma carta de um baralho completo, de 52 cartas;
• Determinação da vida útil de um componente eletrônico.
• A análise desses experimentos revela que:
• Cada experimento poderá ser repetido indefinidamente sob as
mesmas condições;
• Não se conhece em particular valor o do experimento “a priori”,
porém pode-se descrever todos os possíveis resultados – as
possibilidades;
• Quando o experimento for repetido um grande número de vezes,
surgirá uma regularidade.
Para a explicação desses fenômenos (fenômenos aleatórios), adota-se
um modelo matemático probabilístico.
Para melhor entendimento é interessante relembrar alguns conceitos
básicos no estudo das probabilidades tais como:

Espaço Amostral

Um dos conceitos matemáticos fundamentais utilizados no estudo das


probabilidades é o de conjunto. Um conjunto é uma coleção de objetos ou itens
que possuem característica(s) comum(ns). É importante definir
cuidadosamente o que constitui o conjunto em que estamos interessados, a fim
de podermos decidir se determinado elemento é ou não membro do conjunto.

Conjunto é uma coleção bem definida de objetos ou itens.

A probabilidade só tem sentido no contexto de um espaço amostral, que


é o conjunto de todos os resultados possíveis de um “experimento”. O termo
“experimento” sugere a incerteza do resultado antes de fazermos as
observações. Os resultados de um experimento (ex: a ocorrência de um raio,
uma viagem etc.) chamamse eventos.
Evento Aleatório (E)
É qualquer subconjunto de um espaço amostral. É também o resultado
obtido de cada experimento aleatório, que não é previsível.
Espaço Amostral (S)

Espaço amostral de um experimento aleatório é o conjunto de todos os


possíveis resultados desse experimento.
Exemplos de Espaços Amostrais:
• S = { c, r } (é composto de 2 eventos)
• S = { 1, 2, 3, 4, 5, 6 } (é composto de 6 eventos)
• S = { (c, r), (c, c), (r, c), (r, r)} (é composto de 8 eventos)
Genericamente, se o nº de pontos (elementos do espaço amostral)
amostrais de um espaço amostral finito é n, então o número de eventos é dado
por 2n.
Exemplo: No lançamento de 5 moedas, o número de pontos amostrais
(resultados possíveis) é 25 = 32. Portanto, S= 32.
O complemento de um evento é constituído de todos os resultados no
espaço amostral que não façam parte do evento.
Os eventos são mutuamente excludentes, quando não têm elemento em
comum.
Ou se não podem ocorrer simultaneamente.
Exemplo:
Na extração de uma só carta, os eventos “a carta é de copas” e a “carta
é de ouros” são mutuamente excludentes, porque uma carta não pode ser ao
mesmo tempo de copas e de ouros.
Já os eventos “a carta é de copas” e “a carta é uma figura” não são
mutuamente excludentes, porque algumas cartas de copas são também
figuras.
Muitas vezes, é útil representar

A
graficamente um espaço amostral, porque isso A
torna mais fácil visualizar lhe os elementos. S

Os eventos A e A’ são complementares.


A B

A B

S
Os eventos A e B são mutuamente excludentes porque não se
interceptam.

Os eventos A e B não são mutuamente excludentes, pois têm alguns


elementos em comum.

Operações com Eventos Aleatórios


Consideremos um espaço amostral finito:

Sejam A e B dois eventos de S, as seguintes operações são definidas:


a) Reunião – A ∪ B – O evento reunião é formado pelos pontos amostrais
que pertencem a pelo menos um dos eventos.

A∪ B ={∈1 (∈)S / ∈1∈ A ou ∈1∈B}

É o evento que ocorre se A


ocorre ou B ocorre, ou ambos
ocorrem

b) Interseção – A ∩ B – O evento interseção é formado pelos pontos


amostrais que pertencem simultaneamente aos eventos A e B.

É o evento que ocorre se


Ae
B ocorrem

Obs: Se A ∩ B = ∅, A e B são eventos


mutuamente exclusivos
c) Complementação → S – A = Ac → É o evento que ocorre se A não
ocorre.

Probabilidade: Definição Clássica; Probabilidade e frequência relativa

Dado um experimento aleatório, E e S o espaço amostral, probabilidade


de um evento A – P(A) - é uma função definida em S que associa a cada
evento um número real, satisfazendo os seguintes axiomas:
• 0 < P(A) <1
• P(S) = 1
• Se A e B forem eventos mutuamente exclusivos, ( A ∩ B)=Ø), então:

P (A ∪ B)=P(A)+P(B)

Chamamos de probabilidade de um evento A (A ⊂ S) o número real


P(A), tal que:
Tipos de eventos

Chamamos de evento qualquer subconjunto do espaço amostral S de


um experimento aleatório.
Assim, qualquer que seja E, se E ⊂ S (E está contido em S), então E é
um evento de S.
Evento Certo – é aquele que ocorre em qualquer realização do
experimento aleatório.
Se E = S, E é chamado evento certo.
Evento Elementar – é aquele formado por um único elemento do
espaço amostral.
Se E ⊂ S e E é um conjunto unitário, E é chamado evento elementar.
Evento Impossível - é aquele que não ocorre em nenhuma realização
de um experimento aleatório. Se E = ∅, E é chamado evento impossível.
Evento Complementar – seja um evento A qualquer, o evento A’
(chamado de complementar de A), tal que A’=S-A, ou seja, é um outro conjunto
formado pelos elementos que pertencem a S e não pertencem a A.
Eventos Equiprováveis - Quando se associa a cada ponto amostral a
mesma probabilidade, o espaço amostral chama-se equiprovável ou uniforme.
Os eventos Ei,i=1,2,3......n são equiprováveis quando P(Ei)=P(E2)=P(En)=P, isto
é, quando todos têm a mesma probabilidade de ocorrer: P=1/n.
Se os n pontos amostrais (eventos) são equiprováveis, a probabilidade
de cada um dos pontos amostrais é 1/n.

Exemplo:
Retira-se uma carta de um baralho completo de 52 cartas. Qual a
probabilidade de sair um rei ou uma carta de espadas?
Solução:
P(A∪B) = P(A)+P(B)−P(A∩B)

Eventos mutuamente exclusivos

Dois eventos A e B são denominados mutuamente exclusivos se eles


não puderem ocorrer simultaneamente, isto é, A ∩ B = Ø .
Evento impossível

Exemplo:
E = Jogar um dado e observar o resultado. Sejam os eventos A= ocorrer
nº par e B= ocorrer nº ímpar.

S={1,2,3,4,5,6}
Então, A e B são mutuamente exclusivos, pois a ocorrência de um
número par e ímpar não pode ser verificada em decorrência da mesma
experiência.

Axiomas de Probabilidade

1 – Se Ø é o conjunto vazio (evento impossível), então P(Ø)=0.


2 – Teorema do evento complementar: Se Ac é o complemento do evento A,
então:

P(Ac) = 1 – P(A)

3 – Teorema da soma: Se A e B são dois eventos quaisquer, então:

P(A ∪B) = P (A) + P (B) – P (A ∩ B)

Se tomássemos apenas P(A ∪ B) = P (A) + P (B), estaríamos,


considerando duas vezes a probabilidade de interseção.
Teoria da Contagem

Dados dois eventos, o primeiro dos quais pode ocorrer de m maneiras


distintas e o segundo pode ocorrer de n maneiras distintas, então os dois
eventos conjuntamente podem ocorrer de m.n maneiras distintas. O cálculo da
probabilidade de um evento reduz-se a um problema de contagem. Assim é
que a Análise Combinatória tem fundamental importância para se contar o nº
de casos favoráveis e o total de casos. Para problemas simples ou com poucos
elementos, pode-se contr o númro de resultados de forma direta, sem
necessidade de recorrer às fórmulas matemáticas da análise combinatória.
Para problemas menos simples, recorre-se ás combinações e arranjos para
determinar o número de casos.

➢ Combinação
• O Número de combinações de r elementos combinados p a p sendo
p<r e calculado por:

Notação: O Símbolo fatorial ! denota o produto dos inteiros positivos em


ordem decrescente. Por exemplo, 6! = [Link].2.1= 720. Por definição , 0! = 1.

Exemplo: Quantas comissões de três pessoas podem ser formadas com


um grupo de dez pessoas?

Podemos ter 120 comissões diferentes compostos com 3 pessoas.

➢ Arranjos
o O número de arranjos de r elementos é calculado por:
Exemplo: Considerando um grupo de dez pessoas, quantas chapas
diferentes podemos ter para uma eleição de presidente, tesoureiro e
secretário?

Podemos ter 720 chapas diferentes.

OBS: Quando queremos selecionar r elementos de um conjunto de n


elementos distintos sem levar em conta a ordem, estamos considerando
combinações, quando contamos separadamente ordenações diferentes dos
mesmos elementos temos arranjos.

Probabilidade Condicional e Independência de Eventos

Probabilidade Condicional
O evento em que ambos, A e B, ocorrem é chamado A interseção B;
portanto, a probabilidade do evento A ocorrer, dado que B ocorreu, é de:

Isso significa que a probabilidade de A ocorrer, dado que B ocorreu, é


igual à probabilidade de ocorrência simultânea de A e B dividida pela
probabilidade de ocorrência de B. (Note-se que essa definição não se aplica
quando P(B)=0, porque então estaríamos dividindo por zero).
Exemplo:
Dois dados são lançados. Consideremos os eventos

A={(x1,x2) / x1+x2=10} e B={(x1,x2) / x1 > x2},


onde x1 é o resultado do dado 1 e x 2 é o resultado do dado 2. Avaliar
P(A); P(B); P(A/B) e P(B/A).
Solução:
P(A)= 3/36 =1/12
P(B) =15/36 =5/12
P(A/B)=1/15
P(B/A)=1/3

Teorema do Produto

“A probabilidade da ocorrência simultânea de dois eventos, A e B, do


mesmo espaço amostral, é igual ao produto da probabilidade de um deles pela
probabilidade condicional do outro, dado o primeiro”.

Independência Estatística

Um evento A é considerado independente de um outro evento B se a


probabilidade de A é igual à probabilidade condicional de A dado B.
Exemplo: Em um lote de 12 peças, 4 são defeituosas, 2 peças são
retiradas uma após a outra, sem reposição. Qual a probabilidade de que ambas
sejam boas?

A={a 1ª peça é boa}

B={a 2ª peça é boa}


P(A ∩ B)= P(A). P(B/A)= 8/12.7/11=14/33

Isto é, se P(A)=P(A/B) «É evidente que, se A é independente de B, B é


independente de A; P(B)=P(B/A). Se A e B são independentes, então temos
que

P(A ∩ B)=P(A).P(B)

Regra de Bayes

Sejam A1, A2, A3,......An, n eventos mutuamente exclusivos tais que A1 ∪


A2 ∪ An = S.
Sejam P(Ai) as probabilidades conhecidas dos vários eventos e B um
evento qualquer de S, tal que são conhecidas todas as probabilidades
condicionais P(B/Ai).

OBS: O Teorema de Bayes é também chamado de Teorema da


Probabilidade a Posteriori. Ele relaciona uma das parcelas da probabilidade
total com a própria probabilidade total.
É uma generalização da probabilidade condicional ao caso de mais de
dois eventos.
Exemplos:

1. Sendo P(A) = 1/3, P(B)= ¾ e P(A ∪ B)=11/12, calcular P(A/B).


Solução:
P(A ∩ B)
Como P(A/ B) = , devemos calcular P(A ∩ B).
P(B)

Como P(A ∪ B) = P(A) + P(B) - P(A ∩ B),

temos: 11/12= 1/3 + ¾ - P(A ∩ B)

∴ P(A ∩ B)= 2/12=1/6

logo, P(A/B) = =
2. Em certo colégio, 5% dos homens e 2% das mulheres têm mais do que
1,80 m de altura. Por outro lado, 60% dos estudantes são homens. Se
um estudante é selecionado aleatoriamente e tem mais de 1,80m de
altura, qual a probabilidade de que o estudante seja mulher?
Solução:
Temos que :

P(Ma/H) = 0,05 (Probabilidade de Homem ter mais de 1,80 m)

P(Ma/M) = 0,02 (Probabilidade de Mulher ter mais de 1,80 m)

P(H) = 0,6 (Probabilidade de ser homem)

P(M) = 0,4 (Probabilidade de ser mulher)

P(M/Ma)= ? (Probabilidade de ser mulher dado que tem mais que 1,80
m)

Utilizando a Regra de Bayes temos:

3. Três máquinas, A, B e C produzem respectivamente 40%, 50% e 10%


do total de peças de uma fábrica. As porcentagens de peças defeituosas
nas respectivas máquinas são 3%, 5% e 2%. Uma peça é sorteada ao
acaso e verifica-se que é defeituosa. Qual a probabilidade de que a peça
tenha vindo da máquina B? E da máquina A?

Solução
Temos que :
P(A) = 0,4

P(B) = 0,5
P(C)= 0,10

P(D/A) = 0,03

P(D/B) = 0,05

P(D/C) = 0,02

P(B/D) = ?

Utilizando a Regra de Bayes temos:

Variáveis Aleatórias

Muitos experimentos aleatórios produzem resultados não-numéricos.


Antes de analisá-los, é conveniente transformar seus resultados em números, o
que é feito através da variável aleatória, que é uma regra de associação de um
valor numérico a cada ponto do espaço amostral. Portanto, variáveis aleatórias
são variáveis numéricas às quais iremos associar modelos probabilísticos.
Veremos que uma variável aleatória tem um número para cada resultado de
um experimento e que uma distribuição de probabilidades associa uma
probabilidade a cada resultado numérico de um experimento.

Conceito de variável aleatória

Sejam E um experimento e S o espaço associado ao experimento. Uma


função X, que associe a cada elemento s ∈ S um número real X(s), é
denominada variável aleatória.
Exemplo:
E: lançamento de duas moedas;
X: nº de caras obtidas nas duas moedas;

S={(C,C), (C,R), (R,C),(R,R)}


X=0 → corresponde ao evento (r,r) com probabilidade ¼
X= 1→ corresponde ao evento (r,c), (c,r) com probabilidade 2/4
X= 2→ corresponde ao evento (c,c) com probabilidade ¼.
Empregamos a termo variável aleatória para descrever o valor que
corresponde ao resultado de determinado experimento.
As variáveis aleatórias também podem ser discretas ou continuas e
temos as seguintes definições:
Variáveis Aleatórias Discretas – Admite um número finito de valores ou
tem uma quantidade enumerável de valores.
Variáveis Aleatórias Continuas – pode tomar um número infinito de
valores, e esses valores podem ser associados a mensurações em uma escala
contínua.

Distribuição de probabilidade

Uma vez definida a variável aleatória, existe interesse no cálculo dos


valores das probabilidades correspondentes.
O conjunto das variáveis e das probabilidades correspondentes é
denominado distribuição de probabilidades, isto é:
{(xi,p(xi), I=1,2,….n}

Função de densidade de probabilidade

É a função que associa a cada valor assumido pela variável aleatória a


probabilidade do evento correspondente, isto é:

P(X=xi)= P(Ai), i=1,2,….,n

Esperança matemática, variância e desvio padrão: propriedades

Existem características numéricas que são muito importantes em uma


distribuição de probabilidades de uma variável aleatória discreta. São os
parâmetros das distribuições, a saber:
Esperança matemática (ou simplesmente média) - E (x) – é um número
real, é também uma média aritmética;
Variância - VAR (x) – é a medida que dá o grau de dispersão (ou de
concentração) de probabilidade em torno da média. O fato de conhecermos a
média de uma distribuição de probabilidades já nos ajuda bastante, porém,
precisamos de uma medida que nos dê o grau de dispersão de probabilidade
em torno dessa média.
Desvio Padrão – DP(X) – é a raiz quadrada da variância.

Distribuições discretas: Bernoulli, Binomial e Poisson

Uma função X, definida sobre o espaço amostral e assumindo valores


num conjunto enumerável de pontos do conjunto real, é dita uma variável
aleatória discreta.
Uma variável aleatória X do tipo discreto estará bem caracterizada se
indicarmos os possíveis valores x1, x2, …, xk que ela pode assumir e as
respectivas probabilidades p(x1), p(x2), …, p(xk), ou seja, se conhecermos a sua
função de probabilidade (x; p(x)), onde

p(x) = P(X = x)

Dada a v.a. discreta X, assumindo os valores x1, x2, …, xk , chamamos


esperança matemática de X ao valor:

Chamamos variância de X ao valor:

E de desvio padrão de X a

Distribuições Discretas de Probabilidade

Distribuição de Bernoulli

Seja um experimento aleatório E realizado repetidas vezes, sempre nas


mesmas condições, de tal forma que o resultado pode ser um Sucesso (s) (se
acontecer o evento que nos interessa) ou um Fracasso (f) (se o evento não se
realizar).
Seja X a variável aleatória: Sucesso ou Fracasso
Essas condições caracterizam um conjunto de Provas de Bernoulli ou
um experimento de Bernoulli, e sua função probabilidade é dada por:

P(X = x) = p x.q1−x

Principais características

• Média:

• Variância:

Distribuição Binomial

Uma variável aleatória tem distribuição binomial quando o experimento


ao qual está relacionada apresenta apenas dois resultados (sucesso ou
fracasso). Este modelo fundamenta-se nas seguintes hipóteses:
• n provas independentes e do mesmo tipo são realizadas;
• cada prova admite dois resultados – Sucesso ou Fracasso;
• a probabilidade de sucesso em cada prova é p e de fracasso 1- p =
q

Define-se a Variável X que conta o número de sucesso nas n


realizações do experimento.
(X pode assumir os valores 0, 1, 2, 3, ......., n.)

Fazendo sucesso corresponder a 1 e fracasso, a 0, temos:


• Para X = 0 , uma sequência de n zeros : 000000....000.

P(X = 0) =q.q.q.q.q.....q=qn

• Para X = 1, uma sequência do tipo: 1000....0; 01000....0;


001000...0; serão n sequências, cada uma com um único sucesso
e n-1 fracassos:

P(X =1) = n.p.q n−1

• Para X= x, tem-se x sucessos e (n-x) fracassos, correspondendo


às sequências com x algarismos 1 e n-x zeros. Cada sequência terá
𝑛
probabilidade 𝑝 𝑥 𝑞𝑛−𝑥 e como há sequências distintas, tem-se:
𝑥

Principais características:
• Média: E(X) = n.p
• Variância: Var(X) = n.p.q
Exemplo: Uma moeda não viciada é lançada 8 vezes. Encontre a
probabilidade de:
a) dar 5 caras;
b) pelo menos uma cara;
c) no máximo 2 caras.
Solução:
a) x = sair cara, p=0,5 ( probabilidade do sucesso de X), q= 0,5 ( pro-
babilidade do fracasso de X0, n = 8 ( número de repetições do
evento).
b) P(x≥1)= 1 – { P(X=0)} = 1-{ qn} = 1- 0,58 = 0,9960 = 99,6%

c) P(X≤2) = P(X=0)+ P(x=1) + P(X=2) , utilizando as fórmulas dos


itens anteriores calcula-se as probabilidades.

Distribuição de Poisson

Consideremos a probabilidade de ocorrência de sucessos em um


determinado intervalo. A probabilidade da ocorrência de um sucesso no
intervalo é proporcional ao intervalo. A probabilidade de mais de um sucesso
nesse intervalo é bastante pequena em relação à probabilidade de um
sucesso.
Seja X o número de sucessos no intervalo; temos, então:

Onde λ é a média.

A variável X assim definida tem distribuição de Poisson.


A distribuição de Poisson é muito usada na distribuição do número de:
• Carros que passam por um cruzamento por minuto, durante uma certa
hora do dia;
• Erros tipográficos por página, em um material impresso;
• Defeitos por unidade (m³, m², m, etc.,,) por peça fabricada;
• Colônias de bactérias numa dada cultura por 0,01mm², numa plaqueta
de microscópio;
• Mortes por ataque de coração por ano, numa cidade;
• Problemas de filas de espera em geral, e outros.

Principais características:

• Média: E(X) = λ
• Variância: Var(X) = λ
OBS: Muitas vezes, no uso da binomial, acontece que n é muito grande
e p é muito pequeno. Podemos, então, fazer uma aproximação de binomial
pela distribuição de Poisson, da seguinte forma:
λ= np
Exemplo: Em média, são feitas 2 chamadas por hora para certo telefone.
Calcular a probabilidade de se receber no máximo 3 chamadas em 2 horas e a
probabilidade de nenhuma chamada em 90 minutos.

Solução:
λ = 2 por hora, para 2 horas λ= 4
P(X≤3)= P(X=0)+P(X=1)+P(X=2)+P(X=3)∴

Agora para 90 minutos λ=3 ( 1 hora (60 minutos) λ=2)


Distribuição contínua: Normal - propriedades, distribuição normal
padrão, a Normal como aproximação da Binomial

Uma variável aleatória, cujos valores são expressos em uma escala


contínua, é chamada de variável aleatória contínua.
Podemos construir modelos teóricos para v.a.’s contínuas, escolhendo
adequadamente a função de densidade de probabilidade (f.d.p.), que é uma
função indicadora da probabilidade nos possíveis valores de X.
Assim, a área sob a f.d.p. entre dois pontos a e b nos dá a probabilidade
da variável assumir valores entre a e b, conforme ilustrado na figura,
apresentada a seguir.

P(a<X<b)

a b

Figura – Probabilidade como área sob a curva entre dois pontos


Portanto, podemos escrever:

Da relação entre a probabilidade e a área sob a função, a inclusão, ou


não, dos extremos a e b na expressão acima não afetará os resultados. Assim,
iremos admitir

P(a < X <b) = P(a ≤ X <b) = P(a < X ≤b) = P(a ≤ X ≤b)

Teoricamente, qualquer função f(x) que seja não negativa e cuja área
total sob a curva seja igual à unidade, isto é,
caracterizará uma v.a. contínua.
Dada a v.a. contínua X, assumindo os valores no intervalo entre a e b,
chamamos valor médio ou esperança matemática de X ao valor

Chamamos variância de X ao valor

e de desvio padrão de X a

DP(X) = Var(X)
Se X é uma v.a. contínua com f.d.p. f(x), definimos a sua função de
distribuição acumulada F(x) como:

Distribuição Normal

A distribuição normal é a mais importante das distribuições de


probabilidades. Conhecida como a “curva em forma de sino”, a distribuição
normal tem sua origem associada aos erros de mensuração. É sabido que
quando se efetuam repetidas mensurações de determinada grandeza com um
aparelho equilibrado, não se chega ao mesmo resultado todas as vezes;
obtém-se, ao contrário, um conjunto de valores que oscilam, de modo
aproximadamente simétrico, em torno do verdadeiro valor. Construindo-se o
histograma desses valores, obtém-se uma figura com forma aproximadamente
simétrica. Gauss deduziu matematicamente a distribuição normal como
distribuição de probabilidade dos erros de observação, denominando-a então
“lei normal dos erros”.
Supunha-se inicialmente que todos os fenômenos da vida real devessem
ajustar-se a uma curva em forma de sino; em caso contrário, suspeitava-se de
alguma anormalidade no processo de coleta de dados. Daí a designação de
curva normal.
A observação cuidadosa subsequente mostrou, entretanto, que essa
pretensa universalidade da curva, ou distribuição normal, não correspondia à
realidade. De fato, não são poucos os exemplos de fenômenos da vida real
representados por distribuições não normais, curvas assimétricas, por exemplo.
Mesmo assim, a distribuição normal desempenha papel preponderante na
estatística, e os processos de inferência nela baseados têm larga aplicação.
A distribuição normal tem sua função de densidade de probabilidade
dada por

Como pode-se observar através da equação acima, a distribuição


normal inclui os parâmetros µ e σ, os quais possuem os seguintes significados:
µ
: posição central da distribuição (média, µx)

σ
: dispersão da distribuição (desvio padrão, σx)
µ
Se uma variável aleatória X tem distribuição normal com média e
variância σ2, escrevemos: X ∼ N (µ ,σ2).
A figura ilustra uma curva normal típica, com seus parâmetros descritos
graficamente.

f(x)

σ
µ: média
σ: desvio padrão

µ x
Figura - Curva normal típica

Você também pode gostar