Capítulo 2: Probabilidade e Distribuições

No primeiro capítulo, abordamos os fundamentos da estatística, incluindo a distinção entre estatística descritiva e inferencial. Agora, vamos nos aprofundar em um dos conceitos mais importantes para a estatística inferencial: a probabilidade. A probabilidade é essencial para entender como as incertezas podem ser quantificadas e gerenciadas, o que possibilita fazer previsões sobre fenômenos futuros ou desconhecidos.

2.1 O que é Probabilidade?

A probabilidade mede a chance de que um evento ocorra. Em termos simples, é um número entre 0 e 1, onde:

  • 0 significa que o evento é impossível.
  • 1 significa que o evento é certo.
  • Qualquer valor entre 0 e 1 reflete a chance relativa de que o evento ocorra.

Por exemplo, ao lançar uma moeda justa, a probabilidade de obter “cara” é 0,5, ou 50%, já que existem duas possibilidades (cara ou coroa) e ambas têm a mesma chance de ocorrer.

A probabilidade é a base de muitas técnicas estatísticas, especialmente na inferência, onde usamos amostras para fazer suposições sobre a população inteira.

2.2 Conceitos Básicos de Probabilidade

Antes de avançarmos, é importante definir alguns conceitos básicos:

  • Experimento Aleatório: Qualquer ação ou processo que gera um resultado incerto. Exemplo: lançar um dado ou tirar uma carta de um baralho.
  • Espaço Amostral (S): O conjunto de todos os resultados possíveis de um experimento. Exemplo: ao lançar um dado, o espaço amostral é {1, 2, 3, 4, 5, 6}.
  • Evento (A): Um subconjunto do espaço amostral, ou seja, um ou mais resultados possíveis de um experimento. Exemplo: ao lançar um dado, o evento A poderia ser “tirar um número par”, o que inclui {2, 4, 6}.
  • Probabilidade de um Evento (P(A)): A medida da chance de que o evento A ocorra. Para eventos igualmente prováveis, a fórmula básica da probabilidade é:

[
P(A) = \frac{\text{Número de resultados favoráveis a A}}{\text{Número total de resultados no espaço amostral}}
]

2.3 Tipos de Probabilidade

Existem diferentes tipos de probabilidade, dependendo de como os eventos são interpretados e quantificados:

  • Probabilidade Clássica: Baseada em experimentos teóricos com resultados igualmente prováveis. Exemplo: ao lançar um dado justo, a chance de obter qualquer número entre 1 e 6 é de 1/6.
  • Probabilidade Empírica (ou Frequência Relativa): Baseada em experimentos reais ou observações. Exemplo: se em 100 lançamentos de um dado, o número 3 apareceu 20 vezes, a probabilidade empírica de obter um 3 seria 20/100 = 0,2.
  • Probabilidade Subjetiva: Baseada na crença ou julgamento pessoal sobre a chance de ocorrência de um evento. Exemplo: um meteorologista pode estimar que há 70% de chance de chuva amanhã com base em sua experiência.

2.4 Regras Básicas da Probabilidade

Para combinar eventos ou calcular probabilidades mais complexas, usamos algumas regras básicas.

2.4.1 Regra da Adição

A regra da adição é utilizada quando estamos interessados na probabilidade de que um de dois (ou mais) eventos ocorra. Existem duas versões:

  • Eventos Mutuamente Exclusivos: Se dois eventos não podem ocorrer ao mesmo tempo (exemplo: lançar um dado e obter tanto um 2 quanto um 3), a probabilidade de que um ou outro ocorra é:

[
P(A \text{ ou } B) = P(A) + P(B)
]

  • Eventos Não Mutuamente Exclusivos: Se dois eventos podem ocorrer ao mesmo tempo (exemplo: escolher uma carta que é tanto vermelha quanto uma dama), a fórmula deve subtrair a sobreposição (ou interseção) entre os eventos:

[
P(A \text{ ou } B) = P(A) + P(B) – P(A \text{ e } B)
]

2.4.2 Regra da Multiplicação

A regra da multiplicação é usada para calcular a probabilidade de que dois eventos ocorram juntos (ou em sequência). Novamente, existem duas versões:

  • Eventos Independentes: Quando dois eventos não afetam um ao outro (exemplo: lançar dois dados), a probabilidade de ambos ocorrerem é:

[
P(A \text{ e } B) = P(A) \times P(B)
]

  • Eventos Dependentes: Se a ocorrência de um evento afeta a probabilidade do outro (exemplo: retirar uma carta de um baralho sem reposição), a fórmula é ajustada:

[
P(A \text{ e } B) = P(A) \times P(B|A)
]

Onde (P(B|A)) é a probabilidade de B ocorrer dado que A já ocorreu.

2.5 Distribuições de Probabilidade

Uma distribuição de probabilidade descreve como a probabilidade é distribuída entre os diferentes resultados possíveis de um experimento. Existem dois tipos principais:

  • Distribuição de Probabilidade Discreta: Aplica-se a variáveis discretas, como o número de ocorrências em um experimento. Um exemplo comum é a distribuição binomial, que modela o número de sucessos em uma sequência de experimentos de Bernoulli (como lançar uma moeda várias vezes).
  • Distribuição de Probabilidade Contínua: Aplica-se a variáveis contínuas, como altura, peso ou tempo. Um exemplo clássico é a distribuição normal (ou Gaussiana), que modela muitos fenômenos naturais. A função densidade de probabilidade da distribuição normal tem a forma de um sino e é simétrica em torno da média.

2.5.1 Distribuição Binomial

A distribuição binomial é utilizada quando temos um número fixo de experimentos independentes, e cada experimento tem dois resultados possíveis (sucesso ou fracasso). A fórmula da distribuição binomial é:

[
P(X = k) = \binom{n}{k} p^k (1-p)^{n-k}
]

Onde:

  • (P(X = k)) é a probabilidade de obter exatamente (k) sucessos em (n) tentativas.
  • (n) é o número total de tentativas.
  • (p) é a probabilidade de sucesso em uma única tentativa.
  • (k) é o número de sucessos desejado.

2.5.2 Distribuição Normal

A distribuição normal é uma das distribuições contínuas mais importantes em estatística. Muitos fenômenos naturais, como altura, peso e pressão arterial, seguem uma distribuição aproximadamente normal.

A função densidade de probabilidade (FDP) de uma variável aleatória normalmente distribuída é dada por:

[
f(x) = \frac{1}{\sigma\sqrt{2\pi}} e^{-\frac{(x – \mu)^2}{2\sigma^2}}
]

Onde:

  • ( \mu ) é a média.
  • ( \sigma ) é o desvio padrão.

2.6 Lei dos Grandes Números

A Lei dos Grandes Números afirma que, à medida que o número de experimentos aumenta, a média das observações tende a se aproximar da média teórica da distribuição de probabilidade. Ou seja, quanto maior for o tamanho da amostra, mais perto estaremos de descrever com precisão o comportamento da população.

Conclusão

Neste capítulo, exploramos os conceitos fundamentais de probabilidade, que servem como base para a inferência estatística. Compreender a probabilidade nos ajuda a quantificar incertezas e fazer previsões fundamentadas. No próximo capítulo, vamos introduzir os testes de hipóteses e como eles podem ser usados para tirar conclusões a partir de amostras de dados.


Tópicos para Reflexão:

  1. Qual a diferença entre probabilidade empírica e clássica?
  2. Como a regra da multiplicação muda para eventos dependentes?
  3. Por que a distribuição normal é tão importante na estatística?

Exercícios:

  1. Lance uma moeda 50 vezes e registre os resultados. Qual a probabilidade empírica de obter cara?
  2. Calcule a probabilidade de tirar um número maior que 4 ao lançar um dado.
  3. Desenhe o gráfico da função de densidade de probabilidade de uma distribuição normal com média 0 e desvio padrão 1.

Esse foi o segundo de dez capítulos sobre estatística.

Edvaldo Guimrães Filho Avatar

Published by

Leave a comment