1. Definições Iniciais
A probabilidade busca quantificar a incerteza. Embora definições simples tendam a ser tautológicas (usando "possibilidade" para definir "probabilidade"), partimos de dois pilares:
- Refere-se a experimentos aleatórios (resultado incerto).
- É uma quantidade mensurável.
2. Evolução Histórica
O campo surgiu no século XVII com os jogos de azar. O Cavaleiro de Méré estimulou debates entre Pascal e Fermat sobre a divisão de apostas.
- Jacob Bernoulli (1713): Introduziu a Lei dos Grandes Números em Ars Conjectandi.
- Abraham de Moivre: Estudou distribuições e a esperança matemática.
- Pierre-Simon Laplace: Sistematizou a teoria e expandiu o uso da Regra de Bayes.
- Andrey Kolmogorov (1930): Criou a formalização axiomática moderna.
3. Conceitos Essenciais
Diferenciamos experimentos determinísticos (resultados certos, como reações químicas) de aleatórios (resultados variam sob as mesmas condições, como lançar um dado).
4. Espaço Amostral (Ω)
É o conjunto de todos os resultados possíveis. Deve ser:
- Mutuamente Exclusivo: Apenas um elemento ocorre por vez.
- Exaustivo: Pelo menos um dos resultados deve ocorrer.
Pode ser Discreto (finito ou contável) ou Contínuo (intervalos de valores reais).
5. Tipos de Eventos
Um evento é um subconjunto do espaço amostral.
- Simples: Um único elemento.
- Certo: Igual ao espaço amostral (P=1).
- Impossível: Conjunto vazio (P=0).
- Mutuamente Exclusivos: Não podem ocorrer simultaneamente (A ∩ B = ∅).
- Independentes: A ocorrência de um não afeta a do outro.
6. Clássica vs Frequentista
Abordagem Clássica (A Priori)
Baseada na razão entre sucessos e resultados possíveis em espaços equiprováveis:
Abordagem Frequentista (A Posteriori)
A probabilidade é o limite da frequência relativa conforme o número de ensaios (n) tende ao infinito:
7. Abordagem Axiomática (Kolmogorov)
Uma função de probabilidade deve satisfazer três axiomas:
- Intervalo: 0 ≤ P(E) ≤ 1.
- Certeza: P(Ω) = 1.
- Aditividade: Para eventos disjuntos, P(A ∪ B) = P(A) + P(B).
8. Regra da União
Para dois eventos quaisquer A e B:
9. Probabilidade Condicionada
Probabilidade de A dado que B já ocorreu (restrição do espaço amostral):
Se P(A|B) = P(A), os eventos são independentes.
10. Teorema de Bayes
Relaciona probabilidades inversamente condicionadas, essencial para inferência estatística:
Permite atualizar a probabilidade a priori com base em novas evidências (probabilidade a posteriori).