4.1 Introdução histórica


Os estudos de probabilidade surgiram no século XVII, motivados por questões práticas relacionadas a jogos de azar e decisões econômicas.

Uma das situações que estimulou essas discussões foi o problema apresentado pelo Cavaleiro de Méré (Chevalier de Méré), que envolvia jogos de azar com dados. Ele levantou duas questões principais sobre a probabilidade de certos resultados ao lançar dados, que acabaram influenciando o desenvolvimento da teoria probabilística.


A primeira questão envolvia o lançamento de um dado seis vezes, onde Méré acreditava que havia uma alta chance de obter pelo menos um “6”. Sua intuição estava correta: a probabilidade de não obter um “6” em seis lançamentos consecutivos é \((\frac{5}{6})^{6}\) , aproximadamente 33%, o que significa que a chance de obter pelo menos um “6” é de cerca de 67%.


O segundo problema que Méré trouxe era mais intrigante e envolvia o lançamento de dois dados 24 vezes. Ele acreditava que deveria obter pelo menos um duplo “6”, mas errou em sua previsão. A probabilidade de não obter um duplo “6” em 24 lançamentos consecutivos é \((\frac{35}{36})^{24}\), aproximadamente 51%, ou seja, a chance de obter um duplo “6” é apenas cerca de 49%, e não tão alta quanto ele esperava ao observar os resultados do jogo.


Essa discrepância entre intuição e realidade levou Méré a buscar ajuda com Pascal, e a subsequente troca de ideias com Fermat. Foi nessa correspondência entre Blaise Pascal e Pierre de Fermat em 1654, na qual discutiam problemas de divisão de apostas em jogos interrompidos, que se estabeleceu a base para o conceito de probabilidade esperada.


A formalização desses estudos avançou no século XVIII com a publicação da obra Ars Conjectandi (1713) de Jacob Bernoulli, que introduziu a lei dos grandes números. Essa lei estabelece que, com um número crescente de experimentos, a frequência observada de um evento tende a se aproximar de sua probabilidade verdadeira, fornecendo assim uma base teórica sólida para a análise de fenômenos aleatórios.


Outro avanço significativo veio com Abraham de Moivre, que em The Doctrine of Chances (1718) aplicou a teoria da probabilidade ao estudo de distribuições estatísticas, introduzindo a curva normal para modelar variáveis aleatórias. Ele também formalizou o conceito de esperança matemática, essencial para a análise de risco e a tomada de decisões em situações de incerteza.


No século XIX, Pierre-Simon Laplace sistematizou a teoria da probabilidade em sua obra Théorie Analytique des Probabilités (1812), onde ele introduziu a regra de Bayes, expandindo a aplicação da probabilidade para áreas como astronomia e ciências sociais. Sua abordagem permitiu que a probabilidade fosse utilizada para fazer inferências sobre eventos desconhecidos com base em informações prévias.


A evolução da teoria da probabilidade levou, no século XX, à sua formalização por meio da teoria da medida. Esta teoria, desenvolvida por matemáticos como Andrey Kolmogorov na década de 1930, deu à probabilidade um arcabouço rigoroso dentro da matemática, utilizando conceitos de medida para definir a probabilidade como uma função que mapeia eventos (subconjuntos de um espaço amostral) para valores numéricos entre 0 e 1. Esse formalismo ficou conhecido como modelo axiomático da probabilidade.


Esses axiomas são a base para o desenvolvimento de modelos probabilísticos consistentes e robustos, que hoje são amplamente utilizados em áreas como finanças, física, estatística e inteligência artificial.


Astralagus (um dos ossos que compõem o calcanhar, usado no Egito antigo como um dado rudimentar)

Figure 4.1: Astralagus (um dos ossos que compõem o calcanhar, usado no Egito antigo como um dado rudimentar)