Lei dos Grandes Números

Introdução e Condições Iniciais

A Lei dos Grandes Números (LGN) é um dos resultados mais famosos da Teoria da Probabilidade.

Sejam \(X_1, X_2, ...\) variáveis aleatórias independentes e identicamente distribuídas (\(iid\)) com média e variância existentes e finitas, isto é \(-\infty < \mu < +\infty\) e \(0 < \sigma^2 < +\infty\).

Além disso, defina \(\bar{X} = \frac{\sum_{i=1}^{n}{X_i}}{n}\) como sendo a média amostral.

Lei Forte dos Grandes Números

A Lei Forte estabelece que a média amostral converge para \(\mu\) no infinito com probabilidade 1. Ou seja, \(\bar{X} \xrightarrow{n \rightarrow + \infty} \mu\) com probabilidade 1.

Observe que \(\bar{X} \xrightarrow{n \rightarrow + \infty} \mu\) é um evento. Logo, a Lei Forte poderia ser reescrita com uma notação probabilística alternativa:

\[P\left(\bar{X} \xrightarrow{n \rightarrow + \infty} \mu \right) = 1\]

Este resultado estabelece que \(\bar{X}\) converge quase certamente para \(\mu\). Podemos interpretar esse resultado como sendo à medida que n cresce, no infinito, \(\bar{X}\) e \(\mu\) serão iguais. Ou seja, é uma convergência pontual do valor de uma variável aleatória (a média amostral) para uma constante (a média populacional).

A prova deste teorema implica em provar que o evento acima é um evento de probabilidade 1, o que exige maior formalidade matemática fazendo uso do Lema de Borel-Cantelli.

Prova. Ver Cáp. 5 de James (2023).

\(\square\)

Lei Fraca dos Grandes Números

A Lei Fraca estabelece que \(\forall \varepsilon > 0\), então:

\[P\left(\left| \bar{X} - \mu \right| \ge \varepsilon \right) \xrightarrow{n \rightarrow + \infty} 0\]

Este resultado estabelece que \(\bar{X}\) converge em probabilidade para \(\mu\).

Prova. A prova faz uso da Desigualdade de Chebyshev:

\[ \begin{align*} P\left(\left| \bar{X} - \mu \right| \ge \varepsilon \right) \overset{\text{Des. Cheb.}}{\le} \frac{Var(\bar{X})}{\varepsilon^2} = \frac{Var\left(\frac{\sum_{i=1}^{n}{X_i}}{n}\right)}{\varepsilon^2} \overset{\text{Prop. da Constante}}{=} \frac{Var(\sum_{i=1}^{n}{X_i})}{n^2\varepsilon^2} \overset{\text{Indep.}}{=} \\ = \frac{\sum_{i=1}^{n}{Var(X_i)}}{n^2\varepsilon^2} \overset{\text{Ident. Dist.}}{=} \frac{n\sigma^2}{n^2\varepsilon^2} = \frac{\sigma^2}{n\varepsilon^2} \xrightarrow{n \rightarrow + \infty} 0 \end{align*} \]

\(\square\)

Este resultado ilustra que \(\bar{X}\) converge em probabilidade para \(\mu\). Podemos interpretar esse resultado como sendo à medida que n cresce, é extremamente improvável que a diferença entre \(\bar{X}\) e \(\mu\) seja maior que \(\varepsilon\).

Relação entre Leis e Convergências

É intuitivo pensar afirmarmos que duas quantidades são iguais é mais “forte” do que dizer que essas duas quantidades são “altamente prováveis de estarem próximas”. Ora, se uma coisa é igual à outra, isso implica de que elas também são próximas. Tendo em vista que a Lei Forte dos Grandes Números representa a convergência quase certa e a Lei Fraca representa a convergência em probabilidade, temos que se

\[Convergência\ Quase\ Certa \implies Convergência\ em\ Probabilidade\]

então,

\[Lei\ Forte \implies Lei\ Fraca\]

O contrário não vale para nenhuma das duas afirmativas acima.

Exemplo: O caso Bernoulli

Suponha uma sequência independente de lançamentos de uma moeda honesta e a variável aleatória \(X_i = 1\) se cara e \(X_i = 0\) se coroa. Ou seja,

\[X_i \overset{iid}{\sim}Bernoulli(p)\]

onde \(p = 0,5\). Então, pela Lei Forte dos Grandes Números:

\[\bar{X} = \frac{\sum_{i=1}^{n}{X_i}}{n} \xrightarrow{n \rightarrow + \infty} p\]

Este resultado mostra que a medida que ao jogarmos a moeda infinitas vezes, iremos convergir para um cenário em que metade dos lançamentos serão caras e metade serão coroas. Note que o resultado vale quando \(n \rightarrow + \infty\), ou seja, ele não estabelece nada em uma quantidade finita de lançamentos onde pode existir variabilidade. Por exemplo, mesmo que seja altamente improvável que nos primeiros 100 lançamentos todos os resultados sejam a face “Cara”, não existe nada matematicamente que estabeleça que isso seja impossível. No entanto, no limite do infinito as quantidades iniciais serão “engolidas” pela LGN. Para uma discussão mais aprofundada sobre esse tema recomenda-se uma leitura sobre o Gambler’s Fallacy.

Exemplo Computacional

No R:

Mostrar Código
# Carregar as bibliotecas necessárias
library(ggplot2)
library(dplyr)

# Definir o número de lançamentos
n <- 500

# Simular lançamentos de uma moeda honesta
set.seed(123) # Para reprodutibilidade
lancamentos <- sample(c("Cara", "Coroa"), n, replace = TRUE)

# Calcular a proporção acumulada de caras
dados <- data.frame(lancamentos) %>%
  mutate(
    n = row_number(),
    proporcao_cara = cumsum(lancamentos == "Cara") / n
  )

# Criar o gráfico
ggplot(dados, aes(x = n, y = proporcao_cara)) +
  geom_line(color = "blue") +
  labs(title = "Lei dos Grandes Números: Lançamento de uma Moeda Honesta",
       x = "Número de Lançamentos",
       y = "Proporção de Caras") +
  geom_hline(yintercept = 0.5, linetype = "dashed", color = "red") +
  theme_minimal()

No Python:

Mostrar Código
import numpy as np
import matplotlib.pyplot as plt

# Definindo o número de lançamentos
n = 500

# Simulando lançamentos de uma moeda honesta
np.random.seed(123)  # Para reprodutibilidade
lancamentos = np.random.choice(['Cara', 'Coroa'], size=n)

# Calculando a proporção acumulada de caras
proporcao_cara = np.cumsum(lancamentos == 'Cara') / np.arange(1, n + 1)

# Criando o gráfico
plt.figure(figsize=(6, 4))
plt.plot(proporcao_cara, color='blue', label='Proporção de Caras')
plt.axhline(y=0.5, color='red', linestyle='--', label='Proporção Esperada (0.5)')
plt.title('Lei dos Grandes Números: Lançamento de uma Moeda Honesta')
plt.xlabel('Número de Lançamentos')
plt.ylabel('Proporção de Caras')
plt.legend()
plt.grid()
plt.show()

Referências

James, Barry R. 2023. Probabilidade: um curso em nível intermediário. 5.ª ed. IMPA.