graph TD subgraph S["Espaço Amostral (Ω)"] A(A) -- Interseção --> B(B) end style S fill:transparent,stroke:#333,stroke-width:2px; style A fill:#add8e6,stroke:#333,stroke-width:2px; style B fill:#90ee90,stroke:#333,stroke-width:2px;
Probabilidade Condicional e Teorema de Bayes
Aplicando Probabilidade Condicional e Teorema de Bayes em Problemas Computacionais
Introdução e Objetivos
Nas aulas anteriores, exploramos os fundamentos da Análise Combinatória e os conceitos básicos de probabilidade, incluindo espaço amostral e eventos. Agora, daremos um passo adiante para entender como a ocorrência de um evento pode influenciar a probabilidade de outro. A probabilidade condicional e o Teorema de Bayes são ferramentas poderosas que nos permitem atualizar nossas crenças sobre a chance de um evento com base em novas informações ou evidências.
Estes conceitos são pilares na inferência estatística, em sistemas de recomendação, diagnóstico médico, filtragem de spam e muitas outras aplicações na ciência de dados. Eles permitem construir modelos mais realistas e tomar decisões mais informadas em face da incerteza.
Objetivos de Aprendizagem
Ao final desta aula, você será capaz de:
- Definir e calcular a probabilidade condicional de um evento.
- Compreender e aplicar a Regra da Multiplicação para a probabilidade de interseção de eventos.
- Identificar e testar a independência de eventos.
- Aplicar a Lei da Probabilidade Total para calcular probabilidades marginais.
- Entender a intuição e a fórmula do Teorema de Bayes.
- Aplicar o Teorema de Bayes para resolver problemas computacionais, atualizando probabilidades com base em novas evidências.
- Utilizar Python e R para implementar cálculos envolvendo probabilidade condicional e Teorema de Bayes.
Probabilidade Condicional
A probabilidade condicional de um evento \(A\) dado que outro evento \(B\) já ocorreu (ou é sabido que ocorreu) é a probabilidade de \(A\) ocorrer sob a nova restrição imposta por \(B\). É denotada por \(P(A|B)\), lida como “probabilidade de A dado B”.
Definição e Fórmula
A probabilidade condicional é definida por: (Bussab; Morettin, 2017, p. 65)
\(P(A|B) = \frac{P(A \cap B)}{P(B)}\)
onde \(P(B) > 0\).
- \(P(A \cap B)\) é a probabilidade da interseção de \(A\) e \(B\) (ou seja, a probabilidade de \(A\) e \(B\) ocorrerem juntos).
- \(P(B)\) é a probabilidade marginal do evento \(B\).
Intuição: Quando sabemos que o evento \(B\) ocorreu, nosso espaço amostral efetivo se reduz ao evento \(B\). Assim, \(P(A|B)\) mede a proporção de \(B\) que também é \(A\).
Diagrama de Venn
Na probabilidade condicional \(P(A|B)\), o novo “universo” é o círculo \(B\). Estamos interessados na parte de \(A\) que está dentro de \(B\) (a interseção \(A \cap B\)), em proporção ao tamanho total de \(B\).
Exemplo: Lançamento de Dado
Considere o lançamento de um dado justo. \(\Omega = \{1, 2, 3, 4, 5, 6\}\).
- Evento A: “Obter um número par” = \(\{2, 4, 6\}\). \(P(A) = 3/6 = 1/2\).
- Evento B: “Obter um número maior que 3” = \(\{4, 5, 6\}\). \(P(B) = 3/6 = 1/2\).
Queremos calcular \(P(A|B)\): a probabilidade de obter um número par, dado que o número foi maior que 3.
- Encontre \(A \cap B\): Resultados que são pares E maiores que 3 = \(\{4, 6\}\). \(P(A \cap B) = 2/6 = 1/3\).
- Calcule \(P(A|B)\): \(P(A|B) = \frac{P(A \cap B)}{P(B)} = \frac{1/3}{1/2} = \frac{1}{3} \times \frac{2}{1} = \frac{2}{3}\).
Código Probabilidade Condicional
# Dados do problema (probabilidades já calculadas ou conhecidas)
p_a = 3/6 # P(Par)
p_b = 3/6 # P(Maior que 3)
p_a_inter_b = 2/6 # P(Par e Maior que 3)
# Verifica se P(B) é maior que 0 para evitar divisão por zero
if p_b > 0:
p_a_dado_b = p_a_inter_b / p_b
print(f"P(A|B) (Probabilidade de ser par dado que é maior que 3): {p_a_dado_b:.3f}")
else:
print("P(B) é zero, probabilidade condicional indefinida.")
# Exemplo com enumeração de espaço amostral (mais prático para problemas computacionais)
espaco_amostral =
event_A = [x for x in espaco_amostral if x % 2 == 0] # Números pares
event_B = [x for x in espaco_amostral if x > 3] # Números maiores que 3
# Encontrar a interseção
event_A_inter_B = [x for x in event_A if x in event_B]
# Calcular as probabilidades a partir da contagem
N = len(espaco_amostral)
P_A_inter_B_count = len(event_A_inter_B) / N
P_B_count = len(event_B) / N
if P_B_count > 0:
P_A_dado_B_count = P_A_inter_B_count / P_B_count
print(f"P(A|B) (calculado por contagem): {P_A_dado_B_count:.3f}")
else:
print("P(B) é zero, probabilidade condicional indefinida.")
# Dados do problema (probabilidades já calculadas ou conhecidas)
p_a <- 3/6 # P(Par)
p_b <- 3/6 # P(Maior que 3)
p_a_inter_b <- 2/6 # P(Par e Maior que 3)
# Verifica se P(B) é maior que 0
if (p_b > 0) {
p_a_dado_b <- p_a_inter_b / p_b
cat(sprintf("P(A|B) (Probabilidade de ser par dado que é maior que 3): %.3f\n", p_a_dado_b))
} else {
cat("P(B) é zero, probabilidade condicional indefinida.\n")
}
# Exemplo com enumeração de espaço amostral
espaco_amostral <- 1:6
event_A <- espaco_amostral[espaco_amostral %% 2 == 0] # Números pares
event_B <- espaco_amostral[espaco_amostral > 3] # Números maiores que 3
# Encontrar a interseção
event_A_inter_B <- intersect(event_A, event_B)
# Calcular as probabilidades a partir da contagem
N <- length(espaco_amostral)
P_A_inter_B_count <- length(event_A_inter_B) / N
P_B_count <- length(event_B) / N
if (P_B_count > 0) {
P_A_dado_B_count <- P_A_inter_B_count / P_B_count
cat(sprintf("P(A|B) (calculado por contagem): %.3f\n", P_A_dado_B_count))
} else {
cat("P(B) é zero, probabilidade condicional indefinida.\n")
}
Regra da Multiplicação (Probabilidade da Interseção)
A fórmula da probabilidade condicional pode ser rearranjada para obter a Regra da Multiplicação, que nos permite calcular a probabilidade da interseção de dois eventos. (Bussab; Morettin, 2017, p. 67)
\(P(A \cap B) = P(A|B)P(B)\)
Alternativamente, \(P(A \cap B) = P(B|A)P(A)\)
Esta regra pode ser estendida para mais de dois eventos. Por exemplo, para três eventos \(A, B, C\): \(P(A \cap B \cap C) = P(A)P(B|A)P(C|A \cap B)\).
Exemplo: Seleção de Cartas sem Reposição
Um baralho padrão de 52 cartas. Duas cartas são retiradas sem reposição. Qual a probabilidade de que ambas as cartas sejam Ases?
- Evento A: “A primeira carta é um Ás”. \(P(A) = 4/52\).
- Evento B: “A segunda carta é um Ás”, dado que a primeira foi um Ás. Após retirar um Ás, restam 51 cartas no baralho e 3 Ases. \(P(B|A) = 3/51\).
A probabilidade de ambas serem Ases é \(P(A \cap B)\):
\(P(A \cap B) = P(A)P(B|A) = \frac{4}{52} \times \frac{3}{51} = \frac{12}{2652} = \frac{1}{221} \approx 0.0045\).
Código Regra da Multiplicação
# Dados do problema
num_ases = 4
total_cartas = 52
# P(A) = Probabilidade da primeira carta ser um Ás
p_primeiro_as = num_ases / total_cartas
print(f"P(Primeira carta é Ás): {p_primeiro_as:.3f}")
# P(B|A) = Probabilidade da segunda carta ser um Ás, dado que a primeira foi um Ás
p_segundo_as_dado_primeiro_as = (num_ases - 1) / (total_cartas - 1)
print(f"P(Segunda carta é Ás | Primeira carta foi Ás): {p_segundo_as_dado_primeiro_as:.3f}")
# P(A e B) = P(Ambas as cartas são Ases)
p_ambos_ases = p_primeiro_as * p_segundo_as_dado_primeiro_as
print(f"P(Ambas as cartas são Ases): {p_ambos_ases:.4f}")
# Dados do problema
num_ases <- 4
total_cartas <- 52
# P(A) = Probabilidade da primeira carta ser um Ás
p_primeiro_as <- num_ases / total_cartas
cat(sprintf("P(Primeira carta é Ás): %.3f\n", p_primeiro_as))
# P(B|A) = Probabilidade da segunda carta ser um Ás, dado que a primeira foi um Ás
p_segundo_as_dado_primeiro_as <- (num_ases - 1) / (total_cartas - 1)
cat(sprintf("P(Segunda carta é Ás | Primeira carta foi Ás): %.3f\n", p_segundo_as_dado_primeiro_as))
# P(A e B) = P(Ambas as cartas são Ases)
p_ambos_ases <- p_primeiro_as * p_segundo_as_dado_primeiro_as
cat(sprintf("P(Ambas as cartas são Ases): %.4f\n", p_ambos_ases))
Eventos Independentes
Dois eventos \(A\) e \(B\) são considerados independentes se a ocorrência de um não afeta a probabilidade de ocorrência do outro. (Bussab; Morettin, 2017, p. 69)
Definição
Matematicamente, \(A\) e \(B\) são independentes se:
- \(P(A|B) = P(A)\) (a probabilidade de \(A\) não muda, mesmo sabendo que \(B\) ocorreu).
- Ou, \(P(B|A) = P(B)\) (a probabilidade de \(B\) não muda, mesmo sabendo que \(A\) ocorreu).
A partir da Regra da Multiplicação, se \(A\) e \(B\) são independentes, a probabilidade da interseção é simplesmente o produto das probabilidades marginais:
\(P(A \cap B) = P(A)P(B)\)
Se essa condição não for satisfeita, os eventos são dependentes.
Exemplo: Lançamento de Duas Moedas
Considere o lançamento de duas moedas justas. \(\Omega = \{CC, CK, KC, KK\}\).
- Evento A: “A primeira moeda resulta em Cara” = \(\{CC, CK\}\). \(P(A) = 2/4 = 1/2\).
- Evento B: “A segunda moeda resulta em Cara” = \(\{CC, KC\}\). \(P(B) = 2/4 = 1/2\).
- \(A \cap B\): “Ambas as moedas resultam em Cara” = \(\{CC\}\). \(P(A \cap B) = 1/4\).
Para verificar a independência, usamos \(P(A \cap B) = P(A)P(B)\):
\(1/4 = (1/2) \times (1/2)\) \(1/4 = 1/4\). Como a igualdade é verdadeira, os eventos A e B são independentes.
Lei da Probabilidade Total
A Lei da Probabilidade Total é uma regra fundamental que permite calcular a probabilidade de um evento \(A\) somando as probabilidades de \(A\) em cada cenário possível, onde os cenários formam uma partição do espaço amostral. (Bussab; Morettin, 2017, p. 73)
Considere que \(B_1, B_2, \dots, B_n\) são eventos mutuamente exclusivos (disjuntos) e coletivamente exaustivos (sua união cobre todo o espaço amostral, \(\bigcup_{i=1}^{n} B_i = \Omega\)). Então, a probabilidade de qualquer evento \(A\) pode ser calculada como:
\(P(A) = \sum_{i=1}^{n} P(A|B_i)P(B_i)\)
Ou, para o caso de dois eventos \(B\) e \(B^c\) (complemento de \(B\)):
\(P(A) = P(A|B)P(B) + P(A|B^c)P(B^c)\)
Diagrama de Partição do Espaço Amostral
graph TD subgraph S["Espaço Amostral (Ω)"] B1(B1) -- Evento A --> B2(B2) B1 --- B3(B3) B2 --- B3 end style S fill:transparent,stroke:#333,stroke-width:2px; style B1 fill:#ffcccb,stroke:#333,stroke-width:2px; style B2 fill:#b4eeb4,stroke:#333,stroke-width:2px; style B3 fill:#e6e6fa,stroke:#333,stroke-width:2px;
(Imagine que o evento A se sobrepõe a partes de B1, B2 e B3. A Lei da Probabilidade Total soma a contribuição de A em cada partição \(B_i\) para obter P(A).)
Exemplo: Linhas de Produção
Uma empresa possui duas linhas de produção, L1 e L2. L1 produz 60% dos itens e L2 produz 40%. A linha L1 tem uma taxa de defeito de 3%, e a linha L2 tem uma taxa de defeito de 5%. Um item é selecionado aleatoriamente da produção total. Qual a probabilidade de que o item seja defeituoso?
Evento D: “O item é defeituoso”.
Evento L1: “O item veio da linha L1”. \(P(L1) = 0.60\).
Evento L2: “O item veio da linha L2”. \(P(L2) = 0.40\). (L1 e L2 formam uma partição do espaço amostral).
Probabilidade de defeito, dado que veio de L1: \(P(D|L1) = 0.03\).
Probabilidade de defeito, dado que veio de L2: \(P(D|L2) = 0.05\).
Usando a Lei da Probabilidade Total:
- \(P(D) = P(D|L1)P(L1) + P(D|L2)P(L2)\)
- \(P(D) = (0.03)(0.60) + (0.05)(0.40)\)
- \(P(D) = 0.018 + 0.020\)
- \(P(D) = 0.038\)
A probabilidade de um item selecionado aleatoriamente ser defeituoso é de 3.8%.
Código Lei da Probabilidade Total
# Probabilidades de cada linha de produção
p_l1 = 0.60
p_l2 = 0.40
# Probabilidades de defeito dado cada linha
p_d_dado_l1 = 0.03
p_d_dado_l2 = 0.05
# Lei da Probabilidade Total
p_d = (p_d_dado_l1 * p_l1) + (p_d_dado_l2 * p_l2)
print(f"P(D) (Probabilidade total de um item ser defeituoso): {p_d:.3f}")
# Probabilidades de cada linha de produção
p_l1 <- 0.60
p_l2 <- 0.40
# Probabilidades de defeito dado cada linha
p_d_dado_l1 <- 0.03
p_d_dado_l2 <- 0.05
# Lei da Probabilidade Total
p_d <- (p_d_dado_l1 * p_l1) + (p_d_dado_l2 * p_l2)
cat(sprintf("P(D) (Probabilidade total de um item ser defeituoso): %.3f\n", p_d))
Teorema de Bayes
O Teorema de Bayes é uma fórmula que nos permite atualizar a probabilidade de uma hipótese (ou causa) dado que observamos uma evidência (ou efeito). Ele relaciona a probabilidade condicional de \(A\) dado \(B\) com a probabilidade condicional de \(B\) dado \(A\). (Bussab; Morettin, 2017, p. 73–74)
Definição e Fórmula
Dada a probabilidade condicional \(P(A|B) = \frac{P(A \cap B)}{P(B)}\) e a Regra da Multiplicação \(P(A \cap B) = P(B|A)P(A)\), podemos substituir \(P(A \cap B)\) na primeira fórmula:
\(P(A|B) = \frac{P(B|A)P(A)}{P(B)}\)
Aqui, \(P(B)\) no denominador pode ser expandido usando a Lei da Probabilidade Total (se \(A_i\) formam uma partição do espaço amostral):
\(P(A_j|B) = \frac{P(B|A_j)P(A_j)}{\sum_{i=1}^{n} P(B|A_i)P(A_i)}\)
Terminologia de Bayes
- \(P(A)\): Probabilidade a priori (Prior) - Nossa crença inicial na probabilidade de \(A\) antes de observar a evidência \(B\).
- \(P(B|A)\): Verossimilhança (Likelihood) - A probabilidade de observar a evidência \(B\) se a hipótese \(A\) for verdadeira.
- \(P(B)\): Evidência (Marginal Evidence) - A probabilidade total de observar a evidência \(B\), independentemente de \(A\). (Normalmente calculada pela Lei da Probabilidade Total).
- \(P(A|B)\): Probabilidade a posteriori (Posterior) - A probabilidade atualizada de \(A\) após observar a evidência \(B\).
Diagrama de Relações
graph TD P_A("P(A) - Prior") --> P_B_A("P(B|A) - Likelihood"); P_B_A --> P_A_B("P(A|B) - Posterior"); P_B("P(B) - Evidence") --> P_A_B; P_B --> P_B_A_sum("Σ P(B|Aᵢ)P(Aᵢ)"); P_B_A_sum --> P_B; style P_A fill:#d4edda,stroke:#28a745,stroke-width:2px; style P_B_A fill:#ffecb3,stroke:#ffc107,stroke-width:2px; style P_B fill:#cfe2f3,stroke:#007bff,stroke-width:2px; style P_A_B fill:#dc3545,stroke:#dc3545,stroke-width:2px; style P_B_A_sum fill:#cfe2f3,stroke:#007bff,stroke-width:2px;
Exemplo: Teste de Doença
Uma doença rara afeta \(1\%\) da população (\(P(Doença) = 0.01\)). Existe um teste para detectar a doença com as seguintes características:
- A taxa de verdadeiros positivos (o teste dá positivo se a pessoa tem a doença) é de 95% (\(P(\text{Positivo}|Doença) = 0.95\)).
- A taxa de falsos positivos (o teste dá positivo se a pessoa não tem a doença) é de 10% (\(P(\text{Positivo}|\text{Não Doença}) = 0.10\)).
Se uma pessoa aleatoriamente selecionada testa positivo, qual a probabilidade de que ela realmente tenha a doença? Ou seja, queremos calcular \(P(Doença|\text{Positivo})\).
Vamos definir os eventos:
- \(D\): A pessoa tem a doença. \(P(D) = 0.01\).
- \(\neg D\): A pessoa não tem a doença. \(P(\neg D) = 1 - P(D) = 1 - 0.01 = 0.99\).
- \(P\): O teste deu positivo.
Conhecemos:
- \(P(P|D) = 0.95\) (verossimilhança)
- \(P(P|\neg D) = 0.10\) (falso positivo)
Queremos encontrar \(P(D|P)\).
Pelo Teorema de Bayes: \(P(D|P) = \frac{P(P|D)P(D)}{P(P)}\)
Primeiro, precisamos calcular \(P(P)\) usando a Lei da Probabilidade Total:
- \(P(P) = P(P|D)P(D) + P(P|\neg D)P(\neg D)\)
- \(P(P) = (0.95)(0.01) + (0.10)(0.99)\)
- \(P(P) = 0.0095 + 0.0990\)
- \(P(P) = 0.1085\)
Agora, calculamos \(P(D|P)\):
\(P(D|P) = \frac{(0.95)(0.01)}{0.1085} = \frac{0.0095}{0.1085} \approx 0.0875\)
Mesmo com um teste positivo, a probabilidade de realmente ter a doença é de apenas cerca de \(8.75\%\)! Isso ocorre porque a doença é muito rara na população (prior baixo), e a taxa de falsos positivos, embora pareça pequena, é significativa quando aplicada a uma grande maioria de pessoas saudáveis.
Código Teorema de Bayes
# Probabilidades a priori (Prior)
p_doenca = 0.01
p_nao_doenca = 1 - p_doenca
# Verossimilhanças (Likelihood)
p_pos_dado_doenca = 0.95 # Verdadeiro positivo
p_pos_dado_nao_doenca = 0.10 # Falso positivo
# 1. Calcular a Probabilidade Total da Evidência (P(Positivo))
p_positivo = (p_pos_dado_doenca * p_doenca) + \
(p_pos_dado_nao_doenca * p_nao_doenca)
print(f"P(Positivo) (Probabilidade total de um teste positivo): {p_positivo:.4f}")
# 2. Aplicar o Teorema de Bayes
p_doenca_dado_pos = (p_pos_dado_doenca * p_doenca) / p_positivo
print(f"P(Doença | Positivo) (Probabilidade de ter a doença dado um teste positivo): {p_doenca_dado_pos:.4f}")
# Probabilidades a priori (Prior)
p_doenca <- 0.01
p_nao_doenca <- 1 - p_doenca
# Verossimilhanças (Likelihood)
p_pos_dado_doenca <- 0.95 # Verdadeiro positivo
p_pos_dado_nao_doenca <- 0.10 # Falso positivo
# 1. Calcular a Probabilidade Total da Evidência (P(Positivo))
p_positivo <- (p_pos_dado_doenca * p_doenca) +
(p_pos_dado_nao_doenca * p_nao_doenca)
cat(sprintf("P(Positivo) (Probabilidade total de um teste positivo): %.4f\n", p_positivo))
# 2. Aplicar o Teorema de Bayes
p_doenca_dado_pos <- (p_pos_dado_doenca * p_doenca) / p_positivo
cat(sprintf("P(Doença | Positivo) (Probabilidade de ter a doença dado um teste positivo): %.4f\n", p_doenca_dado_pos))
Relação entre os Conceitos
Estes conceitos se constroem mutuamente:
- A probabilidade condicional é a base para entender como eventos se relacionam.
- A Regra da Multiplicação deriva da probabilidade condicional e permite calcular a probabilidade de eventos conjuntos.
- A noção de eventos independentes é um caso especial da probabilidade condicional/regra da multiplicação, onde a ocorrência de um evento não influencia o outro.
- A Lei da Probabilidade Total é crucial para calcular a probabilidade marginal de uma evidência que pode ser gerada por diferentes causas (hipóteses).
- O Teorema de Bayes usa a probabilidade condicional (na forma de verossimilhança) e a probabilidade total da evidência para inverter a condicionalidade, permitindo-nos atualizar nossas probabilidades a priori em probabilidades a posteriori.
graph LR A["Probabilidade Clássica e Eventos"] --> B["Probabilidade Condicional P(A|B)"]; B --> C["Regra da Multiplicação P(A∩B) = P(A|B)P(B)"]; C --> D{"Eventos Independentes?"}; D -- "Sim" --> E["P(A∩B) = P(A)P(B)"]; D -- "Não" --> C; B --> F["Lei da Probabilidade Total P(B) = Σ P(B|Aᵢ)P(Aᵢ)"]; C & F --> G["Teorema de Bayes P(Aᵢ|B) = P(B|Aᵢ)P(Aᵢ) / P(B)"]; G --> H["Atualização de Crenças / Inferência"]; style A fill:#e6f3ff,stroke:#007bff; style B fill:#ffe0b2,stroke:#ff9800; style C fill:#ffe0b2,stroke:#ff9800; style D fill:#dcedc8,stroke:#8bc34a; style E fill:#c8e6c9,stroke:#4caf50; style F fill:#ffe0b2,stroke:#ff9800; style G fill:#f8bbd0,stroke:#e91e63; style H fill:#bbdefb,stroke:#2196f3;
Verificação de Aprendizagem
Resolva os problemas abaixo, aplicando os conceitos de probabilidade condicional, Regra da Multiplicação, Lei da Probabilidade Total e Teorema de Bayes. Utilize código em Python ou R para auxiliar nos cálculos quando apropriado.
Pesquisa de Mercado:
Uma pesquisa de mercado mostrou que 30% das pessoas de uma cidade preferem a Marca A de refrigerante, 50% preferem a Marca B e 20% preferem outras marcas. Sabe-se também que, entre as pessoas que preferem a Marca A, 60% são do sexo feminino. Entre as que preferem a Marca B, 40% são do sexo feminino. E entre as que preferem outras marcas, 70% são do sexo feminino.
- Qual a probabilidade de uma pessoa selecionada aleatoriamente ser do sexo feminino?
- Se uma pessoa selecionada aleatoriamente é do sexo feminino, qual a probabilidade de que ela prefira a Marca A?
- Eventos de preferência: \(A\) (Marca A), \(B\) (Marca B), \(O\) (Outras).
- \(P(A) = 0.30\)
- \(P(B) = 0.50\)
- \(P(O) = 0.20\)
- Evento \(F\): Sexo feminino.
- \(P(F|A) = 0.60\)
- \(P(F|B) = 0.40\)
- \(P(F|O) = 0.70\)
Qual a probabilidade de uma pessoa selecionada aleatoriamente ser do sexo feminino? (\(P(F)\)) Usando a Lei da Probabilidade Total: \(P(F) = P(F|A)P(A) + P(F|B)P(B) + P(F|O)P(O)\) \(P(F) = (0.60)(0.30) + (0.40)(0.50) + (0.70)(0.20)\) \(P(F) = 0.18 + 0.20 + 0.14 = 0.52\)
Resposta: A probabilidade é de 52%.
Se uma pessoa selecionada aleatoriamente é do sexo feminino, qual a probabilidade de que ela prefira a Marca A? (\(P(A|F)\)) Usando o Teorema de Bayes: \(P(A|F) = \frac{P(F|A)P(A)}{P(F)}\) \(P(A|F) = \frac{(0.60)(0.30)}{0.52} = \frac{0.18}{0.52} \approx 0.3462\)
Resposta: A probabilidade é de aproximadamente 34.62%.
Qualidade de Peças:
Uma fábrica produz parafusos em três máquinas, M1, M2 e M3.
- M1 produz 40% dos parafusos e tem uma taxa de defeito de 2%.
- M2 produz 35% dos parafusos e tem uma taxa de defeito de 3%.
- M3 produz 25% dos parafusos e tem uma taxa de defeito de 4%.
Um parafuso é selecionado aleatoriamente e é encontrado defeituoso. Qual a probabilidade de que ele tenha sido produzido pela máquina M1?
Eventos de máquina: M1, M2, M3.
- \(P(M1) = 0.40\)
- \(P(M2) = 0.35\)
- \(P(M3) = 0.25\)
Evento \(D\): Parafuso defeituoso.
- \(P(D|M1) = 0.02\)
- \(P(D|M2) = 0.03\)
- \(P(D|M3) = 0.04\)
Um parafuso é selecionado aleatoriamente e é encontrado defeituoso. Qual a probabilidade de que ele tenha sido produzido pela máquina M1? (\(P(M1|D)\))
Usando o Teorema de Bayes: \(P(M1|D) = \frac{P(D|M1)P(M1)}{P(D)}\) Primeiro, calculamos \(P(D)\) pela Lei da Probabilidade Total:
\(P(D) = P(D|M1)P(M1) + P(D|M2)P(M2) + P(D|M3)P(M3)\) \(P(D) = (0.02)(0.40) + (0.03)(0.35) + (0.04)(0.25)\) \(P(D) = 0.008 + 0.0105 + 0.010 = 0.0285\)
Agora, \(P(M1|D)\): \(P(M1|D) = \frac{(0.02)(0.40)}{0.0285} = \frac{0.008}{0.0285} \approx 0.2807\)
Resposta: A probabilidade de o parafuso defeituoso ter vindo da máquina M1 é de aproximadamente 28.07%.
Sintoma de Doença:
A probabilidade de uma pessoa ter uma certa doença é de \(0.005\). Um teste de diagnóstico para essa doença tem uma sensibilidade (probabilidade de dar positivo dado que a pessoa tem a doença) de 98% e uma especificidade (probabilidade de dar negativo dado que a pessoa não tem a doença) de 90%.
- Calcule a probabilidade de uma pessoa ter a doença, dado que o teste deu positivo.
- Calcule a probabilidade de uma pessoa não ter a doença, dado que o teste deu negativo.
Evento \(D\): Tem a doença. \(P(D) = 0.005\).
Evento \(\neg D\): Não tem a doença. \(P(\neg D) = 1 - 0.005 = 0.995\).
Evento \(P\): Teste positivo. Evento \(\neg P\): Teste negativo.
Sensibilidade: \(P(P|D) = 0.98\).
Especificidade: \(P(\neg P|\neg D) = 0.90\).
A partir da especificidade, podemos calcular \(P(P|\neg D)\) (taxa de falso positivo): \(P(P|\neg D) = 1 - P(\neg P|\neg D) = 1 - 0.90 = 0.10\).
Calcule a probabilidade de uma pessoa ter a doença, dado que o teste deu positivo. (\(P(D|P)\)) Primeiro, \(P(P)\) pela Lei da Probabilidade Total: \(P(P) = P(P|D)P(D) + P(P|\neg D)P(\neg D)\) \(P(P) = (0.98)(0.005) + (0.10)(0.995)\) \(P(P) = 0.0049 + 0.0995 = 0.1044\)
Agora, \(P(D|P)\): \(P(D|P) = \frac{P(P|D)P(D)}{P(P)} = \frac{(0.98)(0.005)}{0.1044} = \frac{0.0049}{0.1044} \approx 0.0469\) Resposta: A probabilidade de ter a doença dado um teste positivo é de aproximadamente 4.69%.
Calcule a probabilidade de uma pessoa não ter a doença, dado que o teste deu negativo. (\(P(\neg D|\neg P)\)) Precisamos de \(P(\neg P|D)\) (taxa de falso negativo): \(P(\neg P|D) = 1 - P(P|D) = 1 - 0.98 = 0.02\).
Primeiro, \(P(\neg P)\) pela Lei da Probabilidade Total: \(P(\neg P) = P(\neg P|D)P(D) + P(\neg P|\neg D)P(\neg D)\) \(P(\neg P) = (0.02)(0.005) + (0.90)(0.995)\) \(P(\neg P) = 0.0001 + 0.8955 = 0.8956\)
Agora, \(P(\neg D|\neg P)\): \(P(\neg D|\neg P) = \frac{P(\neg P|\neg D)P(\neg D)}{P(\neg P)} = \frac{(0.90)(0.995)}{0.8956} = \frac{0.8955}{0.8956} \approx 0.9999\) Resposta: A probabilidade de não ter a doença dado um teste negativo é de aproximadamente 99.99%. (O teste é muito bom para descartar a doença!)
Dados e Moeda:
Você tem uma moeda comum e um dado comum. Você joga a moeda. Se der “Cara”, você joga o dado uma vez. Se der “Coroa”, você joga o dado duas vezes e soma os resultados.
- Qual a probabilidade de obter um 6 no dado (se jogou uma vez) ou uma soma de 6 (se jogou duas vezes)?
- Se você obteve um resultado de 6 (no dado ou na soma), qual a probabilidade de que a moeda tenha dado “Cara”?
Evento \(C\): Moeda dá Cara. \(P(C) = 1/2\).
Evento \(K\): Moeda dá Coroa. \(P(K) = 1/2\).
Qual a probabilidade de obter um 6 no dado (se jogou uma vez) ou uma soma de 6 (se jogou duas vezes)? (\(P(S6)\)) Se Moeda = Cara (C): Joga 1 dado. Evento \(D_1\): “Dado = 6”. \(P(D_1|C) = 1/6\). Se Moeda = Coroa (K): Joga 2 dados. Evento \(D_2\): “Soma dos dados = 6”. Espaço amostral para 2 dados: \(6 \times 6 = 36\) resultados. Resultados que somam 6: \((1,5), (2,4), (3,3), (4,2), (5,1)\) - 5 resultados. \(P(D_2|K) = 5/36\).
Usando a Lei da Probabilidade Total para \(P(S6)\) (Evento de “obter 6”): \(P(S6) = P(S6|C)P(C) + P(S6|K)P(K)\) \(P(S6) = (1/6)(1/2) + (5/36)(1/2)\) \(P(S6) = 1/12 + 5/72 = 6/72 + 5/72 = 11/72 \approx 0.1528\) Resposta: A probabilidade de obter 6 (no dado ou na soma) é de aproximadamente 15.28%.
Se você obteve um resultado de 6 (no dado ou na soma), qual a probabilidade de que a moeda tenha dado “Cara”? (\(P(C|S6)\)) Usando o Teorema de Bayes: \(P(C|S6) = \frac{P(S6|C)P(C)}{P(S6)}\) \(P(C|S6) = \frac{(1/6)(1/2)}{11/72} = \frac{1/12}{11/72} = \frac{1}{12} \times \frac{72}{11} = \frac{72}{132} = \frac{6}{11} \approx 0.5455\) Resposta: A probabilidade de que a moeda tenha dado “Cara”, dado que o resultado foi 6, é de aproximadamente 54.55%.