graph LR
subgraph "Teste Bilateral"
A1[H0: μ = X] --> A2[H1: μ ≠ X]
A2 -- "Região de Rejeição" --> A3("Nas duas caudas")
end
subgraph "Teste Unilateral à Direita"
B1[H0: μ ≤ X] --> B2[H1: μ > X]
B2 -- "Região de Rejeição" --> B3("Na cauda direita")
end
subgraph "Teste Unilateral à Esquerda"
C1[H0: μ ≥ X] --> C2[H1: μ < X]
C2 -- "Região de Rejeição" --> C3("Na cauda esquerda")
end
classDef h0 fill:#f8bbd0,stroke:#e91e63,stroke-width:2px;
classDef h1 fill:#d4edda,stroke:#28a745,stroke-width:2px;
classDef region fill:#ffe0b3,stroke:#ffc107;
class A1,B1,C1 h0;
class A2,B2,C2 h1;
class A3,B3,C3 region;
Introdução aos Testes de Significância
Compreendendo a Lógica dos Testes de Hipóteses e Seus Tipos
Introdução e Objetivos
Nas aulas anteriores, aprendemos a estimar parâmetros populacionais através de estimativas pontuais e intervalos de confiança. Embora os intervalos de confiança nos deem uma faixa de valores prováveis para um parâmetro, muitas vezes precisamos de uma ferramenta mais direta para tomar decisões sobre afirmações específicas. É aqui que entram os Testes de Significância, também conhecidos como Testes de Hipóteses.
Os testes de hipóteses são um pilar fundamental da inferência estatística. Eles nos permitem usar dados amostrais para avaliar a plausibilidade de uma afirmação ou hipótese sobre uma população. Seja para determinar se um novo medicamento é eficaz, se um novo algoritmo é mais rápido, ou se há uma diferença significativa entre dois grupos de clientes, os testes de hipóteses fornecem uma estrutura formal para tomar decisões baseadas em evidências, quantificando o risco de estar errado.
Nesta aula, focaremos na lógica por trás dos testes de hipóteses, seus componentes essenciais e os tipos de decisões e erros que podem ocorrer.
Objetivos de Aprendizagem
Ao final desta aula, você será capaz de:
- Compreender a lógica subjacente aos testes de hipóteses.
- Formular corretamente hipóteses nula (\(H_0\)) e alternativa (\(H_1\)).
- Diferenciar entre testes unilaterais (unidirecionais) e bilaterais (bidirecionais).
- Definir e interpretar o nível de significância (\(\alpha\)) e o p-valor.
- Entender os tipos de erro que podem ocorrer em um teste de hipóteses (Tipo I e Tipo II).
- Descrever os passos básicos para realizar um teste de hipóteses.
- Utilizar Python e R para ilustrar conceitos de p-valor e valores críticos.
A Lógica dos Testes de Hipóteses
Um teste de hipóteses é um procedimento estatístico que nos permite decidir, com base em dados de uma amostra, se uma afirmação (hipótese) sobre um parâmetro populacional é plausível ou se deve ser rejeitada. Pense nisso como um julgamento: a hipótese nula é a presunção de inocência, e os dados amostrais são as evidências.
Hipótese Nula (\(H_0\))
A hipótese nula (\(H_0\)) é uma afirmação sobre um parâmetro populacional que assume nenhum efeito, nenhuma diferença ou nenhuma relação. É a hipótese do status quo, da “não mudança” ou da “não existência” de algo. É a hipótese que testamos diretamente e que só será rejeitada se houver evidências fortes e suficientes nos dados contra ela. (Bussab; Morettin, 2017, p. 209)
Características:
- Sempre contém um sinal de igualdade (=, \(\le\), \(\ge\)).
- Representa o que se assume ser verdade até que se prove o contrário.
Exemplos:
- \(H_0: \mu = 10\) (A média populacional é 10)
- \(H_0: P = 0.5\) (A proporção populacional é 0.5)
- \(H_0: \mu_1 - \mu_2 = 0\) (Não há diferença entre as médias de duas populações)
Hipótese Alternativa (\(H_1\) ou \(H_a\))
A hipótese alternativa (\(H_1\) ou \(H_a\)) é a afirmação que o pesquisador busca evidenciar. Ela contradiz a hipótese nula e representa o “efeito”, a “diferença” ou a “relação” que se deseja provar. (Bussab; Morettin, 2017, p. 209)
Características:
- Sempre contém um sinal de desigualdade (\(<\), \(>\), \(\ne\)).
- É aceita somente se houver evidências suficientes para rejeitar \(H_0\).
Exemplos (correspondendo aos \(H_0\) acima):
- \(H_1: \mu \ne 10\) (A média populacional é diferente de 10)
- \(H_1: P < 0.5\) (A proporção populacional é menor que 0.5)
- \(H_1: \mu_1 - \mu_2 \ne 0\) (Há uma diferença entre as médias de duas populações)
Tipos de Testes: Unilaterais vs. Bilaterais
A formulação da hipótese alternativa determina o tipo de teste.
Teste Bilateral (Two-tailed Test)
- \(H_1\) contém \(\ne\) (diferente de). O pesquisador está interessado em detectar uma diferença em qualquer direção (maior ou menor).
- A região de rejeição da \(H_0\) é dividida em duas caudas da distribuição do teste.
Exemplo:
\(H_0: \mu = 50\) (A média é 50) \(H_1: \mu \ne 50\) (A média é diferente de 50)
Teste Unilateral à Direita (Right-tailed Test)
- \(H_1\) contém \(>\) (maior que). O pesquisador está interessado em detectar se o parâmetro é maior que um valor específico.
- A região de rejeição da \(H_0\) está toda na cauda direita da distribuição do teste.
Exemplo:
\(H_0: \mu \le 50\) (A média é 50 ou menos) \(H_1: \mu > 50\) (A média é maior que 50)
Teste Unilateral à Esquerda (Left-tailed Test)
- \(H_1\) contém \(<\) (menor que). O pesquisador está interessado em detectar se o parâmetro é menor que um valor específico.
- A região de rejeição da \(H_0\) está toda na cauda esquerda da distribuição do teste.
Exemplo:
\(H_0: \mu \ge 50\) (A média é 50 ou mais) \(H_1: \mu < 50\) (A média é menor que 50)
Diagrama: Tipos de Testes
Nível de Significância (\(\alpha\)) e P-valor
Estas são as duas medidas cruciais para a tomada de decisão em um teste de hipóteses.
Nível de Significância (\(\alpha\))
O nível de significância (\(\alpha\)) é a probabilidade máxima de cometer um Erro Tipo I (rejeitar \(H_0\) quando ela é verdadeira). É definido antes de realizar o teste e representa o “limiar” para considerar um resultado estatisticamente significativo. (Bussab; Morettin, 2017, p. 211)
- Valores comuns: \(\alpha = 0.05\) (5%), \(\alpha = 0.01\) (1%), \(\alpha = 0.10\) (10%).
- Se \(\alpha = 0.05\), estamos dispostos a aceitar uma chance de 5% de rejeitar \(H_0\) indevidamente.
- A região de rejeição é a área nas caudas da distribuição do teste que corresponde a \(\alpha\).
P-valor (Valor-p)
O p-valor (ou valor-p) é a probabilidade de obter um resultado amostral tão extremo ou mais extremo do que o observado, assumindo que a hipótese nula (\(H_0\)) é verdadeira. (Bussab; Morettin, 2017, p. 212–213)
É uma medida da força da evidência contra \(H_0\). Um p-valor pequeno indica forte evidência contra \(H_0\).
Atenção: O p-valor NÃO é a probabilidade de \(H_0\) ser verdadeira.
Regra de Decisão
A decisão de rejeitar ou não rejeitar a hipótese nula é baseada na comparação entre o p-valor e o nível de significância \(\alpha\):
Se p-valor \(\le \alpha\): Rejeitamos a hipótese nula (\(H_0\)). Isso significa que a evidência amostral é estatisticamente significativa no nível \(\alpha\), e é improvável que o resultado tenha ocorrido por mero acaso se \(H_0\) fosse verdadeira.
Se p-valor \(> \alpha\): Não rejeitamos a hipótese nula (\(H_0\)). Isso significa que não há evidência estatisticamente significativa para rejeitar \(H_0\). Não significa que \(H_0\) é verdadeira, apenas que os dados não são fortes o suficiente para refutá-la.
Código para Ilustrar P-valor e Valores Críticos (Distribuição Normal)
import numpy as np
from scipy.stats import norm
import matplotlib.pyplot as plt
import seaborn as sns
# Nível de significância
alpha = 0.05
# --- Teste Bilateral ---
# Valor crítico Z para alpha=0.05 (bilateral)
z_critical_bilateral_lower = norm.ppf(alpha / 2)
z_critical_bilateral_upper = norm.ppf(1 - alpha / 2)
print(f"Teste Bilateral (α={alpha}): Valores Críticos Z = {z_critical_bilateral_lower:.2f} e {z_critical_bilateral_upper:.2f}")
# Exemplo de Test Statistic (Z-score)
test_statistic_bilateral = 2.1 # Exemplo: valor observado
p_value_bilateral = 2 * (1 - norm.cdf(abs(test_statistic_bilateral)))
print(f"Test Statistic Z = {test_statistic_bilateral:.2f}, P-valor = {p_value_bilateral:.3f}")
if p_value_bilateral <= alpha:
print("Decisão: Rejeitar H0")
else:
print("Decisão: Não Rejeitar H0")
# --- Teste Unilateral à Direita ---
# Valor crítico Z para alpha=0.05 (unilateral à direita)
z_critical_right = norm.ppf(1 - alpha)
print(f"\nTeste Unilateral à Direita (α={alpha}): Valor Crítico Z = {z_critical_right:.2f}")
# Exemplo de Test Statistic (Z-score)
test_statistic_right = 1.7 # Exemplo: valor observado
p_value_right = 1 - norm.cdf(test_statistic_right)
print(f"Test Statistic Z = {test_statistic_right:.2f}, P-valor = {p_value_right:.3f}")
if p_value_right <= alpha:
print("Decisão: Rejeitar H0")
else:
print("Decisão: Não Rejeitar H0")
# --- Visualização (apenas para bilateral) ---
x = np.linspace(-4, 4, 1000)
y = norm.pdf(x)
plt.figure(figsize=(10, 6))
sns.lineplot(x=x, y=y, color='black')
# Região de rejeição bilateral
x_reject_lower = x[x <= z_critical_bilateral_lower]
y_reject_lower = y[x <= z_critical_bilateral_lower]
plt.fill_between(x_reject_lower, y_reject_lower, color='red', alpha=0.5, label='Região de Rejeição ($\alpha/2$)')
x_reject_upper = x[x >= z_critical_bilateral_upper]
y_reject_upper = y[x >= z_critical_bilateral_upper]
plt.fill_between(x_reject_upper, y_reject_upper, color='red', alpha=0.5)
# P-valor visual
plt.axvline(test_statistic_bilateral, color='blue', linestyle='--', label=f'Estatística de Teste ({test_statistic_bilateral:.2f})')
plt.axvline(-test_statistic_bilateral, color='blue', linestyle='--') # Para simetria bilateral
plt.text(test_statistic_bilateral + 0.1, 0.3, f'P-valor/2: {p_value_bilateral/2:.3f}', color='blue', rotation=90)
plt.text(-test_statistic_bilateral - 0.1, 0.3, f'P-valor/2: {p_value_bilateral/2:.3f}', color='blue', rotation=-90)
plt.title('Distribuição Normal Padrão e Região de Rejeição (Teste Bilateral)')
plt.xlabel('Z-score')
plt.ylabel('Densidade de Probabilidade')
plt.legend()
plt.grid(True)
plt.show()# Nível de significância
alpha <- 0.05
# --- Teste Bilateral ---
# Valor crítico Z para alpha=0.05 (bilateral)
z_critical_bilateral_lower <- qnorm(alpha / 2)
z_critical_bilateral_upper <- qnorm(1 - alpha / 2)
cat(sprintf("Teste Bilateral (α=%.2f): Valores Críticos Z = %.2f e %.2f\n", alpha, z_critical_bilateral_lower, z_critical_bilateral_upper))
# Exemplo de Test Statistic (Z-score)
test_statistic_bilateral <- 2.1 # Exemplo: valor observado
p_value_bilateral <- 2 * (1 - pnorm(abs(test_statistic_bilateral)))
cat(sprintf("Test Statistic Z = %.2f, P-valor = %.3f\n", test_statistic_bilateral, p_value_bilateral))
if (p_value_bilateral <= alpha) {
cat("Decisão: Rejeitar H0\n")
} else {
cat("Decisão: Não Rejeitar H0\n")
}
# --- Teste Unilateral à Direita ---
# Valor crítico Z para alpha=0.05 (unilateral à direita)
z_critical_right <- qnorm(1 - alpha)
cat(sprintf("\nTeste Unilateral à Direita (α=%.2f): Valor Crítico Z = %.2f\n", alpha, z_critical_right))
# Exemplo de Test Statistic (Z-score)
test_statistic_right <- 1.7 # Exemplo: valor observado
p_value_right <- 1 - pnorm(test_statistic_right)
cat(sprintf("Test Statistic Z = %.2f, P-valor = %.3f\n", test_statistic_right, p_value_right))
if (p_value_right <= alpha) {
cat("Decisão: Rejeitar H0\n")
} else {
cat("Decisão: Não Rejeitar H0\n")
}
# --- Visualização (apenas para bilateral) ---
library(ggplot2)
x <- seq(-4, 4, length.out = 1000)
y <- dnorm(x)
df_plot <- data.frame(x = x, y = y)
# Adicionar regiões de rejeição
df_plot$reject <- ifelse(df_plot$x <= z_critical_bilateral_lower | df_plot$x >= z_critical_bilateral_upper, "reject", "not_reject")
ggplot(df_plot, aes(x = x, y = y)) +
geom_line(color = "black") +
geom_area(data = subset(df_plot, reject == "reject"), aes(x = x, y = y), fill = "red", alpha = 0.5) +
geom_vline(xintercept = test_statistic_bilateral, linetype = "dashed", color = "blue", size = 0.8) +
geom_vline(xintercept = -test_statistic_bilateral, linetype = "dashed", color = "blue", size = 0.8) +
annotate("text", x = test_statistic_bilateral + 0.5, y = 0.3, label = sprintf("Z = %.2f", test_statistic_bilateral), color = "blue", angle = 90) +
annotate("text", x = -test_statistic_bilateral - 0.5, y = 0.3, label = sprintf("Z = %.2f", -test_statistic_bilateral), color = "blue", angle = -90) +
labs(title = 'Distribuição Normal Padrão e Região de Rejeição (Teste Bilateral)',
x = 'Z-score', y = 'Densidade de Probabilidade') +
theme_minimal() +
scale_y_continuous(expand = expansion(mult = c(0, 0.05))) # Garante que o gráfico começa em 0 no eixo yErros em Testes de Hipóteses
Ao tomar uma decisão com base em uma amostra, sempre há o risco de cometer um erro, pois não temos a população inteira. Existem dois tipos de erros possíveis: (Bussab; Morettin, 2017, p. 211)
Erro Tipo I (\(\alpha\))
- Definição: Rejeitar a hipótese nula (\(H_0\)) quando ela é, de fato, verdadeira.
- Analogia (Judicial): Condenar um inocente.
- Probabilidade: A probabilidade de cometer um Erro Tipo I é igual ao nível de significância (\(\alpha\)).
Erro Tipo II (\(\beta\))
- Definição: Não rejeitar a hipótese nula (\(H_0\)) quando ela é, de fato, falsa.
- Analogia (Judicial): Absolver um culpado.
- Probabilidade: A probabilidade de cometer um Erro Tipo II é denotada por \(\beta\).
Poder do Teste (\(1-\beta\))
Definição: A probabilidade de rejeitar corretamente a hipótese nula (\(H_0\)) quando ela é falsa.
É o complemento do Erro Tipo II. Um teste com alto poder é desejável.
Analogia (Judicial): Condenar um culpado.
Relação entre os Erros
Existe um trade-off entre Erro Tipo I e Erro Tipo II:
- Reduzir \(\alpha\) (tornar mais difícil rejeitar \(H_0\)) aumenta \(\beta\) (e diminui o poder do teste).
- Aumentar o tamanho da amostra pode reduzir ambos os tipos de erro.
Diagrama: Erros em Testes de Hipóteses
graph TD
A["Decisão do Teste"] --> B{"H0 é Verdadeira?"};
B -- Sim --> C("Não Rejeitar H0");
B -- Sim --> D("Rejeitar H0");
B -- Não --> E("Não Rejeitar H0");
B -- Não --> F("Rejeitar H0");
C -- Correta --> G("Decisão Correta");
D -- Incorreta --> H("Erro Tipo I (α)");
E -- Incorreta --> I("Erro Tipo II (β)");
F -- Correta --> J("Poder do Teste (1-β)");
classDef aNode fill:#a7e9ff,stroke:#3b82f6,stroke-width:2px;
classDef bNode fill:#ffe0b3,stroke:#ffc107;
classDef cfNode fill:#d4edda,stroke:#28a745;
classDef deNode fill:#f8bbd0,stroke:#e91e63;
classDef gjNode fill:#c8e6c9,stroke:#4caf50,font-weight:bold;
classDef hiNode fill:#dc3545,stroke:#dc3545,font-weight:bold;
class A aNode;
class B bNode;
class C,F cfNode;
class D,E deNode;
class G,J gjNode;
class H,I hiNode;
Passos para Realizar um Teste de Hipóteses
Embora os detalhes variem para cada tipo de teste, a sequência geral de passos é a seguinte:
- Formular \(H_0\) e \(H_1\): Definir claramente as hipóteses nula e alternativa com base na pergunta de pesquisa.
- Escolher o Nível de Significância (\(\alpha\)): Determinar a probabilidade máxima de Erro Tipo I aceitável.
- Determinar a Estatística de Teste: Escolher a estatística apropriada (Z, t, F, qui-quadrado, etc.) com base no tipo de dados, tamanho da amostra e conhecimento do desvio padrão populacional.
- Formular a Regra de Decisão: Definir os valores críticos que delimitam a região de rejeição ou, mais comumente, usar o p-valor.
- Coletar Dados e Calcular a Estatística de Teste: Obter a amostra e calcular o valor da estatística de teste a partir dela.
- Tomar uma Decisão: Comparar o p-valor com \(\alpha\) ou a estatística de teste com os valores críticos.
- Declarar a Conclusão: Interpretar a decisão no contexto do problema original.
Tipos Comuns de Testes de Hipóteses (Visão Geral)
Para esta introdução, é importante saber que existem diversos testes, cada um adequado a situações específicas. Abordaremos os detalhes de cálculo e aplicação em aulas futuras.
Testes para Médias:
- Teste Z para uma Média: Usado quando o desvio padrão populacional (\(\sigma\)) é conhecido (ou \(n\) é grande).
- Teste t para uma Média: Usado quando o desvio padrão populacional (\(\sigma\)) é desconhecido (e é estimado pelo desvio padrão amostral \(s\)).
- Testes t para Duas Médias (Independentes ou Pareadas): Para comparar as médias de dois grupos.
Testes para Proporções:
- Teste Z para uma Proporção: Para testar uma afirmação sobre a proporção de uma população.
- Teste Z para Duas Proporções: Para comparar as proporções de dois grupos.
Testes de Qui-quadrado (\(\chi^2\)):
- Teste de Aderência: Para verificar se uma distribuição observada se ajusta a uma distribuição esperada.
- Teste de Independência: Para verificar se há relação entre duas variáveis categóricas.
ANOVA (Análise de Variância): Para comparar as médias de três ou mais grupos.
Relação com Outros Conceitos
Os testes de hipóteses integram muitos dos conceitos que estudamos:
- Amostragem: Os testes dependem de amostras representativas para fazer inferências válidas sobre a população.
- Distribuições de Probabilidade: A estatística de teste segue uma distribuição de probabilidade (normal, t de Student, F, qui-quadrado) sob a hipótese nula, permitindo o cálculo do p-valor e dos valores críticos.
- Estimação: As estimativas pontuais (médias, proporções amostrais) são os valores utilizados no cálculo da estatística de teste.
- Probabilidade Condicional: O p-valor é, em essência, uma probabilidade condicional (probabilidade dos dados dado \(H_0\) verdadeira).
graph TD
A["Problema de Pesquisa"] --> B("Coleta de Dados - Amostragem");
B --> C("Estatística Descritiva: Médias, Desvios, Proporções");
C --> D("Formulação de H0 e H1");
D --> E("Escolha da Estatística de Teste");
E --> F("Distribuições de Probabilidade");
F --> G("Cálculo do P-valor / Valores Críticos");
G --> H("Tomada de Decisão: Rejeitar/Não Rejeitar H0");
H --> I("Conclusão e Inferência sobre a População");
classDef startNode fill:#f9f,stroke:#333,stroke-width:2px;
classDef endNode fill:#afa,stroke:#333,stroke-width:2px;
classDef middleNode fill:#e6f3ff,stroke:#007bff;
class A startNode;
class I endNode;
class B,C,D,E,F,G,H middleNode;
Verificação de Aprendizagem
Responda às perguntas abaixo para verificar sua compreensão dos conceitos fundamentais de testes de hipóteses.
Conceitos Fundamentais:
- Qual é a principal diferença entre a hipótese nula (\(H_0\)) e a hipótese alternativa (\(H_1\))?
- Em um teste de hipóteses, você começa assumindo que qual hipótese é verdadeira?
- O que representa o nível de significância (\(\alpha\))?
- O que representa o p-valor?
Formulação de Hipóteses e Tipo de Teste:
Para cada cenário abaixo, formule a hipótese nula (\(H_0\)) e a hipótese alternativa (\(H_1\)) e indique se o teste seria bilateral, unilateral à direita ou unilateral à esquerda.
- Um fabricante de lâmpadas afirma que a vida útil média de suas lâmpadas é de 1000 horas. Um consumidor desconfia que a vida útil é diferente.
- Um novo método de ensino foi implementado e o diretor da escola quer saber se ele aumentou a média das notas dos alunos, que historicamente era 7.5.
- Uma organização ambiental afirma que a proporção de rios poluídos em uma região é de no máximo 30%. Um pesquisador quer verificar se essa proporção é maior do que 30%.
Erros em Testes de Hipóteses:
Um teste foi realizado para verificar se um novo medicamento é mais eficaz que um placebo.
- Descreva um Erro Tipo I no contexto deste problema.
- Descreva um Erro Tipo II no contexto deste problema.
- Qual tipo de erro seria mais grave para o paciente, assumindo que o medicamento tem efeitos colaterais leves? Justifique.
Regra de Decisão:
Em um teste de hipóteses com \(\alpha = 0.05\), você obteve um p-valor de \(0.03\). Qual é a sua decisão em relação à hipótese nula? E se o p-valor fosse \(0.07\)?
Soluções da Atividade
Problema 1 (Conceitos Fundamentais):
- A hipótese nula (\(H_0\)) é a afirmação do status quo, da não diferença ou não efeito, e sempre contém um sinal de igualdade. É o que se assume ser verdade até prova em contrário. A hipótese alternativa (\(H_1\)) é a afirmação que o pesquisador busca provar, contradizendo \(H_0\), e sempre contém um sinal de desigualdade.
- Você começa assumindo que a hipótese nula (\(H_0\)) é verdadeira.
- O nível de significância (\(\alpha\)) é a probabilidade máxima que você está disposto a aceitar de cometer um Erro Tipo I (rejeitar \(H_0\) quando ela é verdadeira).
- O p-valor é a probabilidade de observar um resultado amostral tão extremo ou mais extremo do que o obtido, assumindo que a hipótese nula (\(H_0\)) é verdadeira. É uma medida da evidência contra \(H_0\).
Problema 2 (Formulação de Hipóteses e Tipo de Teste):
Fabricante de Lâmpadas:
- \(H_0: \mu = 1000\) horas (A vida útil média é 1000 horas)
- \(H_1: \mu \ne 1000\) horas (A vida útil média é diferente de 1000 horas)
- Tipo de Teste: Bilateral (o consumidor desconfia de qualquer diferença, para mais ou para menos).
Novo Método de Ensino:
- \(H_0: \mu \le 7.5\) (A média das notas não aumentou ou é a mesma)
- \(H_1: \mu > 7.5\) (A média das notas aumentou)
- Tipo de Teste: Unilateral à Direita (o diretor quer saber especificamente se aumentou).
Organização Ambiental:
- \(H_0: P \le 0.30\) (A proporção de rios poluídos é de no máximo 30%)
- \(H_1: P > 0.30\) (A proporção de rios poluídos é maior que 30%)
- Tipo de Teste: Unilateral à Direita (o pesquisador quer verificar se é especificamente maior).
Problema 3 (Erros em Testes de Hipóteses):
- Erro Tipo I: Ocorre se o teste concluir que o novo medicamento é mais eficaz que o placebo, quando na verdade ele não é mais eficaz (ou seja, o medicamento é julgado como eficaz indevidamente).
- Erro Tipo II: Ocorre se o teste concluir que o novo medicamento não é mais eficaz que o placebo (não rejeitar \(H_0\)), quando na verdade ele é mais eficaz (ou seja, um medicamento eficaz é julgado como ineficaz).
- Assumindo que o medicamento tem efeitos colaterais leves, o Erro Tipo II seria mais grave para o paciente. Isso porque um medicamento que realmente é eficaz seria descartado, e o paciente não teria acesso a um tratamento que poderia ajudá-lo. O Erro Tipo I (condenar um inocente) levaria o paciente a tomar um medicamento ineficaz com efeitos colaterais leves, o que é indesejável, mas talvez menos grave do que perder um tratamento eficaz.
Problema 4 (Regra de Decisão):
P-valor de \(0.03\) (com \(\alpha = 0.05\)):
Como \(0.03 \le 0.05\), você rejeita a hipótese nula (\(H_0\)). Há evidências estatisticamente significativas para sustentar a hipótese alternativa.
P-valor de \(0.07\) (com \(\alpha = 0.05\)):
Como \(0.07 > 0.05\), você não rejeita a hipótese nula (\(H_0\)). Não há evidências estatisticamente significativas suficientes para rejeitar a hipótese nula.