2  Testes de hipóteses para média de uma e duas amostras

Autor

Robson Bruno Dutra Pereira

2.1 Introdução

Neste capítulo serão abordados alguns testes de hipóteses para média de uma e duas amostras. O entendimento do princípio destes testes é fundamental para posteriormente entender inferência em experimentos planejados. Existem diversas situações nas quais testes simples como os explicitados aqui são suficientes para comprovar o efeito ou testar diferenças entre médias considerando uma ou duas amostras. Ademais, existem planejamentos que consideram múltiplós fatores ou variáveis em estudo, mas usam do teste t para inferência de coeficientes de modelos de regressão. Portanto, é essencial compreender os conceitos deste capítulo.

Neste capítulo são utilizados os pacotes asbio, DescTools, ggpplot2, além das funções básicas do R. Recomenda-se a instalação destes utilizando o comando install.packages("<nome_pacote>"). A instalação é realizada uma única vez, porém o pacote deve ser carregado via library(<nome_pacote>) sempre que deseja-se usar suas funções.

2.2 Teste t para média de uma amostra

Seja uma amostra aleatória de \(n\) observações, \(x_1, x_2, ..., x_n\), retirada de uma va que segue a distribuição normal. Um problema comum de decisão é o teste de hipóteses. Neste tipo de teste pode-se inferir, por exemplo, se o parâmetro em estudo é igual a um determinado valor de interesse ou não. No caso da média de uma determinada amostra de interesse, o teste \(t\) pode ser utilizado.

Exemplo 2.1 Considere uma amostra de 12 observações da circularidade total \(Ron_t\) de furos obtidos por fresamento helicoidal em peças de aço inox superduplex UNS S32760. A Figura 2.1 apresenta um boxplot de Ront. Um engenheiro ou pesquisador pode desejar inferir se a média de Ront é menor que 10 \(\mu m\) por considerar este limite superior de especificação para uma determinada aplicação.

A seguir apresenta-se a amostra com 12 observações da circularidade total.

# dados
Ront <- c(6.7249, 7.8566, 7.5466, 12.0763, 7.6331, 6.1340, 
          9.9053, 10.4416, 11.3306, 7.0836, 9.5623, 9.1118)

# summary(Ront)
Figura 2.1: Box-plot de Ront \([\mu m]\)

Para responder à pergunta do experimentador, deve-se formular as hipóteses a serem testadas, sendo \(H_0\) a hipótese nula e \(H_1\) a hipótese alternativa, conforme segue.

\[ \begin{align} H_0:& \mu = 10 \\ H_1:& \mu < 10 \end{align} \]

O valor de interesse testado na hipótese é denotado \(\mu_0\), sendo neste caso 10mm, conforme consta nas hipóteses. Uma vez que o analista já coletou a amostra para testar sua hipótese, pode-se seguir com o cláculo da estatística do teste. Como ele coletou uma amostra de tamanho pequeno, além de a variância populacional ser desconhecida, deve-se utilizar o teste \(t\) para uma amostra, baseado na distribuição \(t\) de Student. A estatística do teste para testar uma hipótese sobre a média de uma amostra neste caso é apresentada na Equação 2.1. Por este cálculo padroniza-se a distribuição amostral obtida em relação ao valor hipotético, havendo mais evidência para rejeição da hipótese nula, quanto maior for o desvio negativo de \(t_0\) em relação a zero. Deve-se recordar que, pelo TCL, o desvio-padrão da média é \(s_{\bar{x}} = s/\sqrt{n}\).

\[ t_0 = \frac{\bar{x}-\mu_0}{s/\sqrt{n}} \tag{2.1}\]

Para o exemplo esta estatística pode ser facilmente calculada no R como segue.

# média de Ront
x_bar <- mean(Ront)

# desvio-padrão de Ront
s <- sd(Ront)

# tamanho amostral 
n <- length(Ront)

# valor da hipótese
mu_0 <- 10

# estatística do teste t
t_0 <- (x_bar - mu_0)/(s/sqrt(n))
t_0
[1] -2,211601

Para julgar se a hipótese nula deve ser rejeitada em favor da alternativa ou não, deve-se definir uma região crítica ou região de rejeição de \(H_0\). Para tal, deve-se definir um nível de significância \(\alpha\) de interesse. O nível de significância consiste em uma probabilidade de erro na rejeição da hipótese nula que se assume ao testar a hipótese. Quanto menor, menor a probabilidade de se rejeitar a hipótese nula erroneamente, caso esta seja verdadeira. Entretanto, quanto menor o nível de significância \(\alpha\), mais difícil é a rejeição da hipótese nula. É comum adotar-se em pesquisas \(\alpha = 0,05\), mas alguns pesquisadores mais criteriosos costumam adotar \(\alpha = 0,01\), ou valores inferiores, especialmente em testes clínicos onde se exige uma probabilidade mínima de erro na rejeição da hipótese nula. O nível de confiança \(\gamma\) do teste é o complementar do nível de significância, \(\gamma = 1 - \alpha\). A Figura 2.2 ilustra a distribuição \(t\) com 11 graus de liberdade e região crítica em vermelho para o teste em questão, considerando \(\alpha = 0,05\).

Figura 2.2: Região crítica para o teste t, com \(\alpha = 0,05\), \(n-1=11\) graus de liberdade

Considerando a distribição \(t\) com 11 graus de liberdade, pode-se obter o valor \(t_\alpha\), o qual garante uma probabilidade igual a 0,05 à sua esquerda, conforme segue. Este valor \(t_\alpha\) é comumente conhecido como valor crítico.

# valor t para uma probabilidade acumulada 
# igual à 0,05, com 11 graus de liberdade 
qt(0.05, 11)
[1] -1,795885

Para decidir, deve-se comparar o valor da estatística do teste com o valor crítico. Neste caso, como a hipótese alternativa é \(H_0: \mu < \mu_0\), se \(t_0 < t_\alpha\), rejeita-se \(H_0\) em favor de \(H_1\). Logo, neste caso como \(t_0 = -2,21 < -1,796 = t_\alpha\), rejeita-se a hipótese nula, com \(\alpha = 0,05\) de significância, podendo-se concluir que a média da circularidade total, \(\overline{Ron_t}\), é menor que \(10 \mu m\).

A função t.test() do R pode ser utilizada para realizar o teste \(t\) para uma amostra. Para o caso do Exemplo 2.1, pode-se utilizar sintaxe que segue.

t.test(x = Ront,
       mu=10,
       alternative = "less")

    One Sample t-test

data:  Ront
t = -2,2116, df = 11, p-value = 0,02454
alternative hypothesis: true mean is less than 10
95 percent confidence interval:
     -Inf 9,771407
sample estimates:
mean of x 
 8,783892 

A saída fornece o valor de \(t_0\) calculado, o número de graus de liberdade do teste, e o p-valor (p-value), que consiste na probabilidade associada ao valor calculado. A saída também especifíca a hipótese testada, além de fornecer um intervalo de confiança associado ao teste realizado e a estimativa pontual do parâmetro testado, isto é, a média. O intervalo de confiança consiste em limites de confiança para média, neste caso apenas o superior, uma vez que foi realizado um teste unilateral à esquerda. A média está abaixo deste limite com \(\gamma = 1 - \alpha = 0,95\) de confiança.

No teste unilateral à esquerda realizado, o limite superior de confiança é calculado conforme Equação Equação 2.2. Para o Exemplo 2.1 este limite é de \(9,77\), indicando que a média é menor que este valor com \(\gamma = 0,95\) de confiança.

\[ \begin{align} \frac{\bar{x}-\mu_0}{s/\sqrt{n}} <& t_{(\alpha,n-1)} \\ \mu_0 <& \bar{x} - t_{(\alpha,n-1)}\frac{s}{\sqrt{n}} \end{align} \tag{2.2}\]

Sendo o p-valor a probabilidade associada ao valor calculado, ele também pode ser utilizado na tomada de decisão em inferência. A Figura 2.3 ilustra o p-valor, sendo neste caso a área sob a curva à esquerda do valor calculado \(t_0\), isto é \(pvalor = P(t < t_0) = \Phi(t_0)\). Pode-se constatar que, para hipóteses unilaterais à esquerda, \(H_1: \mu < \mu_0\), se \(t_0 < t_\alpha\) implica em \(p-valor < \alpha\). Quanto menor o p-valor, maior a evidência na rejeição da hipótese nula. Caso o analista queira obter o p-valor utilizando a função pt base do R, pode-se utilizar o código à seguir.

# p-valor
pvalor <- pt(t_0, df = n-1)
pvalor
[1] 0,02454049

A vantagem de tomar a decisão considerando o p-valor é que, para um \(\alpha\) fixo, basta comparar as probabilidades. Se o experimentador deseja, entretanto, tomar a decisão considerando o valor \(t_0\), ele deve conhecer o valor crítico \(t_\alpha\) e este muda conforme o número de graus de liberdade associado ao teste. Deve-se atentar, entretanto, para o fato de que se o valor calculado \(t_0\) cresce à medida que o tamanho amostral aumenta, o p-valor diminui no mesmo sentido. Deste modo, um pesquisador mal intencionado pode manipular seu estudo aumentado o tamanho amostral para rejeitar a hipótese nula, ou de outra forma, mudar o nível de significância para respaldar as conclusões almejadas. É importante dizer que o p-valor não pode ser usado como critério de sucesso ou fracasso, um p-valor mesmo que abaixo do nível de significância, mas próximo deste pode representar um risco consideravelmente alto de erro na rejeição da hipótese nula.

Figura 2.3: p-valor associado ao valor calculado \(t_0\)

O teste de hipóteses para média de uma amostra, considerando variância populacional desconhecida e amostras pequenas, pode ser realizado utilizando-se a distribuição \(t\) de Student. Além da hipótese alternativa unilateral à esquerda, há outras duas possibilidades a serem elucidadas. Há também pressuposições a serem observadas para condução do teste. Antes, porém, é razoável apresentar conceitos relacionados aos erros que podem ser cometidos ao se testar uma hipótese, visando o planejamento do teste de forma a minimizar estes erros.

Um analista que deseja testar uma determinada hipótese não conhece a realidade acerca do parâmetro de interesse a partir de uma amostra limitada. Neste sentido, em inferência há dois tipos de erros que podem ser cometidos. O primeiro, chamado de erro do tipo I, consiste na rejeição da hipótese nula \(H_0\), quando esta é verdadeira. A probabilidade de ocorrência deste erro consiste no próprio nível de significância \(\alpha\), sendo este erro denotado utilizando probabilidade condicional, conforme Equação 2.3.

\[ \alpha = P(Erro \: tipo \: I) = P(rejeitar \: H_0 | H_0 \: é \: verdadeira) \tag{2.3}\]

Ao se adotar portanto, um determinado nível de significância \(\alpha\), assume-se o risco de cometer o erro do tipo I com probabilidade \(\alpha\).

O erro do tipo II, \(\beta\), consiste na probabilidade de não rejeitar \(H_0\), dado que \(H_0\) é falsa. Este erro é denotado conforme Equação 2.4.

\[ \beta = P(Erro \: tipo \: II) = P(não \: rejeitar \: H_0 | H_0 \: é \: falsa) \tag{2.4}\]

Considerando ainda o Exemplo 2.1, com teste unilateral à esquerda, isto é, \(H_1: \mu < \mu_0\), supondo que a hipótese nula seja falsa, a média verdadeira pode ser descrita como \(\mu = \mu_0 - \delta\), \(\delta > 0\). Logo, somando e subtraindo \(\delta\) na estatística do teste e, sabendo que em uma amostra bem coletada resultará em \(\bar{x} \rightarrow \mu_0 - \delta\), tem-se:

\[ \begin{align} t_0 =& \frac{\bar{x}-\mu_0}{s/\sqrt{n}} +\frac{\delta- \delta}{s/\sqrt{n}} \\ t_0 =& \underbrace{\frac{\bar{x}-(\mu_0 - \delta)}{s/\sqrt{n}}}_{0, \: pois \: \bar{x} \rightarrow \mu_0 - \delta} -\frac{\delta \sqrt{n}}{s} \end{align} \]

Logo, se \(H_0\) é falsa, \(t_0\) segue a distribuição \(t\) não centrada, com \(n-1\) graus de liberdade e parâmetro de não centralidade \(-\delta \sqrt{n}/s\), conforme segue.

\[ t_0 \sim t(n-1,-\frac{\delta \sqrt{n}}{s}) \tag{2.5}\]

Este teste unilateral à esquerda com a hipótese nula falsa pode ser ilustrado conforme a Figura 2.4.

Figura 2.4: Erro do tipo II, teste t unilateral à esquerda

Tomando a curva sob a hipótese nula \(H_0\), na Figura 2.4, pode-se definir \(\beta\) como a probabilidade de o valor calculado \(t_0\) estar à direita do valor \(t\) ilustrado, sendo este t relacionado à curva de \(H_0\), isto é, \(-t_{(\alpha,n-1)}\), negativo, uma vez que está à esquerda de \(\mu_0\).

\[ \beta = P(t_0 \geq -t_{(\alpha,n-1)}|H_0) \]

Tomando o valor de \(t_0\) considerando, a existência de um deslocamento na média à esquerda, conforme a Equação 2.5, tem-se:

\[ \begin{align} \beta =& P\bigg(-\frac{\delta \sqrt{n}}{s} \geq -t_{(\alpha,n-1)}|H_0\bigg) \\ \beta =& P\bigg(-\frac{\delta \sqrt{n}}{s} +t_{(\alpha,n-1)} \geq 0 |H_0\bigg) \\ \beta =& 1 - P\bigg(\frac{\delta \sqrt{n}}{s} -t_{(\alpha,n-1)} \leq 0 |H_0\bigg) \\ \beta =& 1 - \Phi\bigg(\frac{\delta \sqrt{n}}{s} -t_{(\alpha,n-1)}\bigg) \end{align} \tag{2.6}\]

De modo análogo, pode-se definir \(\beta\) considerando a curva sob a hipótese alternativa \(H_1\), na Figura 2.4, que neste suposto caso corresponde à realidade.

\[ \beta = 1 - \Phi(t_{(\beta,n-1)}) \tag{2.7}\]

Tomando as Equações Equação 2.6 e Equação 2.7, pode-se derivar o tamanho amostral necessário para garantir um erro do tipo II mínimo, dado o nível de significância \(\alpha\) adotado, o desvio-padrão amostral \(s\) e o deslocamento \(\delta\) que deseja-se detectar no teste, conforme Equação 2.8.

\[ \begin{align} 1 - \Phi(\frac{\delta \sqrt{n}}{s} -t_{(\alpha,n-1)}) =& 1 - \Phi(t_{(\beta,n-1)}) \\ \Phi(\frac{\delta \sqrt{n}}{s} -t_{(\alpha,n-1)}) =& \Phi(t_{(\beta,n-1)}) \\ \frac{\delta \sqrt{n}}{s} -t_{(\alpha,n-1)} =& t_{(\beta,n-1)} \\ n =& \left[\frac{(t_{(\alpha,n-1)}+t_{(\beta,n-1)})s }{\delta}\right]^2 \end{align} \tag{2.8}\]

Enquanto o erro do tipo I, \(\alpha\), depende da escolha do analista, o erro do tipo II depende de como o teste foi planejado, isto é, qual o tamanho amostral adotado, considerando determinada variabilidade amostral e determinado deslocamento a ser detectado. O erro do tipo I é mais grave que o erro do tipo II, por isso, geralmente recomenda-se um valor mais baixo deste, por exemplo \(\alpha = 0,05\). Logicamente também é desejável um erro do tipo II baixo, entretanto, para determinados valores de \(s\) e \(\delta\), pode ser necessário um tamanho amostral muito alto para minimizar \(\beta\), aumentando os custos experimentais. Na prática recomenda-se tentar garantir \(\beta<0,2\).

A probabilidade \(1 -\beta\) ilustrada na Figura 2.4 é chamada de poder do teste. O poder do teste consiste na capacidade do teste estatístico de detectar um deslocamento na média, isto é, de rejeitar a hipótese nula, quando ela é falsa, não cometendo o erro do tipo II. A Figura 2.5 apresenta as possibilidades quanto à decisão em testes de hipóteses em relação à realidade, que supõe-se desconhecida por parte do analista. Ao recomendar \(\beta =0,2\), procura-se um poder do teste \(1- \beta = 0,8\).

Figura 2.5: Erros em testes de hipóteses

Pode-se utilizar o comando power.t.test para calcular o tamanho amostral, dado um poder do teste, \(1-\beta\), desejado conforme segue. Com este comando pode-se também obter o poder do teste, dado um tamanho amostral disponível. Pode-se constatar que, para garantir um poder do teste \(1-\beta = 0,8\) para no Exemplo 2.1 detectar uma diferença de \(2 \mu m\), seria necessário coletar uma amostra com 8 observações.

# Para obter o tamanho amostral 
# para um determinado poder(power)
# s já calculado anteriormente
power.t.test(delta = 2, 
             sd = s, 
             sig.level = 0.05, 
             power = 0.8, 
             type = "one.sample", 
             alternative = "one.sided")

     One-sample t test power calculation 

              n = 7,168914
          delta = 2
             sd = 1,904829
      sig.level = 0,05
          power = 0,8
    alternative = one.sided

Como no teste realizado no Exemplo 2.1 foi utilizado \(n=12\), para detectar uma diferença menor, \(\delta = 1,22\), o poder do teste foi menor, \(1-\beta = 0,67\), porém suficiente, uma vez que a hipótese nula foi rejeitada. Para obter este resultado, deve-se usar a sintaxe à seguir.

# Para saber o poder o teste, considerando 
# o tamanho amostral realizado
power.t.test(n = n, 
             delta = d, 
             sd = s, 
             sig.level = 0.05, 
             type = "one.sample", 
             alternative = "one.sided")

     One-sample t test power calculation 

              n = 12
          delta = 1,216108
             sd = 1,904829
      sig.level = 0,05
          power = 0,6656294
    alternative = one.sided

É interessante avaliar graficamente o poder do teste em função do tamanho amostral, conforme Figura 2.6. Observa-se que quanto maior o tamanho amostral, maior o poder do teste e, logo, menor a probabilidade de erro do tipo II.

Figura 2.6: Poder do teste em função do tamanho amostral

De forma análoga, pode ser interessante saber o poder do teste, \(1-\beta\), em função do deslocamento na média (efeito), a ser detectado. Pode-se traçar no mesmo gráfico curvas considerando tamanhos amostrais distintos. A Figura 2.7 ilustra curvas de poder do teste em função do efeito a ser detectado. Tomando tais curvas pode-se constatar que quanto menor o efeito a ser detectado, menor o poder do teste e, consequentemente, maior a probabilidade de erro do tipo II, para um tamanho amostral fixo. De outra forma, fixando o deslocamento a ser detectado, quanto maior o tamanho amostral, maior o poder do teste.

Figura 2.7: Poder do teste em função do deslocamento na média

O Exemplo 2.1 apresentou um teste unilateral à esquerda, entretanto há outras possibilidades. A Figura 2.8 ilustra, da esquerda para direita, os testes unilateral à esquerda, unilateral à direita e bilateral. Neste último o analista deseja apenas contestar se a média \(\mu\) é diferente do valor de referência \(\mu_0\), sendo a região de rejeição de \(H_0\) dividida pelas duas caldas, cada uma com área igual a \(\alpha/2\). Para \(H_1: \mu < \mu_0\), rejeita-se \(H_0\) se \(t_0<-t_{(\alpha,n-1)}\). Já para \(H_1: \mu > \mu_0\), rejeita-se \(H_0\) se \(t_0>t_{(\alpha,n-1)}\). Por fim, para \(H_1: \mu \ne \mu_0\), rejeita-se \(H_0\) se \(|t_0|>t_{(\alpha/2,n-1)}\).

Figura 2.8: Tipos de regiões de rejeição em testes de hipóteses para média de uma amostra

A Figura 2.9 ilustra a interpretação do p-valor para os três tipos de hipóteses. Para qualquer caso, a interpretação utilizando o p-valor é a mesma. Se \(p-valor < \alpha\), rejeita-se \(H_0\) em favor de \(H_1\).

Figura 2.9: p-valor para diferentes casos do teste t para média de uma amostra

No caso do teste bilateral, com \(H_1: \mu \ne \mu_0\), o intervalo de confiança associado ao teste de hipótese para média com \(\gamma\) de confiança é obtido conforme Equação 2.9.

\[ \text{IC[} \gamma=1-\alpha \text{] p/ } \mu : [\bar{x} - t_{(\alpha/2,n-1)}\frac{s}{\sqrt{n}};\bar{x} + t_{(1-\alpha/2,n-1)}\frac{s}{\sqrt{n}}] \tag{2.9}\]

Para os casos onde deseja-se testar a hipótese para média de forma bilateral, o tamanho amostral para um determinado poder do teste deve ser calculado conforme Equação 2.10, a seguir.

\[ n = \biggl[\frac{(t_{\alpha/2,n-1}+t_{\beta,n-1})s}{\delta}\biggr]^2 \tag{2.10}\]

Para utilizar o teste \(t\) para a média de uma amostra, é desejável que a amostra obtida seja normalmente distribuída. Para testar a normalidade dos dados, pode-se utilizar o teste de Shapiro-Wilk. A hipótese nula do teste de normalidade \(H_0\) é que os dados são normalmente distribuídos. Para o Exemplo 2.1, pode-se utilizar a linha de código que segue. Como \(pvalor> \alpha\), não se rejeita H0.

# Teste de normalidade de Ront
shapiro.test(Ront)

    Shapiro-Wilk normality test

data:  Ront
W = 0,9518, p-value = 0,6634

Como \(p-valor > \alpha\), não se rejeita a hipótese nula \(H_0\), concluindo-se que a amostra de circularidade segue a distribuição normal. Pode-se avaliar a normalidade através do gráfico quantil-quantil. Este gráfico plota as \(n\) observações ordenadas em função de \(n\) quantis teóricos da distribuição normal-padrão \(z \sim N(0,1)\). Uma boa aproximação dos pontos à reta, demonstra uma boa aproximação dos dados à distribuição normal. A Figura 2.10 expõe o gráfico quantil-quantil para o Exemplo 2.1.

Figura 2.10: Gráfico qq para Ront

2.3 Teste z para média de uma amostra

Nos raros casos onde a variância populacional é conhecida, pode-se utilizar a distribuição normal padrão para testar hipóteses sobre a média de uma população a partir de uma amostra disponível. Recomenda-se também, para um tamanho amostral \(n\) suficientemente grande, utilizar este procedimento, visto que a distribuição \(t\) se aproxima da distribuição \(z\) à medida que \(n\) cresce. Em geral, uma amostra com tamanho a partir de \(n = 30\) é suficiente. Para realizar o teste \(z\) para média de uma amostra, deve-se calcular a estatística do teste conforme Equação 2.11.

\[ z_0 = \frac{\bar{x}-\mu_0}{\sigma/\sqrt{n}} \tag{2.11}\]

Exemplo 2.2 Considere uma amostra com \(n = 30\) observações da dureza de corpos de prova de aço ABNT H13 temperado. Deseja-se testar se a média é diferente de 55 HRC.

Para planejar este teste considerou-se a necessidade de detectar uma diferença de 0,5 HRC na dureza, supondo um desvio-padrão de 1 HRC, baseado em dados históricos. O analista requer um poder mínimo \(1-\beta= 0,8\). Pode-se utilizar o comando power.z.test do pacote asbio. O argumento test = "two.tail", é usado para o teste bilateral, \(H_1: \mu \ne \mu_0\). Pelos resultados da análise, é necessária uma amostra com \(n = 32\) observações para garantir um poder do teste de 0,8. O analista considerou o tamanho amostral \(n = 30\) suficiente.

# carregando pacote
library(asbio)

# definindo tamanho amostral
power.z.test(sigma = 1, 
             power = 0.8, 
             alpha = 0.05, 
             effect = 0.5, 
             test = "two.tail")
$sigma
[1] 1

$n
[1] 31,39552

$power
[1] 0,8

$alpha
[1] 0,05

$effect
[1] 0,5

$test
[1] "two.tail"

As trinta observações de dureza são expostas a seguir. Um boxplot é exposto na Figura 2.11 para ilustrar a variabilidade dos dados.

# dados
dureza <- c(57.00, 58.00, 58.00, 57.50, 58.25, 58.00, 58.50, 
            57.25, 58.75, 57.00, 56.50, 57.25, 57.25, 58.00, 
            58.50, 58.00, 57.50, 58.25, 56.25, 57.25, 58.50, 
            57.00, 58.50, 58.75, 57.50, 56.00, 58.25, 58.25, 
            58.75, 57.25)
# summary(dureza)
Figura 2.11: Boxplot para dureza

O teste de normalidade é realizado à seguir, indicando não haver indícios para rejeição da hipótese nula de normalidade da variável dureza, \(p-valor > \alpha\). O gráfico q-q da Figura 2.12 confirma a normalidade da dureza.


    Shapiro-Wilk normality test

data:  dureza
W = 0,9363, p-value = 0,07236
Figura 2.12: Gráfico qq para dureza

As hipóteses para o Exemplo 2.2 são expostas à seguir, onde \(\mu_0 = 55\). O teste realizado é, portanto, bilateral. Para testar tais hipóteses, uma vez que tem-se um tamanho amostral considerável, pode-se utilizar do teste \(Z\) para média amostral. A função ZTest() do pacote DescTools é utilizada.

\[ \begin{align} H_0:& \mu = \mu_0 \\ H_1:& \mu \ne \mu_0 \end{align} \]

# Carregando pacote
library(DescTools)

# Teste z para dureza
ZTest(dureza, 
      mu = 55,
      alternative = "two.sided", 
      sd_pop = sd(dureza))

    One Sample z-test

data:  dureza
z = 19,761, Std. Dev. Population = 0,7553, p-value < 2,2e-16
alternative hypothesis: true mean is not equal to 55
95 percent confidence interval:
 57,45473 57,99527
sample estimates:
mean of x 
   57,725 

Pelos resultados obtidos, rejeita-se a hipótese nula de que a dureza média é igual a 55 HRC. Apesar de a hipótese alternativa ser \(H_1: \mu \ne 55\), como \(z_0 = 19.761\) e pelos limites de confiança serem ambos maiores que 55, pode-se constatar especificamente que a média é maior que 55 HRC.

Considerando o tamanho amostral, desvio-padrão amostral e efeito detectado, o poder do teste pode ser calculado com a sintaxe à seguir. Portanto, o teste apresentou poder unitário, com probabilidade nula de erro do tipo II. Uma alta razão entre o efeito (deslocamento na média) a ser detectado e o desvio-padrão da variável estudada aumenta o poder do teste.

$sigma
[1] 0,7552974

$n
[1] 30

$power
[1] 1

$alpha
[1] 0,05

$effect
[1] 2,725

$test
[1] "two.tail"

A curva para o poder do teste Exemplo 2.2 é exposta na Figura 2.13. Pode-se observar que para um efeito superior a 0,65 é possível realizar o teste com \(1-\beta = 1\).

Figura 2.13: Curva de poder do teste para média da dureza

2.4 Teste t para médias de duas amostras independentes

Em diversas situações é de interesse do pesquisador realizar inferência sobre a média de duas amostras. Este tipo de teste pode ser realizado para comparar a diferença entre médias de dois tratamentos em uma resposta de interesse. O teste baseado na distribuição \(t\) pode ser utilizado para amostras pequenas quando as variâncias populacionais são desconhecidas. Há testes distintos para médias para amostras com variâncias iguais e para amostras com variâncias diferentes.

Antes de entender os testes para média de duas amostras, é importante entender o que significa a independência e como testá-la estatisticamente. Duas amostras são ditas independentes quando são originadas de populações distintas. Uma forma de quantificar a dependência entre duas amostras é através da covariância e da correlação. Por estas medidas pode-se quantificar se a dependência entre duas variáveis de interesse é forte ou fraca. A covariância entre duas variáveis \(xX\) e \(y\), \(Cov(x,y)=\sigma_{xy}\) pode ser definida conforme Equação 2.12, enquanto a correlação é definida conforme a Equação 2.13. Logo, pode-se constatar que a correlação é a covariância padronizada. Enquanto a covariância tem domínio em toda escala de números reais, \(\sigma_{xy} \in (-\infty,+\infty)\), a correlação tem domínio entre -1 e 1, \(\rho_{xy} \in \{-1,+1\}\), sendo mais fácil entender via correlação se o relacionamento linear é forte ou fraco.

\[ \sigma_{xy} = E((x_i-\mu_x)(y_i-\mu_y)) = E(xy) - \mu_x\mu_y \tag{2.12}\]

\[ \rho_{xy} = \frac{\sigma_{xy}}{\sigma_{x}\sigma_{y}} \tag{2.13}\]

A Figura 2.14 apresenta diagramas de dispersão entre duas variáveis que ilustram padrões distintos de dependência (ou não) entre duas variáveis. Na Figura 2.14 à esquerda as variáveis \(x\) e \(y\) apresentam correlação positiva, com \(\rho \rightarrow 1\). Já na Figura 2.14 do meio as variáveis \(x\) e \(y\) apresentam correlação negativa, com \(\rho \rightarrow -1\). Por fim, na Figura 2.14 à direita as variáveis \(x\) e \(y\) apresentam ausência de correlação positiva, com \(\rho \rightarrow 0\).

Figura 2.14: Diferentes padrões de correlação

A correlação amostral \(r_{xy}=\hat{\rho}\) entre duas variáveis \(x\) e \(y\) pode ser calculada conforme Equação 2.14, ou pela Equação 2.15, onde \(s_{xy} = \hat{\sigma}_{xy}\) é a covariância amostral entre as variáveis \(x\) e \(y\) enquanto \(s_{x}\) e \(s_{y}\) são os desvios-padrões amostrais destas variáveis. A covariância amostral entre \(x\) e \(y\) pode ser estimada conforme Equação 2.16.

\[ r_{xy} = \frac{\sum_{i}(x_i-\bar{x})\sum_{i}(y_i-\bar{y})}{\sqrt{\sum_{i}(x_i-\bar{x})^2}\sqrt{\sum_{i}(y_i-\bar{y})^2}} \tag{2.14}\] \[ r_{xy} = \frac{s_{xy}}{s_xs_y} \tag{2.15}\] \[ s_{xy} = \frac{\sum_{i}(x_i-\bar{x})\sum_{i}(y_i-\bar{y})}{n-1} \tag{2.16}\]

Exemplo 2.3 Um tratamento a base de diclorometano é aplicado em uma amostra de fios de nanotubos de carbono. A resistência à tração (MPa) da amostra tratada é comparada com a resistência à tração de uma amostra sem tratamento. Os dados de trinta observações de cada caso são expostos à seguir.

# amostra sem tratamento, x
X <- c(103.07251, 111.58047, 123.60685, 109.08819, 101.15997,
       110.81570, 115.01119, 120.90489, 139.00266, 112.23041,
       113.51231, 107.87118, 118.95093, 121.14550, 112.09335,
       124.51045, 143.41912, 147.07329,  87.66812, 115.83727,
       120.75799, 135.29565, 114.94833, 106.86862, 106.26170,
       119.59667, 113.43255, 124.69555,  98.18949, 115.72124)

# amostra com tratamento, y
Y <- c(131.5811, 131.4042, 137.8762, 146.3840, 151.6944, 142.3577,
       159.6285, 148.1704, 157.7661, 136.2317, 162.3226, 149.6494,
       158.7077, 150.4730, 151.3008, 155.1563, 143.8435, 147.5971,
       151.2632, 137.5846, 146.7573, 145.0630, 158.3956, 129.1484,
       153.8584, 145.1890, 137.9211, 150.6881, 143.4069, 131.7691)

O teste de correlação de Pearson, pode ser utilizado para avaliar a significância estatística da correlação entre duas amostras. A hipótese nula do teste garante que a correlação é igual a zero, isto é, \(H_0: \rho=0\). Para realizar o teste de correlação de Pearson entre a amostra de controle e a amostra tratada do Exemplo 2.3, denotadas \(x\) e \(y\), respectivamente, pode-se utilizar a sintaxe à seguir. O teste é baseado na distribuição \(t\) e fornece como resultado o valor da estatística \(t_0\) a qual pode ser comparada com o valor crítico \(t_{(\alpha/2,n-2)}\), onde \(n = n_x + n_y\). Se \(t_0 > t_{(\alpha/2,n-1)}\), rejeita-se \(H_0\). Considernado \(\alpha = 0,05\), para \(n = 58\), \(t_{(0,025;58)}=2.001717\), qt(0.95+.05/2, 58). Logo, como \(t_0 = 0,73203 < 2.001717 = t_{(\alpha/2,n-1)}\), não há indícios para rejeição de \(H_0\), ou seja, a correlação entre as amostras é nula. A independência entre tais amostras é trivial, por terem sido retiradas de populações distintas. Entretanto, é importante confirmar a independência para posteriormente realizar o teste de hipóteses adequado para diferença entre médias das amostras.

# Cálculo da correlação
cor(X,Y)
[1] 0,1370349
# teste de correlação
cor.test(X,Y, method = "pearson")

    Pearson's product-moment correlation

data:  X and Y
t = 0,73203, df = 28, p-value = 0,4702
alternative hypothesis: true correlation is not equal to 0
95 percent confidence interval:
 -0,2348276  0,4739076
sample estimates:
      cor 
0,1370349 

Antes de realizar o teste \(t\) para averiguar a diferença entre médias entre as variáveis \(x\) e \(y\) do Exemplo 2.3, é importante testar a homocedasticidade, isto é, a homogeneidade de variâncias entre as duas amostras. Primeiramente, é necessário organizar os dados de forma tabular utilizando o comando data.frame().

Posteriormente, pode-se plotar alguns gráficos para visualizar a variabilidade dos dados. A Figura 2.15 ilustra boxplots, enquanto a Figura 2.16 ilustra gráficos de densidade da distribuição amostral para a resistência à tração em função das amostras de controle e tratada. Em ambos os casos, pode-se constatar que a variabilidade dos dados parece similar e que a resistência média da amostra tratada é superior. Pelos gráficos de densidade, pode-se verificar que as distribuições amostrais aparentam ter normalidade. Todas estas evidências gráficas podem ser estatísticamente confirmados.

Figura 2.15: Boxplots para resistância à tração das amostras de controle e tratada
Figura 2.16: Histogramas e densidades amostrais para resistância à tração das amostras de controle e tratada

O teste de homocedasticidade de Bartlett para o Exemplo 2.3 é apresentado à seguir. A hipótese nula do teste postula a igualdade de variâncias entre as amostras, isto é, \(H_0: \sigma_1^2 = \sigma_2^2\). Pelos resultados, como \(p-value = 0,07128 > 0,05 = \alpha\), não se rejeita \(H_0\), podendo-se confirmar a homogeneidade entre as variâncias amostrais.

# Teste de homocedasticidade de Bartlett
bartlett.test(resistencia ~ grupo, data = dados)

    Bartlett test of homogeneity of variances

data:  resistencia by grupo
Bartlett's K-squared = 3,2534, df = 1, p-value = 0,07128

O teste de normalidade das duas amostras também deve ser realizado. Pode-se constatar, pelos resultados abaixo, \(p-value<\alpha\), que não há indícios para rejeição da hipótese nula de normalidade das amostras. A Figura 2.17 ilustra os gráficos q-q para as amostras.


    Shapiro-Wilk normality test

data:  resistencia[grupo == "Controle"]
W = 0,95678, p-value = 0,2557

    Shapiro-Wilk normality test

data:  resistencia[grupo == "Tratada"]
W = 0,96465, p-value = 0,4049
Figura 2.17: Gráficos q-q para resistência à tração das amostras controle e tratada

A hipótese nula do teste \(t\) para média de duas amostras é exposta à seguir.

\[ H_0: \mu_1 = \mu_2 \]

Já a hipótese alternativa pode ser bilateral, \(\ne\), ou unilateral à esquerda ou a direita, conforme segue.

\[ H_0: \mu_1 \ne \mu_2 \] \[ H_0: \mu_1 < \mu_2 \] \[ H_0: \mu_1 > \mu_2 \]

A estatística do teste \(t\) para duas amostras com variâncias amostrais iguais é calculada conforme Equação 2.17, onde o desvio-padrão combinado \(S\) é obtido conforme a Equação 2.18.

\[ t_0 = \frac{\bar{x_1}-\bar{x_2}}{s\sqrt{\frac{1}{n_1}+\frac{1}{n_2}}} \tag{2.17}\]

\[ s = \sqrt{\frac{(n_1-1)s_1^2+(n_2-1)s_2^2}{n_1+n_2-2}} \tag{2.18}\]

O cálculo da estatística \(t_0\) é trivial e pode ser facilmente realizado utilizando o R como uma calculadora. Entretanto, é mais interessante utilizar a função t.test(), por apresentar um resultado mais estruturado, cofnorme segue. Comparando o valor da estatística calculada com o valor crítico, \(|t_0| = 10.393 > 2.0003 = t_{\alpha/2}\), ou pelo p-valor, \(p-valor = 7,3 \times10^{-15} < 0,05 = \alpha\), constata-se que há indícios para rejeição da hipótese nula, garantindo que as resistências das amostras são diferentes.

# Teste t para comparar amostras de controle e tratada
t.test(resistencia ~ grupo, 
       data = dados,
       alternative = "two.sided",
       var.equal = TRUE)

    Two Sample t-test

data:  resistencia by grupo
t = -10,393, df = 58, p-value = 7,3e-15
alternative hypothesis: true difference in means between group Controle and group Tratada is not equal to 0
95 percent confidence interval:
 -35,73313 -24,19135
sample estimates:
mean in group Controle  mean in group Tratada 
              116,4774               146,4396 
tcritico <- qt(.95+.05/2,dim(dados)[1])
tcritico
[1] 2,000298
# outra sintaxe possível
# retirar # para testar
# t.test(X, 
       # Y,
       # alternative = "two.sided",
       # var.equal = TRUE)

O poder do teste pode ser obtido utilizando a função power.t.test, conforme segue. Pode-se observar que o poder do teste foi unitário.

# médias
m1 <- with(dados, mean(resistencia[grupo == "Controle"]))
m2 <- with(dados, mean(resistencia[grupo == "Tratada"]))

# desvios-padrões
s1 <- with(dados, sd(resistencia[grupo == "Controle"]))
s2 <- with(dados, sd(resistencia[grupo == "Tratada"]))

# tamanhos amostrais
n1 <- with(dados, length(resistencia[grupo == "Controle"]))
n2 <- with(dados, length(resistencia[grupo == "Tratada"]))

# desvio-padrão da diferença
s <- sqrt(((n1-1)*s1^2+(n2-1)*s2^2)/(n1+n2-2))

# poder do teste
power.t.test(n = 30, 
             delta = m1 - m2,
             sd = s,
             sig.level = 0.05,
             type = "two.sample",
             alternative = "two.sided")

     Two-sample t test power calculation 

              n = 30
          delta = 29,96224
             sd = 11,1657
      sig.level = 0,05
          power = 1
    alternative = two.sided

NOTE: n is number in *each* group

A Figura 2.18 apresenta a curva de poder do teste em função do deslocamento a ser detectado para o Exemplo 2.3. A alta diferença entre médias, relativamente aos desvios-padrões amostrais, garantiu \(1-\beta \backsimeq 1\) no Exemplo 2.3.

Figura 2.18: Curva de poder do teste, n1 = n2 = 30, sd = 11.17, teste bilateral

2.5 Teste t para médias de duas amostras dependentes

O teste \(t\) para amostras pareadas (ou emparelhadas) é aplicado em estudos onde cada objeto é medido em duas diferentes ocasiões, antes e depois de um determinado tratamento, por exemplo. Este tipo de teste pode também ser aplicado em pares de indivíduos similares, sendo um tratamento aplicado a um elemento de cada par, enquanto o outro elemento dos pares é submetido a outro tratamento, ou não é submetido a tratamento algum (controle). Devido à possível dependência entre as amostras tomadas aos pares, utilizar os procedimentos anteriormente propostos para testar a diferença entre médias de duas amostras violaria a hipótese de independência estatística entre as amostras. Por conseguinte, o teste \(t\) pareado é utilizado para testar a diferença entre médias de amostras dependentes.

Exemplo 2.4 Um estudo foi realizado para avaliar se há diferença nos resultados de umidade de amostras de carvão vegetal submetidas aos dois procedimentos de preparação. De cada uma das 30 amostras de fração de carvão vegetal uma parte foi triturada e outra foi pulverizada, garantindo a dependência entre as amostras. Os dados das duas amostras são expostos à seguir.

# A ordem das observações importa, pois estão pareadas

# Amostra pulverizada
Pulverizada <- c(10.5, 12.8, 11.1, 6.5, 6.2, 6.3, 7.5, 8.2, 7.8, 9.3,
                 9, 10.2, 7.6, 6.8, 6.3, 7.3, 9.7, 10.9, 7.8, 9.8, 9,
                 9.4, 9.4, 8.4, 8.5, 7.8, 9.1, 5.1, 5.7, 6.3)

# Amostra granulada
Granulada <- c(10.7, 14.3, 11.2, 6.5, 6.6, 6.8, 7.1, 9.7, 7.2, 9, 9,
               9.5, 5.3, 5.4, 5.9, 7.3, 9, 11.7, 6.3, 9.6, 9, 
               8.3, 9.8, 10.1, 9.2, 8.2, 8.7, 4.5, 6.4, 7.1)

Para realizar o teste \(t\) para amostras pareadas, é importante confirmar a dependência entre as amostras. Para isto pode-se realizar o teste de correlação de Pearson, conforme segue. A Figura 2.19 apresenta um diagrama de dispersão, confirmando a correlação positiva entre as amostras de humidade do carvão vegetal pulverizado e granulado.


    Pearson's product-moment correlation

data:  Pulverizada and Granulada
t = 11,704, df = 28, p-value = 2,677e-12
alternative hypothesis: true correlation is not equal to 0
95 percent confidence interval:
 0,8201861 0,9572343
sample estimates:
      cor 
0,9112053 
Figura 2.19: Diagrama de dispersão para humidade das amostras de carvão vegetal pulverizada e granulada

O teste \(t\) pareado é realizado considerando a diferença em relação às amostras pareadas. A hipótese nula consiste em testar se a diferença é igual a um valor de interesse, isto é, \(H_0: \mu_d = \mu_{d0}\). Já a hipótese alternativa pode ser bilateral ou unilateral à direita ou à esquerda. A estatística do teste \(t\) pareado é exposta na Equação 2.19, onde \(n\) é o número de pares. Logo, o teste consiste no mesmo teste \(t\) para uma amostra, de forma que a hipótese de normalidade para as diferenças deve ser confirmada.

\[ t_0 = \frac{\bar{x}_d-\mu_d}{s_d/\sqrt{n}} \tag{2.19}\]

O código à seguir calcula as diferenças entre os pares das duas amostras e, posteriormente a normalidade das diferenças.

# calculando as diferenças
d <- Pulverizada - Granulada

# teste de normalidade de Shapiro 
shapiro.test(d)

    Shapiro-Wilk normality test

data:  d
W = 0,9786, p-value = 0,7871
# gráfico q-q
# qqnorm(d)
# qqline(d)

Finalmente o teste \(t\) pareado é realizado através do código à seguir. Pode-se constatar que, como \(p-valor = 0,8562 > 0,05 = \alpha\), não se rejeita a hipótese nula de igualdade entre os métodos de preparação da amostra para medição de umidade do carvão vegetal. Como conclusão prática, não é necessário triturar o carvão para medir sua umidade.

# Teste t pareado
t.test(x = Pulverizada, y = Granulada,
       alternative = "two.sided",
       paired = TRUE)

    Paired t-test

data:  Pulverizada and Granulada
t = 0,18284, df = 29, p-value = 0,8562
alternative hypothesis: true mean difference is not equal to 0
95 percent confidence interval:
 -0,3055859  0,3655859
sample estimates:
mean difference 
           0,03 
# outra possibilidade fazer o teste t para uma amostra das diferenças
# t.test(d)

O cálculo do poder do teste pode ser realizado com a sintaxe que segue. Como a diferença é muito pequena considerando o desvio-padrão e o tamanho amostral, o poder do teste foi baixíssimo.


     Paired t test power calculation 

              n = 30
          delta = 0,03
             sd = 0,8987156
      sig.level = 0,05
          power = 0,03728679
    alternative = two.sided

NOTE: n is number of *pairs*, sd is std.dev. of *differences* within pairs

Bibliografia

ALMEIDA JUNIOR, Antonio Alves de et al. Effect of the cooling rate on the properties of veneer porcelain. 2017.

BUSSAB, Wilton de Oliveira; MORETTIN, Pedro Alberto. Estatística básica. 2009.

CASELLA, George; BERGER, Roger L. Statistical inference. 2002.

COCHRAN, William G. The distribution of quadratic forms in a normal system. 1934.

FISHER, Ronald Aylmer et al. Statistical methods for research workers. 1934.

GRONOW, D. G. C. Test for the significance of the difference between means. 1951.

GURLAND, John; MCCULLOUGH, Roger S. Testing equality of means. 1962.

HALD, Anders. A history of parametric statistical inference. 2008.

JOHNSON, N. L.; WELCH, B. L. Applications of the non-central t-distribution. 1940.

KEMPTHORNE, Oscar. The randomization theory of experimental inference. 1955.

KENDALL, Maurice George et al. The advanced theory of statistics. 1946.

KOTZ, Samuel; JOHNSON, Norman L. Breakthroughs in statistics. 2012.

LEHMANN, Erich L.; ROMANO, Joseph P. Testing statistical hypotheses. 2006.

MCCULLOUGH, Roger S.; GURLAND, John; ROSENBERG, Lloyd. Small sample behaviour. 1960.

MEHTA, J. S.; GURLAND, John. Testing equality of means in the presence of correlation. 1969.

MONTGOMERY, Douglas C. Design and analysis of experiments. 2013.

MONTGOMERY, Douglas C.; RUNGER, George C. Applied statistics and probability for engineers. 2011.

NEYMAN, Jerzy; PEARSON, Egon S. The testing of statistical hypotheses in relation to probabilities a priori. 1933.

NEYMAN, Jerzy; TOKARSKA, B. Errors of the second kind in testing “Student’s” hypothesis. 1936.

OWEN, D. B. The power of Student’s t-test. 1965.

SNEDECOR, George W.; COCHRAN, Witiiam G. Statistical methods. 1967.

SCARIANO, Stephen M.; DAVENPORT, James M. The effects of violations of independence assumptions. 1987.

STUDENT. The probable error of a mean. 1908.

WASSERMAN, Larry. All of statistics: a concise course in statistical inference. 2013.

WELCH, Bernard L. The significance of the difference between two means. 1938.

WILSON, Edwin B.; WORCESTER, Jane. Note on the t-Test. 1942.

YATES, Frank. The analysis of multiple classifications. 1934.

ZUEV, Konstantin. Statistical Inference. 2018.