Universidade Federal de Goiás
Escola de Veterinária e Zootecnia
R-FácilAnálise de Variância
Apostila destinada a usuários do
R, com demonstrações de uso de funções
em exemplos da área de Ciências
Agrárias.
Goiânia
Março de 2014
Apresentação
Atualmente encontram-se grande número de apostilas e livros abordando o uso do software
R (R Core Team, 2014) para análises estatísticas. No entanto, são raros os materiais didáticos
aplicados à área de ciências agrárias. Visando estimular o aprendizado com linguagem mais simples
e aplicada, com exemplos práticos voltados, principalmente, as áreas de ciências agrárias e
biológicas, o presente material foi desenvolvido para auxiliar a utilização do R na realização de
análise de variância para tratamentos qualitativos. O público alvo são alunos de graduação,
pós-graduação, professores e pesquisadores. O objetivo desta apostila não é aprofundar em aspectos
teóricos, mas apenas apresentar um tutorial de análise de dados utilizando pacotes e funções de
forma bastante prática.
A apostila “R-fácil: Análise de Variância” faz parte de uma séria de quatro apostilas que
contemplam parte do conteúdo do site http://r-facil.webnode.com/. Deve-se destacar que este material
utiliza-se de funções de uso mais prático para a demonstração das análises e por isso o título R-fácil,
com intuito de descomplicar um pouco a utilização do software.
No texto as discussões estão na fonte Times 12 e as análises realizadas no R em fonte
Inconsolata em negrito, sendo a programação em azul e os resultados em preto. Boa leitura e não
deixe de conferir os demais materiais da séria R-fácil (download em http://r-facil.webnode.com/).
O autor
Índice
páginaDelineamento inteiramente ao acaso 1Delineamento de blocos ao acaso 4Delineamento em quadrado latino 7Esquema fatorial 13 Fatorial duplo em delineamento inteiramente ao acaso 13 Fatorial duplo em delineamento de blocos ao acaso 18Esquema de parcelas subdivididas (splitplot) 21 Parcelas subdivididas em delineamento inteiramente ao acaso 21 Parcelas subdivididas em delineamento de blocos ao acaso 25Análise de covariância 29Contrastes de médias 31Referências 36
Delineamento inteiramente ao acaso
A análise de variância em delineamento inteiramente ao acaso é realizada quando os
tratamentos são distribuídos de forma totalmente (inteiramente) casualizada as unidades
experimentais. Neste caso não é feito nenhum tipo de “controle” de uma fonte de variação
sistemática no experimento.
Para realizar análise de variância em delineamento inteiramente ao acaso vamos
requerer o pacote "easyanova", que deve ser previamente instalado.
require(easyanova)
No próprio pacote existem dados disponíveis para exemplo. Vamos carregar o
exemplo chamado “data1”, que são dados obtidos de Kaps e Lamberson (2009).
data(data1)
Para ver a forma de tabulação dos dados observamos no próprio exemplo fazemos:
data1
Diet Gain1 d1 2702 d1 3003 d1 2804 d1 2805 d1 2706 d2 2907 d2 2508 d2 2809 d2 29010 d2 28011 d3 29012 d3 34013 d3 33014 d3 30015 d3 300
1
No caso do delineamento inteiramente ao acaso a primeira coluna deve conter os
códigos de tratamentos e as demais as variáveis respostas (neste exemplo temos somente uma
variável resposta).
Vamos usar a função “ea1( )" do pacote “easyanova” e gravar o resultado em um
objeto chamado "resultado". Na função o argumento "design" define o delineamento (1 =
inteiramente ao acaso).
resultado=ea1(data1, design=1)
Para visualizar o resultado fazemos:
resultado
$`Analysis of variance` df type I SS mean square F value p>Ftreatments 2 3640 1820.0000 6.1348 0.0146Residuals 12 3560 296.6667 - -
$Means treatment mean standard.error tukey snk duncan t scott_knott1 d3 312 7.7028 a a a a a2 d1 280 7.7028 b b b b b3 d2 278 7.7028 b b b b b
$`Multiple comparison test` pair contrast p(tukey) p(snk) p(duncan) p(t)1 d3 - d1 32 0.0310 0.0124 0.0124 0.01242 d3 - d2 34 0.0223 0.0223 0.0112 0.00883 d1 - d2 2 0.9816 0.8574 0.8574 0.8574
$`Residual analysis` valuesp.value Shapiro-Wilk test 0.8937p.value Bartlett test 0.5662coefficient of variation (%) 5.9400first value most discrepant 7.0000second value most discrepant 12.0000third value most discrepant 11.0000
Ocorre diferença significativa entre tratamentos na análise de variância (p=0.0146).
Assim, pode-se avaliar a diferença entre tratamentos aos pares através dos testes de médias.
Pelos testes verifica-se que as dietas d1 e d2 são estatisticamente iguais e inferiores a d3.
2
Neste caso todos os testes auxiliam a conclusão de forma equivalente. Mas nem sempre este
fato ocorre, sendo que o teste de Tukey é mais rigoroso no sentido da não diferença (valores
de probabilidade maiores) e o teste t da diferença (valores de probabilidades menores). E esta
diferença entre os dois testes se acentua com o aumento do número de tratamentos.
Recomendo utilizar o teste de Tukey quando o número de tratamentos for inferior a cinco e o
teste de ScottKnott quando igual ou superior a cinco.
A função também retorna uma resumida análise de resíduos. No teste de normalidade
(shapiro.test) e de homogeneidade de variâncias (bartlett.test) observa-se (p-value>0,05) que
os resíduos podem ser considerados aproximadamente normais e com variâncias homogêneas
(homocedasticidade). O coeficiente de variação foi de 5,94%.
E ainda, a função apresenta as três observações mais discrepantes do conjunto de
dados. No caso a 7, 12 e 11 na seqüência dos dados. Para julgar se os dados apontados como
mais discrepantes são realmente fora da normalidade a função gera um gráfico dos resíduos
padronizados versus a seqüência dos dados. Observe no gráfico gerado neste exemplo (Figura
1) que nenhum dado fica fora dos limites de +/-2,5 escores Z (+/-2,5 desvios padrões). Os
valores 7, 12 e 11 são os que mais se aproximam destes limites. Dados fora do limite de dois
desvios padrões já podem ser considerados suspeitos, principalmente em amostras pequenas.
Figura 1. Gráfico dos resíduos padronizados versus a seqüência dos dados.3
Delineamento em blocos ao acaso
A análise de variância em delineamento de blocos ao acaso é realizada quando os
tratamentos são distribuídos de forma totalmente (inteiramente) casualizada dentro de grupos
homogêneos quanto a uma variável que atua no experimento de forma sistemática. Nestes
casos os grupos são freqüentemente denominados de blocos. Um bloco deve ser homogêneo
para a variável cujo efeito deseja-se “controlar”, mas pode ocorrer heterogeneidade entre
blocos.
Para realizar análise de variância em blocos ao acaso vamos requerer o pacote
"easyanova", que deve ser previamente instalado.
require(easyanova)
No próprio pacote existem dados disponíveis para exemplo. Vamos carregar o
exemplo chamado “data2”, que são dados obtidos de Kaps e Lamberson (2009).
data(data2)
Para ver a forma de tabulação dos dados observamos no próprio exemplo fazendo:
data2
Treatments Blocks Gain1 t1 b1 8262 t1 b2 8653 t1 b3 7954 t1 b4 8505 t2 b1 8276 t2 b2 8727 t2 b3 7218 t2 b4 8609 t3 b1 75310 t3 b2 80411 t3 b3 73712 t3 b4 822
4
No caso do delineamento de blocos ao acaso a primeira coluna deve conter os códigos
de tratamentos, a segunda os códigos dos blocos e as demais as variáveis respostas (somente
uma variável resposta neste exemplo). Temos o ganho diário em grama de bovinos em
experimento para avaliar três tratamentos. Os grupos (blocos) foram compostos por grupos de
peso de bovinos, sendo cada grupo um bloco. Note que todos os tratamentos foram aplicados
em cada bloco.
Vamos usar a função “ea1( )" do pacote “easyanova” e gravar o resultado em um
objeto chamado "resultado". Na função o argumento "design" define o delineamento (2 =
blocos ao acaso).
resultado=ea1(data2, design=2)
Para visualizar o resultado fazemos:
resultado
$`Analysis of variance` df type III SS mean square F value p>Ftreatments 2 6536 3268 5.3399 0.0465blocks 3 18198 6066 9.9118 0.0097Residuals 6 3672 612 - -
$`Adjusted means` treatment adjusted.mean standard.error tukey snk duncan t scott_knott1 t1 834 12.3693 a a a a a2 t2 820 12.3693 ab ab ab ab a3 t3 779 12.3693 b b b b b
$`Multiple comparison test` pair contrast p(tukey) p(snk) p(duncan) p(t)1 t1 - t2 14 0.7165 0.4540 0.4540 0.45402 t1 - t3 55 0.0456 0.0456 0.0230 0.02003 t2 - t3 41 0.1246 0.0575 0.0575 0.0575
$`Residual analysis` valuesp.value Shapiro-Wilk test 0.2759p.value Bartlett test 0.4075coefficient of variation (%) 3.0500first value most discrepant 7.0000second value most discrepant 3.0000third value most discrepant 11.0000
Ocorre diferença significativa entre tratamentos na análise de variância (p=0.0465).
Assim, pode-se avaliar a diferença entre tratamentos aos pares através dos testes de médias.
5
Observando o teste de ScottKnott pode-se concluir que os tratamentos t1 e t2 foram
estatisticamente iguais e, ambos estatisticamente diferentes do t3.
Observando o valor de probabilidade referente aos blocos (faixas de peso) pode-se
concluir que ocorre diferença significativa (p=0.0097). Certamente a decisão de “blocar” o
efeito de peso neste experimento foi muito importante para a qualidade do mesmo.
No teste de normalidade (shapiro.test) e de homogeneidade de variâncias
(bartlett.test) observa-se (p-value>0,05) que os resíduos podem ser considerados
aproximadamente normais e com variâncias homogêneas (homocedasticidade). O coeficiente
de variação foi de 3,05%.
Para julgar se os dados apontados como mais discrepantes são realmente fora da
normalidade a função gera um gráfico dos resíduos padronizados versus a seqüência dos
dados. Observe no gráfico gerado neste exemplo (Figura 2) que nenhuma observação fica fora
do limite de +/-2,5 escores Z (+/-2,5 desvios padrões), não sendo detectado problema com
outliers.
Figura 2. Gráfico dos resíduos padronizados versus a seqüência dos dados.
6
Caso alguma observação seja descartada, deve-se inserir NA no local do dado e a
análise refeita da mesma forma como anteriormente ilustrado. A função “ea1( )” faz os ajustes
recomendados no caso de um ou mais dados faltantes (desbalanceamento experimental).
Delineamento em quadrado latino
A análise de variância em delineamento de quadrado latino é realizada quando os
tratamentos são distribuídos de forma a ser controlada duas fontes de variação sistemática em
um experimento. O número de tratamentos deve ser igual ao número de categorias de cada
fonte de variação controlada no experimento. Por exemplo, em um experimento onde se
deseja testar o efeito de quatro tratamentos. Podem-se avaliar estes quatro tratamentos em
quatro animais (o efeito de animal é uma das fontes de variação sistemática) em quatro
períodos (o efeito de período é uma segunda fonte de variação sistemática a ser controlada no
experimento).
Para realizar análise de variância em quadrado latino vamos requerer o pacote
"easyanova", que deve ser previamente instalado.
require(easyanova)
No próprio pacote existem dados disponíveis para exemplo. Vamos carregar o
exemplo chamado “data3”, que são dados obtidos de Kaps e Lamberson (2009).
data(data3)
Para ver a forma de tabulação dos dados observamos no próprio exemplo fazendo:
data3
treatment period steer response1 B p1 a1 10.02 D p1 a2 9.03 C p1 a3 11.14 A p1 a4 10.85 C p2 a1 10.2
7
6 A p2 a2 11.37 D p2 a3 9.58 B p2 a4 11.49 D p3 a1 8.510 B p3 a2 11.211 A p3 a3 12.812 C p3 a4 11.013 A p4 a1 11.114 C p4 a2 11.415 B p4 a3 11.716 D p4 a4 9.9
No caso do delineamento em quadrado latino a primeira coluna deve conter os códigos
de tratamentos, a segunda e a terceira o código das duas variáveis controladas no experimento
(linhas e colunas) sem importar a ordem destas. E as demais colunas as variáveis respostas
(somente uma variável resposta neste caso). No exemplo temos o desempenho de bovinos em
experimento para avaliar quatro tratamentos. Foi controlado o efeito de período e de animal
(quatro períodos e quatro animais). Note que todos os tratamentos foram aplicados em cada
período e em cada animal.
Vamos usar a função “ea1( )" do pacote “easyanova” e gravar o resultado em um
objeto chamado "resultado". Na função o argumento "design" define o delineamento (3 =
quadrado latino).
resultado=ea1(data3, design=3)
Para visualizar o resultado fazemos:
resultado
$`Analysis of variance` df type III SS mean square F value p>Ftreatments 3 12.0219 4.0073 27.6763 <0.001rows 3 1.4819 0.4940 3.4115 0.0938columns 3 3.5919 1.1973 8.2691 0.0149Residuals 6 0.8688 0.1448 - -
$`Adjusted means` treatment adjusted.mean standard.error tukey snk duncan t scott_knott1 A 11.500 0.1903 a a a a a2 B 11.075 0.1903 a a a a a3 C 10.925 0.1903 a a a a a4 D 9.225 0.1903 b b b b b
8
$`Multiple comparison test` pair contrast p(tukey) p(snk) p(duncan) p(t)1 A - B 0.425 0.4538 0.1654 0.1654 0.16542 A - C 0.575 0.2429 0.1623 0.0847 0.07653 A - D 2.275 0.0006 0.0006 0.0002 0.00014 B - C 0.150 0.9411 0.5974 0.5974 0.59745 B - D 1.850 0.0019 0.0011 0.0006 0.00056 C - D 1.700 0.0030 0.0007 0.0007 0.0007
$`Residual analysis` valuesp.value Shapiro-Wilk test 0.6961p.value Bartlett test 0.8254coefficient of variation (%) 3.5600first value most discrepant 11.0000second value most discrepant 4.0000third value most discrepant 8.0000
Ocorre diferença muito significativa entre tratamentos (p<0,001) com posterior
avaliação da comparação aos pares de tratamentos pelos testes de médias. Também se
observa aproximação da normalidade (p>0,05 no teste de Shapiro-Wilk) e homogeneidade de
variâncias (p>0,05 no teste de Bartlett). Nenhum dado deve ser a priori considerado outlier,
pois estão dentro da faixa de +/- 2.5 escores z (Figura 3).
Figura 3. Gráfico dos resíduos padronizados versus a seqüência dos dados.
9
Em quadrados latinos pequenos, com quatro ou menos tratamentos, recomenda-se uma
duplicação ou triplicação do quadrado, para atingir uma amostra mais confiável para análise.
Este é o caso do exemplo a seguir, também obtido de Kaps e Lamberson (2009).
data(data4)
data4
diet square steer period response1 B 1 1 1 10.02 D 1 2 1 9.03 C 1 3 1 11.14 A 1 4 1 10.85 C 1 1 2 10.26 A 1 2 2 11.37 D 1 3 2 9.58 B 1 4 2 11.49 D 1 1 3 8.510 B 1 2 3 11.211 A 1 3 3 12.812 C 1 4 3 11.013 A 1 1 4 11.114 C 1 2 4 11.415 B 1 3 4 11.716 D 1 4 4 9.917 C 2 5 5 11.118 A 2 6 5 11.419 D 2 7 5 9.620 B 2 8 5 11.421 B 2 5 6 10.722 D 2 6 6 9.823 C 2 7 6 11.624 A 2 8 6 11.325 A 2 5 7 11.326 C 2 6 7 11.627 B 2 7 7 11.928 D 2 8 7 10.029 D 2 5 8 9.030 B 2 6 8 13.131 A 2 7 8 11.632 C 2 8 8 11.4
10
No caso de duplicação do delineamento em quadrado latino a primeira coluna deve
conter os códigos de tratamentos, a segunda os códigos das repetições do quadrado e a
terceira e quarta os códigos das duas variáveis controladas no experimento (linhas e colunas)
sem importar a ordem destas. E as demais colunas as variáveis respostas (temos somente uma
variável resposta neste caso). No exemplo temos o desempenho de bovinos em experimento
para avaliar quatro tratamentos. Foi controlado o efeito de período e de animal (quatro
períodos e quatro animais). O quadrado foi repetido (foram realizados dois quadrados
utilizando 8 animais e 8 períodos).
Vamos usar a função “ea1( )" do pacote “easyanova” e gravar o resultado em um
objeto chamado "resultado". Na função o argumento "design" define o delineamento (3 =
quadrado latino).
resultado=ea1(data4, design=4)
Para visualizar o resultado fazemos:
resultado
$`Analysis of variance` df type I SS mean square F value p>Ftreatments 3 22.8934 7.6311 38.7737 <0.001squares 1 1.0878 1.0878 5.5272 0.0328rows 6 5.4819 0.9136 4.6422 0.0074columns 6 2.0569 0.3428 1.7418 0.1793Residuals 15 2.9522 0.1968 - -
$`Adjusted means` treatment adjusted.mean standard.error tukey snk duncan t scott_knott1 A 11.4500 0.1568 a a a a a2 B 11.4250 0.1568 a a a a a3 C 11.1750 0.1568 a a a a a4 D 9.4125 0.1568 b b b b b
$`Multiple comparison test` pair contrast p(tukey) p(snk) p(duncan) p(t)1 A - B 0.0250 0.9995 0.9117 0.9117 0.91172 A - C 0.2750 0.6123 0.4489 0.2577 0.23403 A - D 2.0375 0.0000 0.0000 0.0000 0.00004 B - C 0.2500 0.6790 0.2773 0.2773 0.27735 B - D 2.0125 0.0000 0.0000 0.0000 0.00006 C - D 1.7625 0.0000 0.0000 0.0000 0.0000
$`Residual analysis` valuesp.value Shapiro-Wilk test 0.0946p.value Bartlett test 0.2910coefficient of variation (%) 4.0800
11
first value most discrepant 30.0000second value most discrepant 11.0000third value most discrepant 18.0000
Os resultados foram semelhantes ao primeiro exemplo de quadrado latino. Porém,
nota-se uma menor aproximação da normalidade (p=0.0946 no teste de Shapiro-Wilk) quando
comparado ao exemplo anterior (p=0.6961). Este resultado é devido a dois possíveis outliers,
referentes aos dados das posições 30 e 11 (Figura 4). Assim, pode-se avaliar a retirada de um
ou ambos os dados. Caso alguma observação seja descartada, deve-se inserir NA no local do
dado e a análise refeita da mesma forma como anteriormente ilustrado. A função “ea1( )” faz
os ajustes recomendados no caso de um ou mais dados faltantes (desbalanceamento
experimental).
Figura 4. Gráfico dos resíduos padronizados versus a seqüência dos dados.
12
Esquema fatorial
Fatorial não é um delineamento, é um esquema experimental onde são combinados os
níveis de dois ou mais fatores. Assim, um experimento em esquema fatorial pode ser
delineado de forma inteiramente ao acaso, em blocos ao acaso, quadrados latinos e outros
delineamentos. A seguir serão apresentados exemplos de esquemas fatoriais no delineamento
inteiramente ao acaso e de blocos ao acaso.
Fatorial duplo em delineamento inteiramente ao acaso
Para realizarmos a análise de variância de um esquema fatorial no R, de forma
bastante prática, utilizaremos a função “ea2( )” do pacote “easyanova”. Primeiro vamos
carregar o pacote que deve estar previamente instalado.
require(easyanova)
Também utilizaremos exemplo disponível no pacote “easyanova”. Para carregar o
exemplo faremos:
data(data5)
O nome do conjunto de dados é “data5”. Os dados se referem a a inclusão ou não de
duas vitaminas na alimentação de suínos, visando aumentar o ganho de peso dos mesmos
(dados de Kaps e Lamberson, 2009). Abaixo podemos verificar os dados.
data5
Vitamin_1 Vitamin_2 Gains1 0 0 0.5852 0 0 0.5363 0 0 0.4584 0 0 0.4865 0 0 0.5366 0 5 0.5677 0 5 0.5458 0 5 0.5899 0 5 0.536
13
10 0 5 0.54911 4 0 0.47312 4 0 0.45013 4 0 0.86914 4 0 0.47315 4 0 0.46416 4 5 0.68417 4 5 0.70218 4 5 0.90019 4 5 0.69820 4 5 0.693
Reparem nos dados que as duas primeiras colunas devem ser referentes aos códigos
dos fatores e as demais referentes aos valores numéricos das variáveis respostas.
Para analisar os dados e gravar o resultado em um objeto chamado “resultado”
fazemos:
resultado=ea2(data5, design=1)
O argumento “design=1” define que será realizado análise em esquema fatorial duplo
inteiramente ao acaso. Para observar o resultado fazemos:
resultado
$`Analysis of variance` df type III SS mean square F value p>Ffactor_1 1 0.0519 0.0519 4.7069 0.0454factor_2 1 0.0642 0.0642 5.819 0.0282factor_1:factor_2 1 0.0291 0.0291 2.639 0.1238Residuals 16 0.1765 0.0110 - -
$`Adjusted means (factor 1)` factor_1 adjusted.mean standard.error tukey snk duncan t scott_knott1 4 0.6406 0.0332 a a a a a2 0 0.5387 0.0332 b b b b b
$`Adjusted means (factor 2)` factor_2 adjusted.mean standard.error tukey snk duncan t scott_knott1 5 0.6463 0.0332 a a a a a2 0 0.5330 0.0332 b b b b b
$`Adjusted means (factor 1 in levels of factor 2)`$`Adjusted means (factor 1 in levels of factor 2)`$`factor_1 in 0` treatment adjusted.mean standard.error tukey snk duncan t scott_knott2 4.0 0.5458 0.047 a a a a a1 0.0 0.5202 0.047 a a a a a
14
$`Adjusted means (factor 1 in levels of factor 2)`$`factor_1 in 5` treatment adjusted.mean standard.error tukey snk duncan t scott_knott4 4.5 0.7354 0.047 a a a a a3 0.5 0.5572 0.047 b b b b b
$`Adjusted means (factor 2 in levels of factor 1)`$`Adjusted means (factor 2 in levels of factor 1)`$`factor_2 in 0` treatment adjusted.mean standard.error tukey snk duncan t scott_knott3 0.5 0.5572 0.047 a a a a a1 0.0 0.5202 0.047 a a a a a
$`Adjusted means (factor 2 in levels of factor 1)`$`factor_2 in 4` treatment adjusted.mean standard.error tukey snk duncan t scott_knott4 4.5 0.7354 0.047 a a a a a2 4.0 0.5458 0.047 b b b b b
$`Residual analysis` valuesp.value Shapiro-Wilk test 0.0002p.value Bartlett test (factor_1) 0.0005p.value Bartlett test (factor_2) 0.0540p.value Bartlett test (treatments) 0.0028coefficient of variation (%) 17.8100first value most discrepant 13.0000second value most discrepant 18.0000third value most discrepant 12.0000
Na análise de variância a fonte de variação referente ao fator 1 se refere a primeira
coluna de dados e a do fator 2 a segunda coluna dos dados. Ambas as vitaminas tiveram seus
efeitos significativos (p<0,05). Porém a interação foi não significativa na análise de variância
(p>0,05). Observando a análise de resíduos, nota-se ausência de normalidade (p<0,05 no teste
de Shapiro-Wilk) e de homogeneidade de variâncias (p<0,05 no teste de Bartlett) para o fator
1 e para os tratamentos (interação). No gráfico de resíduos (Figura 5) percebe-se que a
observação 13 é um provável outlier. A observação 18, apesar de não estar fora dos limites de
2.5 desvios padrões também é suspeita, pois destoa bastante dos demais resíduos.
15
Figura 5. Gráfico dos resíduos padronizados versus a seqüência dos dados.
Também podemos observar os resíduos em outros tipos de gráficos fazendo:
ea2(data5, design=1, plot=1)
ea2(data5, design=1, plot=3)
No primeiro caso o argumento “plot=1” define um gráfico tipo caixa (Figura 6) onde
são identificados dois possíveis outliers, provavelmente as observações 13 e 18. E no gráfico
com o argumento “plot=3” observamos um gráfico dos resíduos padronizados versus os
resíduos teóricos considerando distribuição normal (Figura 7). Neste último observamos as
observações 13 e 18 muito fora do esperado considerando normalidade. Assim, pode-se
considerar a possibilidade de retirada destes valores e, com esta operação, é provável que os
dados se aproximem da normalidade, ocorra diminuição do coeficiente de variação e alteração
de outros resultados. Neste caso a análise pela função “ea2( )” faz os ajustes necessários
devido ao desbalanceamento do experimento. Caso a retirada dos dados não seja considerada
adequada, os dados poderão ser submetidos a alguma forma de transformação. Ou então,
pode-se optar por utilizar um teste não paramétrico.
16
Figura 6. Gráfico de caixa (Box plot) dos resíduos padronizados
Figura 7. Gráfico dos resíduos padronizados versus os resíduos teóricos considerando
distribuição normal
17
Fatorial duplo em delineamento de blocos ao acaso
Semelhante ao procedimento do delineamento inteiramente ao acaso, utilizaremos a
função “ea2( )” do pacote “easyanova”. Primeiro vamos carregar o pacote e o exemplo que
esta disponível no pacote.
require(easyanova)
data(data6)
Para observar os dados:
data6
factor1 factor2 block yield1 0 0 1 18.02 0 0 2 8.63 0 0 3 9.44 0 0 4 11.45 1 0 1 20.66 1 0 2 21.07 1 0 3 18.68 1 0 4 20.69 0 1 1 19.610 0 1 2 15.011 0 1 3 14.612 0 1 4 15.813 1 1 1 19.214 1 1 2 19.615 1 1 3 18.416 1 1 4 20.2
Este exemplo foi obtido de Pimentel Gomes e Garcia (2002) e se refere a um fatorial
duplo (2 x 2) para avaliar a presença e ausência de dois tipos de adubos na produção de uma
cultivar. Neste experimento foi “blocado” o efeito de solo. Para a digitação dos dados para
utilizar a função “ea2( )” a primeira e segunda coluna devem ser reservadas aos códigos dos
18
fatores, a terceira coluna para os códigos de blocos e as demais para as variáveis respostas
(valores numéricos das variáveis respostas).
Para analisar os dados e gravar o resultado em um objeto chamado “resultado”
fazemos:
resultado=ea2(data6, design=2)
O argumento “design=2” define que será realizado análise em esquema fatorial duplo
em blocos ao acaso. Para observar o resultado fazemos:
resultado
$`Analysis of variance` df type III SS mean square F value p>Ffactor_1 1 131.1025 131.1025 31.2956 <0.001factor_2 1 12.6025 12.6025 3.0084 0.1169blocks 3 37.8275 12.6092 3.0099 0.0871factor_1:factor_2 1 27.5625 27.5625 6.5795 0.0304Residuals 9 37.7025 4.1892 - -
$`Adjusted means (factor 1)` factor_1 adjusted.mean standard.error tukey snk duncan t scott_knott1 1 19.775 0.7236 a a a a a2 0 14.050 0.7236 b b b b b
$`Adjusted means (factor 2)` factor_2 adjusted.mean standard.error tukey snk duncan t scott_knott1 1 17.800 0.7236 a a a a a2 0 16.025 0.7236 a a a a a
$`Adjusted means (factor 1 in levels of factor 2)`$`Adjusted means (factor 1 in levels of factor 2)`$`factor_1 in 0` treatment adjusted.mean standard.error tukey snk duncan t scott_knott2 1.0 20.20 1.0234 a a a a a1 0.0 11.85 1.0234 b b b b b
$`Adjusted means (factor 1 in levels of factor 2)`$`factor_1 in 1` treatment adjusted.mean standard.error tukey snk duncan t scott_knott4 1.1 19.35 1.0234 a a a a a3 0.1 16.25 1.0234 a a a a a
$`Adjusted means (factor 2 in levels of factor 1)`$`Adjusted means (factor 2 in levels of factor 1)`$`factor_2 in 0` treatment adjusted.mean standard.error tukey snk duncan t scott_knott3 0.1 16.25 1.0234 a a a a a1 0.0 11.85 1.0234 b b b b b
$`Adjusted means (factor 2 in levels of factor 1)`$`factor_2 in 1` treatment adjusted.mean standard.error tukey snk duncan t scott_knott2 1.0 20.20 1.0234 a a a a a4 1.1 19.35 1.0234 a a a a a
19
$`Residual analysis` valuesp.value Shapiro-Wilk test 0.5583p.value Bartlett test (factor_1) 0.7014p.value Bartlett test (factor_2) 0.2195p.value Bartlett test (treatments) 0.2472coefficient of variation (%) 12.1000first value most discrepant 1.0000second value most discrepant 13.0000third value most discrepant 2.0000
Neste experimento ocorre interação significativa, ou seja, o efeito de um dos adubos é
alterado significativamente dependendo do efeito do outro adubo. Este fato pode ser
observado no desdobramento da interação.
Na análise de resíduos verificam-se resíduos com aproximação da normalidade
(p>0,05 do teste de Shapiro-Wilk) e homogeneidade de variâncias (p>0,05 nos testes de
Bartlett). No entanto, a observação 1 é um possível outlier, como pode ser verificado na
Figura 8.
Figura 8. Gráfico dos resíduos padronizados versus a seqüência dos dados.
20
Esquema de parcelas subdivididas (splitplot)
O esquema de parcelas subdivididas é um esquema experimental e não um
delineamento. Podemos fazer um experimento em esquema de parcelas subdivididas em
vários delineamentos, sendo mais comuns os delineamentos inteiramente ao acaso, blocos ao
acaso e quadrado latino.
O esquema de parcelas subdivididas é obtido quando um experimento possui um fator
A, onde seus níveis compõem o que chamamos de parcelas. E um fator B, com seus níveis
casualizados dentro de cada parcela, criando o que chamamos de subparcelas. Quando uma
parcela ou unidade experimental é avaliada repetida vezes no tempo, também teremos um
esquema de parcelas subdivididas, chamada comumente de parcelas subdivididas no tempo.
Neste caso o efeito de um fator A é denominado parcela e o efeito do tempo será o fator B
denominado subparcela.
A análise de um esquema de parcelas subdivididas, em termos práticos, traz os
mesmos desdobramentos (informações) que uma análise de um fatorial duplo. Mas aqui, neste
material, não iremos fazer desenvolvimento teórico quanto aos métodos matemáticos e
particularidades teóricas dos procedimentos estatísticos. A seguir será demonstrado como
utilizar funções do R para obter uma análise bastante completa em esquema de parcelas
subdivididas em delineamento inteiramente ao acaso e em blocos ao acaso.
Esquema de parcelas subdivididas em delineamento inteiramente ao acaso
Aqui também utilizaremos o pacote “easyanova” com a função “ea2( )” que em caso
de dados faltantes (desbalanceamento) faz os ajustes necessários. Abaixo carregaremos o
pacote e exemplo denominado “data7” contido no pacote.
require(easyanova)
data(data7)
21
Para visualizar os dados:
data7
treatment rep week gain1 t1 1 w9 1.22 t1 1 w10 1.03 t1 1 w11 1.14 t1 1 w12 1.35 t1 2 w9 1.26 t1 2 w10 1.17 t1 2 w11 1.48 t1 2 w12 1.59 t1 3 w9 1.310 t1 3 w10 1.411 t1 3 w11 1.412 t1 3 w12 1.613 t1 4 w9 1.114 t1 4 w10 1.115 t1 4 w11 1.216 t1 4 w12 1.317 t1 5 w9 1.218 t1 5 w10 1.319 t1 5 w11 1.220 t1 5 w12 1.321 t1 6 w9 1.122 t1 6 w10 1.123 t1 6 w11 1.124 t1 6 w12 1.225 t1 7 w9 1.126 t1 7 w10 1.227 t1 7 w11 1.328 t1 7 w12 1.529 t1 8 w9 1.330 t1 8 w10 1.331 t1 8 w11 1.332 t1 8 w12 1.433 t2 1 w9 1.234 t2 1 w10 1.535 t2 1 w11 1.936 t2 1 w12 2.137 t2 2 w9 1.338 t2 2 w10 1.239 t2 2 w11 1.440 t2 2 w12 1.741 t2 3 w9 1.542 t2 3 w10 1.743 t2 3 w11 1.644 t2 3 w12 1.745 t2 4 w9 1.446 t2 4 w10 1.547 t2 4 w11 1.748 t2 4 w12 1.849 t2 5 w9 1.250 t2 5 w10 1.251 t2 5 w11 1.452 t2 5 w12 1.653 t2 6 w9 1.054 t2 6 w10 1.155 t2 6 w11 1.4
22
56 t2 6 w12 1.557 t2 7 w9 1.458 t2 7 w10 1.859 t2 7 w11 2.160 t2 7 w12 2.161 t2 8 w9 1.162 t2 8 w10 1.363 t2 8 w11 1.464 t2 8 w12 1.865 t2 9 w9 1.266 t2 9 w10 1.567 t2 9 w11 1.768 t2 9 w12 1.9
Neste exemplo, obtido de Kaps e Lamberson (2009) a primeira coluna refere-se aos
códigos do fator designado como parcela. A segunda coluna aos códigos de repetição de cada
parcela. A terceira coluna refere-se ao fator designado como subparcela (no caso as semanas
de avaliação). As demais colunas referem-se às variáveis respostas (numéricas). No exemplo
existe apenas uma variável resposta. Assim, temos um esquema de parcelas subdivididas no
tempo, pois os animais são avaliados em quatro semanas, sendo portanto as semanas
consideradas como subparcelas.
Para analisar os dados e gravar o resultado em um objeto chamado “resultado”
fazemos:
resultado=ea2(data7, design=4)
O argumento “design=4” define que será realizada análise em esquema de parcelas
subdivididas em delineamento inteiramente ao acaso. Para observar o resultado fazemos:
resultado
$`Marginal anova (Type III Sum of Squares)` numDF denDF F-value p-valueplot 1 15 13.25397 0.0024split.plot 3 45 40.09483 <.0001plot:split.plot 3 45 9.20168 0.0001
$`Adjusted means (plot)` plot adjusted.mean standard.error tukey snk duncan t1 t2 1.5250 0.0512 a a a a2 t1 1.2531 0.0543 b b b b
$`Adjusted means (split.plot)` split.plot adjusted.mean standard.error tukey snk duncan t1 w12 1.5937 0.0435 a a a a2 w11 1.4361 0.0435 ab b b b
23
3 w10 1.3049 0.0435 bc c c c4 w9 1.2215 0.0435 c c c c
$`Adjusted means (plot in levels of split.plot)`$`Adjusted means (plot in levels of split.plot)`$`plot in w10` plot.split.plot adjusted.means standard.error tukey snk duncan t2 t2.w10 1.4222 0.0596 a a a a1 t1.w10 1.1875 0.0632 b b b b
$`Adjusted means (plot in levels of split.plot)`$`plot in w11` plot.split.plot adjusted.means standard.error tukey snk duncan t4 t2.w11 1.6222 0.0596 a a a a3 t1.w11 1.2500 0.0632 b b b b
$`Adjusted means (plot in levels of split.plot)`$`plot in w12` plot.split.plot adjusted.means standard.error tukey snk duncan t6 t2.w12 1.8000 0.0596 a a a a5 t1.w12 1.3875 0.0632 b b b b
$`Adjusted means (plot in levels of split.plot)`$`plot in w9` plot.split.plot adjusted.means standard.error tukey snk duncan t8 t2.w9 1.2556 0.0596 a a a a7 t1.w9 1.1875 0.0632 a a a a
$`Adjusted means (split.plot in levels of plot)`$`Adjusted means (split.plot in levels of plot)`$`split.plot in t1` plot.split.plot adjusted.means standard.error tukey snk duncan t5 t1.w12 1.3875 0.0632 a a a a3 t1.w11 1.2500 0.0632 a a ab ab1 t1.w10 1.1875 0.0632 a a b b7 t1.w9 1.1875 0.0632 a a b b
$`Adjusted means (split.plot in levels of plot)`$`split.plot in t2` plot.split.plot adjusted.means standard.error tukey snk duncan t6 t2.w12 1.8000 0.0596 a a a a4 t2.w11 1.6222 0.0596 ab b b b2 t2.w10 1.4222 0.0596 bc c c c8 t2.w9 1.2556 0.0596 c c c c
$`Residual analysis` valuesp.value Shapiro-Wilk test 0.6596p.value Bartlett test (plot) 0.0056p.value Bartlett test (split.plot) 0.9215p.value Bartlett test (plot*split.plot) 0.2922AIC -17.1973BIC 5.8405first value most discrepant 59.0000second value most discrepant 42.0000third value most discrepant 44.0000
Neste experimento ocorre interação significativa, ou seja, o efeito dos tratamentos
(fator da parcela) é alterado significativamente dependendo da semana de avaliação
(subparcela). Este fato pode ser observado no desdobramento da interação, onde o tratamento
dois é superior nas três primeiras semanas e equivalente ao tratamento um na quarta semana.
Na análise de resíduos verificam-se resíduos com aproximação da normalidade
(p>0,05 no teste de Shapiro-Wilk) e homogeneidade de variâncias para a subparcela
24
(split-plot) e a interação (plot*split-plot) (p>0,05 nos testes de Bartlett). O efeito principal de
parcela (plot) não teve homogeneidade de variâncias no teste de Bartlett. No entanto, este
efeito (parcela) não deve ser considerado importante na análise e sim, o efeito da interação
que foi significativo. Também não deve ocorrer outliers neste conjunto de dados, pois
nenhum resíduo fica fora dos limites de 2,5 desvios padrões (Figura 9).
Figura 9. Gráfico dos resíduos padronizados versus a seqüência dos dados.
Esquema de parcelas subdivididas em delineamento de blocos ao acaso
Aqui também utilizaremos o pacote “easyanova” com a função “ea2( )” que em caso
de dados faltantes (desbalanceamento) faz os ajustes necessários. Abaixo carregaremos o
pacote e exemplo denominado “data8” contido no pacote.
require(easyanova)
data(data8)
25
Para visualizar os dados:
data8
pasture block mineral milk1 p4 1 m2 302 p4 1 m1 293 p1 1 m2 274 p1 1 m1 255 p2 1 m1 266 p2 1 m2 287 p3 1 m2 268 p3 1 m1 249 p2 2 m1 3210 p2 2 m2 3711 p1 2 m2 3012 p1 2 m1 3113 p4 2 m1 3414 p4 2 m2 3715 p3 2 m1 3316 p3 2 m2 3217 p1 3 m2 3418 p1 3 m1 3119 p2 3 m1 3020 p2 3 m2 3121 p4 3 m2 3622 p4 3 m1 3823 p3 3 m1 3324 p3 3 m2 32
No exemplo, obtido de Kaps e Lamberson (2009), o efeito de parcela (primeira
coluna) foi composto por quatro tipos de pastagem. O efeito de bloco composto por faixas de
solo homogêneas para o plantio das pastagens (segunda coluna). A subparcela foi composta
por efeito de suplementação mineral (terceira coluna). A quarta coluna refere-se a produção
de leite (variável resposta numérica).
Para analisar os dados e gravar o resultado em um objeto chamado “resultado”
fazemos:
resultado=ea2(data8, design=5)
O argumento “design=5” define que será realizada análise em esquema de parcelas
subdivididas em delineamento de blocos ao acaso. Para observar o resultado fazemos:
26
resultado
$`Marginal anova (Type III Sum of Squares)` numDF denDF F-value p-valueplot 3 6 5.456869 0.0377split.plot 1 8 3.629630 0.0932block 2 6 24.450479 0.0013plot:split.plot 3 8 0.864198 0.4981
$`Adjusted means (plot)` plot adjusted.mean standard.error tukey snk duncan t1 p4 34.0000 0.8512 a a a a2 p2 30.6667 0.8512 ab b b b3 p3 30.0000 0.8512 ab b b b4 p1 29.6667 0.8512 b b b b
$`Adjusted means (split.plot)` split.plot adjusted.mean standard.error tukey snk duncan t1 m2 31.6667 0.5243 a a a a2 m1 30.5000 0.5243 a a a a
$`Adjusted means (plot in levels of split.plot)`$`Adjusted means (plot in levels of split.plot)`$`plot in m1` plot.split.plot adjusted.mean standard.error tukey snk duncan t4 p4.m1 33.6667 1.0486 a a a a3 p3.m1 30.0000 1.0486 a b b b2 p2.m1 29.3333 1.0486 a ab b b1 p1.m1 29.0000 1.0486 a ab b b
$`Adjusted means (plot in levels of split.plot)`$`plot in m2` plot.split.plot adjusted.mean standard.error tukey snk duncan t8 p4.m2 34.3333 1.0486 a a a a6 p2.m2 32.0000 1.0486 a a ab ab5 p1.m2 30.3333 1.0486 a a b b7 p3.m2 30.0000 1.0486 a a b b
$`Adjusted means (split.plot in levels of plot)`$`Adjusted means (split.plot in levels of plot)`$`split.plot in p1` plot.split.plot adjusted.mean standard.error tukey snk duncan t5 p1.m2 30.3333 1.0486 a a a a1 p1.m1 29.0000 1.0486 a a a a
$`Adjusted means (split.plot in levels of plot)`$`split.plot in p2` plot.split.plot adjusted.mean standard.error tukey snk duncan t6 p2.m2 32.0000 1.0486 a a a a2 p2.m1 29.3333 1.0486 a a a a
$`Adjusted means (split.plot in levels of plot)`$`split.plot in p3` plot.split.plot adjusted.mean standard.error tukey snk duncan t3 p3.m1 30 1.0486 a a a a7 p3.m2 30 1.0486 a a a a
$`Adjusted means (split.plot in levels of plot)`$`split.plot in p4` plot.split.plot adjusted.mean standard.error tukey snk duncan t8 p4.m2 34.3333 1.0486 a a a a4 p4.m1 33.6667 1.0486 a a a a
$`Residual analysis` valuesp.value Shapiro-Wilk test 0.5153p.value Bartlett test (plot) 0.8121p.value Bartlett test (split.plot) 0.4609
27
p.value Bartlett test (plot*split.plot) 0.4044AIC 106.1717BIC 114.4794first value most discrepant 10.0000second value most discrepant 20.0000third value most discrepant 11.0000
Neste experimento não ocorre interação significativa. Observando o efeito dos fatores
isolados tem-se efeito significativo (p<0,05) somente para parcela (tipo de pastagem).
Na análise de resíduos verificam-se resíduos com aproximação da normalidade
(p>0,05 no teste de Shapiro-Wilk) e homogeneidade de variâncias ( (p>0,05 nos testes de
Bartlett). Também não deve ocorrer outliers neste conjunto de dados, pois nenhum resíduo
fica fora dos limites de 2,5 desvios padrões (Figura 10).
Figura 10. Gráfico dos resíduos padronizados versus a seqüência dos dados.
28
Análise de covariância
Uma análise de covariância é uma análise onde o efeito de uma variável quantitativa
que atua no experimento vai ser estimado, testado e utilizado para ajustar os dados do
experimento. A seguir faremos um exemplo utilizando a função “ea1( )” do pacote
“easyanova”. Segue programação para carregar o pacote e os dados para exemplo.
require(easyanova)
data(data10)
Para visualizar os dados:
data10
Diets Initial_weight Repetitions Gain1 A 350 1 9702 A 400 2 10003 A 360 3 9804 A 350 4 9805 A 340 5 9706 B 390 1 9907 B 340 2 9508 B 410 3 9809 B 430 4 99010 B 390 5 98011 C 400 1 99012 C 320 2 94013 C 330 3 93014 C 390 4 100015 C 420 5 1000
Estes dado, obtidos de Kaps e Lamberson (2009), representam o efeito de três dietas
no ganho de peso diário de bezerros. O experimento foi instalado no delineamento
inteiramente ao acaso. Ocorre que animais inicialmente mais pesados têm a tendência de
ganhar mais peso. Se ocorrer diferença entre os grupos de cada tratamento, um ajuste através
da análise de covariância é adequado.
29
A ordem das colunas no conjunto de dados para análise com a função “ea1( )” deve
ser: 1) tratamento; 2) covariável (no caso o peso inicial); 3) ganho de peso (variável resposta).
A coluna referente às repetições (terceira coluna) deve ser retirada antes de proceder à análise,
como programado a seguir.
datacov=data10[,-3] resultado=ea1(datacov, design=5)
Para visualizar o resultado.
resultado
$`Analysis of variance` df type I SS mean square F value p>Fcovariate 1 4441.253 4441.2526 46.9153 <0.001treatments 2 1050.762 525.3810 5.5499 0.0216Residuals 11 1041.319 94.6653 - -
$`Adjusted means` treatment adjusted.mean standard.error tukey snk1 A 988.8645 4.3512 a a2 C 973.6117 4.3512 ab b3 B 967.5238 4.3512 b b duncan t scott_knott1 a a a2 b b b3 b b b
$`Multiple comparison test` pair contrast p(tukey) p(snk) p(duncan) p(t)1 A - C 15.2528 0.0728 0.0306 0.0306 0.03062 A - B 21.3407 0.0134 0.0134 0.0067 0.00533 C - B 6.0879 0.5983 0.3438 0.3438 0.3438
$`Residual analysis` valuesp.value Shapiro-Wilk test 0.9014p.value Bartlett test 0.1274coefficient of variation (%) 1.0000first value most discrepant 14.0000second value most discrepant 13.0000third value most discrepant 6.0000
Ocorre efeito significativo para tratamentos e para a covariável. Sem problemas
quanto à normalidade e homogeneidade de variâncias.
A seguir se procede a análise sem considerar a covariável (peso inicial). Assim, temos
um delineamento inteiramente ao acaso (função “ea1( )” design=1). Repare que não ocorre
30
diferença entre as médias dos tratamentos e aumenta o coeficiente de variação, demonstrando
a importância da análise de covariância neste exemplo.
resultado=ea1(datacov[,-2], design=1)
resultado
$`Analysis of variance` df type I SS mean square F value p>Ftreatments 2 173.3333 86.6667 0.1635 0.851Residuals 12 6360.0000 530.0000 - -
$Means treatment mean standard.error tukey snk duncan t scott_knott1 A 980 10.2956 a a a a a2 B 978 10.2956 a a a a a3 C 972 10.2956 a a a a a
$`Multiple comparison test` pair contrast p(tukey) p(snk) p(duncan) p(t)1 A - B 2 0.9897 0.8930 0.8930 0.89302 A - C 8 0.8487 0.8487 0.6110 0.59283 B - C 6 0.9113 0.6875 0.6875 0.6875
$`Residual analysis` valuesp.value Shapiro-Wilk test 0.3583p.value Bartlett test 0.1274coefficient of variation (%) 2.3600first value most discrepant 13.0000second value most discrepant 12.0000third value most discrepant 14.0000
Contrastes de médias
O objetivo deste tópico não é demonstrar contrastes entre pares de médias ou os
chamados “testes de comparações múltiplas”. Os mesmos são demonstrados nos tópicos
anteriores em cada exemplo apresentado segundo o tipo de esquema experimental e
delineamento estatístico. Neste tópico demonstraremos como proceder para comparar grupos
de médias.
Primeiro vamos demonstrar como fazer contrastes de grupos de médias utilizando a
função “ec( )” do pacote “easyanova”. Carregando exemplo de Kaps e Lamberson (2009)
contido no pacote “easyanova”.
require(easyanova)
31
data(data1)
Para visualizar os dados:
data1
Diet Gain1 d1 2702 d1 3003 d1 2804 d1 2805 d1 2706 d2 2907 d2 2508 d2 2809 d2 29010 d2 28011 d3 29012 d3 34013 d3 33014 d3 30015 d3 300
Realizando a analise de variância:
resultado=ea1(data1, design=1)
Observando o resultado:
resultado
$`Analysis of variance` df type I SS mean square F value p>Ftreatments 2 3640 1820.0000 6.1348 0.0146Residuals 12 3560 296.6667 - -
$Means treatment mean standard.error tukey snk duncan t scott_knott1 d3 312 7.7028 a a a a a2 d1 280 7.7028 b b b b b3 d2 278 7.7028 b b b b b
32
$`Multiple comparison test` pair contrast p(tukey) p(snk) p(duncan) p(t)1 d3 - d1 32 0.0310 0.0124 0.0124 0.01242 d3 - d2 34 0.0223 0.0223 0.0112 0.00883 d1 - d2 2 0.9816 0.8574 0.8574 0.8574
$`Residual analysis` valuesp.value Shapiro-Wilk test 0.8937p.value Bartlett test 0.5662coefficient of variation (%) 5.9400first value most discrepant 7.0000second value most discrepant 12.0000third value most discrepant 11.0000
Desdobrando em contrastes ortogonais.
Primeiro contraste, fazendo d3 versus demais, ocorrendo diferença significativa.
mg1=312mg2=c(278,280)sdg1=7.7028sdg2=c(7.7028,7.7028)df=12
ec(mg1,mg2,sdg1,sdg2,df)
grupos contrast standard.error tcal p.value1 group.1 vs group.2 66 18.8679 3.5 0.0044
Segundo contraste, fazendo d1 versus d2, sem ocorrência de diferença significativa.
mg1=280mg2=278sdg1=7.7028sdg2=7.7028df=12
ec(mg1,mg2,sdg1,sdg2,df)
grupos contrast standard.error tcal p.value1 group.1 vs group.2 2 10.8934 0.18 0.8574
33
Ou então fazendo via funções do R base, primeiro criando uma matriz de contrastes
ortogonais.
c=matrix(c(-1,-1,2,1,-1,0),ncol=2)c=t(c)c
[,1] [,2] [,3][1,] -1 -1 2[2,] 1 -1 0
Invertendo (inversa generalizada) a matriz de contrastes ortogonais.
c1=ginv(c)c1
[,1] [,2][1,] -0.1666667 5.000000e-01[2,] -0.1666667 -5.000000e-01[3,] 0.3333333 2.076565e-17
Modelo com os contrastes e o resultado.
contrasts(data1$Diet)=c1m=lm(Gain~Diet, data=data1)summary(m) Call:lm(formula = Gain ~ Diet, data = data1)
Residuals: Min 1Q Median 3Q Max -28 -11 0 12 28
Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 290.000 4.447 65.209 <2e-16 ***Diet1 66.000 18.868 3.498 0.0044 ** Diet2 2.000 10.893 0.184 0.8574 ---Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
34
Residual standard error: 17.22 on 12 degrees of freedomMultiple R-squared: 0.5056, Adjusted R-squared: 0.4231 F-statistic: 6.135 on 2 and 12 DF, p-value: 0.01461
35
Referências
KAPS, M. and LAMBERSON, W. R. Biostatistics for Animal Science: an
introductory text. 2nd Edition. CABI Publishing, Wallingford, Oxfordshire, UK,
2009. 504p.
SAMPAIO, I. B. M. Estatistica aplicada a experimentacao animal. 3nd Edition.
Belo Horizonte: Editora FEPMVZ, Fundacao de Ensino e Pesquisa em Medicina
Veterinaria e Zootecnia, 2010. 264p.
R-Fácil (2014)
URL http://r-facil.webnode.com/
R Core Team (2014). R: A language and environment for statistical computing.
R Foundation for Statistical Computing, Vienna, Austria. URL
http://www.R-project.org/ .
36
Top Related