Como comparar medidas repetidas entre três grupos no spss

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

MATERIAL DIDÁTICO

CURSO DE ESTATÍSTICA APLICADA PARA INICIANTES

MÓDULO 5

ESTATÍSTICA ANALÍTICA IV

Análise Multivariada no SPSS

AUTOR: EDUARDO FEDERIGHI BAISI CHAGAS

MARÍLIA

2016

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

SUMÁRIO

1. Anova

2. Anova-one-way

3. Ancova - Análise de Covariância

4. Anova-two-way

5. Anova de Medidas Repetidas

6. Manova

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

1. ANOVA

A ANOVA (análise da variância) é o método recomendado para comparar

médias de três os mais grupos. Uma ANOVA produz uma estatística “F” ou razão “F”

que é semelhante a estatística “t”, pois, ela compara a variância sistemática dos dados

com a variância não-sistemática.

Contudo a ANOVA é um teste abrangente (omnibus), que analisa o efeito

global, ou seja, ela informa se existem diferenças entre os grupos experimentais, porém

não informa entre quais grupos a diferença se localiza. Para isto são utilizados os

Contrastes ou Testes Post-Hoc.

A ANOVA é baseada nos mesmo conceitos da Regressão, que comparar a

razão entre as variâncias. Deste modo, a ANOVA pode ser representada por uma

regressão múltipla na qual o número de previsores é um a menos do que o número de

categorias da variável independente.

Dependendo do desenho da pesquisa diferentes formas de ANOVA podem ser

aplicadas. A Anova-one-way é utilizada quando o pesquisador pretende comparar a

média de uma variável quantitativa entre mais de dois grupos independentes.

Quando se pretende analisar o efeito de outras variáveis que influenciam os

resultados da variável dependente de interesse é possível incluir covariáveis na Anova-

one-way. Quando isso ocorre estamos realizando a ANCOVA.

Outra aplicação da ANOVA é quando o pesquisador que analisar a interação de

duas ou mais variáveis independentes sobre a variável quantitativa (dependente) de

interesse. Está análise de chamada de Anova Fatorial, e quando é incluído duas

variáveis independentes é chamada de Anova-two-way.

Há situações que a comparação das médias não se dá somente em grupos

independentes, pois, o pesquisador realiza medidas repetidas de um mesmo grupo.

Nesta condição é utilizada a Anova de Medidas Repetidas. Quando se pretende analisar

o efeito da combinação de variáveis dependentes entre grupos a análise utilizada é a

MANOVA.

Embora os conceitos da ANOVA sejam importante o foco de material é

descrever de forma prática o uso destes recursos estatístico.

2. ANOVA-ONE-WAY

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

As suposições sob as quais a ANOVA é confiável são as mesmas dos testes

PARAMÉTRICOS baseados na DISTRIBUIÇÃO NORMAL. Além disto, as variâncias

em cada um dos grupos devem ser homogêneas, que representa o pressuposto de

HOMOGENEIDADE DAS VARIÂNCIAS.

Em termos de violação de das hipóteses de homogeneidade da variância, a

ANOVA é bastante robusta quando o tamanho dos grupos é igual. Quando grupos com

grande tamanhos amostrais apresentam variâncias maiores do que grupos com tamanhos

amostrais menores, a razão F tende e ser “não-significativa” mesmo quando existe uma

diferença (erro do tipo II).

quando os grupos com grande tamanhos amostrais apresentam variâncias

menores do que os grupos com tamanhos amostrais menores, a razão F tende a ser

“significativa” mesmo quando não existe diferença entre os grupos (erro do tipo I).

O SPSS fornece opções de teste que corrigem a violação das hipóteses de

homogeneidade das variâncias, porém a violação da hipótese da independência é mais

série a aumenta de forma considerável a chance de erro do tipo I. A hipótese da

Independência é violada quando as observações entre os grupos se correlacionam.

CONTRASTES

Como a razão F da estatística da ANOVA nos informa somente se existe

diferença entre os grupos independentes é necessário realizar procedimentos adicionais

para identificar entre quais grupos existe a diferença significativa.

Uma das opções para isto são os CONTRASTES planejados, que realizam

comparações par a par entre os grupos. O SPSS fornece várias opções de

CONTRASTES, porém a escolha deste dependente da forma que pretende comparar os

grupos. Caso o pesquisador não tenha definido a forma como pretende comparar os

grupos, recomendo que faça a opção pelo teste Post-Hoc que realiza a compara de todos

os pares possíveis controlando o aumento do erro do tipo I.

Entretanto a situações que se pretende realizar a análise de tendência e isto é

possível através do CONTRASTE POLINOMIAL.

POST-HOC

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

O teste Post-Hoc representa comparações aos pares corrigindo o problema do

crescimento do erro de conjunto. O SPSS fornece 18 opções de teste Post-Hoc, e a

principal diferença entre eles é a forma que controlam o erro do tipo I e tipo II. Porém

quando o erro do tipo I é controlado de forma mais conservadora se observa um redução

do poder, ou seja, um aumento do erro do tipo II e redução da capacidade do teste

encontrar diferenças significativas quando elas realmente existem. Também opções

de teste Post-Hoc que devem ser utilizadas quando as hipóteses de Homogeneidade das

variâncias são violadas.

Vou comentar das principais opções de teste Pos-Hoc e as vantagens e

desvantagens destes considerando os tipos de erro.

O teste LSD não tenta controlar o erro do tipo I e exige apenas que a ANOVA

seja significativa. Deste modo para seu uso recomendo que todos os pressupostos

estejam atendidos e que o nível de significância, normalmente estabelecido em p0,05,

seja dividido pelo número de pares de comparações.

O teste de Bonferroni e de Turkey controlam muito bem o erro do tipo I, mas

reduzem bastante o poder. O teste de Bonferroni apresenta maior poder quando o

número de comparações é pequeno. O teste de Turkey é recomendado quando o número

de comparações é grande.

O teste REGWQ apresenta um bom poder e controle satisfatório do erro do

tipo I, porém não devem ser utilizado para comparação de grupos de tamanhos

diferentes.

Quando a homogeneidade das variâncias não for violada o SPSS fornece

opções de teste Post-Hoc que podem ser aplicados quando a igualdade das variâncias

não é assumida. A opção mais recomendada é o teste de Games-Howell.

ANOVA-ONE-WAY

Para exemplificar o uso da Anova-one-way vamos imaginar que temos três

grupos independentes que correspondem a três faixas etárias, e o objetivo é comparar a

média de índice de massa corporal (IMC) entre os grupos. Clicar em

Analyze<Compare Means<One-Way-ANOVA. Na caixa de dialogo que abrir inserir

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

em Dependent List a variável quantitativa e em Factor a variável qualitativa que divide

os grupos.

Na opção Contrasts selecionar a opção Polynomial e em Degree selecionar a

opção Quadratic. Ao selecionar a opção Quadratic será realizada a análise de contraste

selecionada e a anterior (Linear). A opção Polynomial produz o valor de “p” conhecido

como “p-trend” ou valor de “p” para tendência. Na opção Post-Hoc considere as

recomendações anteriores para seleção dos testes, porém como temos apenas 3 grupos

de comparação sugiro selecionar a opção de Bonferroni e como ainda não temos certeza

sobre a homogeneidade das variâncias selecione também a opção Games-Howell.

Retornando na caixa de dialogo principal clicar em Options e selecionar os

itens Descriptive, Homogeneity of variance test, Brown-Forsythe, Welch e Means Plot.

O teste de LEVENE testa a hipótese de Homogeneidade das Variâncias, e

quando está é violada o SPSS fornece duas opções alternativas ao teste de ANOVA para

calcular a razão F. O teste de Welch é o mais recomendado quando a hipótese de

Homogeneidade das Variâncias, porém se um dos grupos apresentar valores de média

extremos utilize o Brown-Forsythe. Retorne a caixa principal e clique em OK.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No Output do SPSS no quadro Descriptive é apresentada a Média (mean),

desvio-padrão (Std. Deviation), erro padrão (Std.Error), o intervalo de confiança de

95% para média (lower bound e upper bound) e amplitude (minimum e maximum).

No quadro Testo f Homogeneity of Variances o valor de sig (p)0,05 indica

que a hipótese da Homogeneidade das Variâncias foi violada. Caso isso tenha ocorrida

considerar a razão F e valor de “p” (sig) do quadro Robust Testo of Equality of Means.

No quadro ANOVA a estatística F e valor de “p” (sig) para o Teste de Anova-

one-way está em Between Groups, que indica que existe diferenças significativas entre

os grupos de faixa etária. Em Linear Term é apresentado o valor de “p-trend” para

relação linear na opção Unweighted (não ponderada) e Weighted (ponderada), que

indica que existe relação linear entre aumenta da faixa etária e aumento do IMC. Em

Quadratic Term é apresentado o valor de “p-trend” para relação quadrática na opção

Unweighted (não ponderada) e Weighted (ponderada).

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Como a Anova-one-way tem valor de “p” (sig)0,05 assumimos que existe

diferença signficativa entre os grupos, mas para localizar as diferenças é necessário

realizar o teste Post-Hoc. Como o teste de Levene tem valor de significância maior que

0,05 a igualdade das variâncias pode ser assumida e o teste de Bonferroni pode ser

utilizado para identificar as diferenças. A Faixa etária <20 anos apresenta diferenças

significativas das faixas etárias 20 a 23 anos e >23 anos, porém entre as faixas etárias 20

a 23 anos e >23 não existe diferença estatisticamente significante.

TAMANHO DO EFEITO

A forma mais recomenda para calcular o tamanho do efeito para Anova-one-

way é pelo calculo do ômega quadrado (ω

2

).

ω

2

= SS

m

– (gl

m

)* MS

r

/ SS

t

+ MS

r

ω

2

= 336,169 – (2)*15,935/ 8128,418 + 1,97

ω

2

= 304,299/ 8130,388

ω

2

= 0,03 – efeito pequeno

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Porém é mais interessante calcular o efeito baseado no valor do teste “t” de

cada comparação. Comparações planejadas são testadas pela estatística “t”, portanto o

tamanho do efeito pode ser calculado por:

R

contraste

= t

2

/t

2

+gl

Para isto é necessário realizar os contrastes planejados, porém para isto é

necessário atribuir os coeficientes que representam cada categoria de forma correta.

Considerando que as faixas etárias estão organizadas da seguinte forma: 1=<20 anos; 2=

20 a 23 anos; e 3 = >23 anos. Ir em Contrasts e atribuir os seguintes coeficientes.

Para comparar categoria 1 e 2 será necessário atribuir coeficiente -1 para

categoria 1 e coeficiente 1 para categoria 2. Como a categoria 3 não será considerada

nesta comparação entre 1 e 2, deverá receber o coeficiente 0. Da mesma forma quando

for comparar os grupos 1 e 3, atribuir os coeficientes -1 para grupo 1, 1 para grupo 3 e 0

para grupo 2. Quando comparar grupos 2 e 3, atribuir coeficientes 0 para grupo 1, -1

para grupo 2 e 1 para grupo 3.

No Output do SPSS no quadro Contrast Coefficients são apresentados os

coeficientes atribuídos em cada contraste.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No quadro Contrast Tests são apresentados os valores de “t” e do grau de

liberdade (df = gl), como também para o valor de “p”.

Assim o valor de r (tamanho do efeito) para:

R

contraste 1

= t

2

/t

2

+gl = 8,36/8,36+489 = 0,12 = efeito pequeno

R

contraste 2

= t

2

/t

2

+gl = 19,17 /19,17+489 = 0,19 = efeito pequeno

Como o contraste 3 entre os grupos 2 e 3 não foi significativo não se deve

calcular o tamanho do efeito, porque não há efeito.

3. ANCOVA - ANÁLISE DE COVARIÂNCIA

Quando estamos comparando o efeito de grupo (variável independente) sobre

uma variável dependente é esperado que toda variação existente não possa ser explicada

por um único fator. Desta forma, existem variáveis independentes que não foram

consideradas e podem influenciar significativamente as variâncias dentro dos grupos.

Estas variáveis que podem controlar a variância do erro dentro do grupo e

controlar fatores de confusão são chamadas de COVARIÁVEIS.

Assim quando COVARIÁVEIS são incluídas na comparação de grupos

independentes estamos realizando uma Análise de Covariância ou ANCOVA.

Considerando que o sexo represente um possível fator de influência sobre o IMC, e seja

necessário controlar seu efeito para comparação do IMC entre grupos de faixa etária

podemos fazer isto utilizando a ANCOVA.

Para realizar a ANCOVA no SPSS clicar em Analyze<General Linear

Model<Univariate. Na caixa de dialogo que abrir inserir em Dependent Variable a

variável quantitativa que representa o desfecho, em Fixed Factor(s) a variável

qualitativa que representa os grupos de exposição, e em Covariate(s) a variável que será

controlada.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Em Contrasts agora não é possível construir contrastes planejados sendo

necessário selecionar uma das opções disponíveis. Sempre que selecionar uma opção de

contraste é necessário clicar em Change para salvar a alteração. Além disto, para o

maioria das opções de contraste do SPSS é necessário indicar qual categoria da variável

independente será a categoria de referências, mas lembre que o SPSS somente permite

selecionar a primeira ou a última categoria. Dentre as opções de contraste recomendo a

de Helmert.

No quadro abaixo contem a descrição de como são realizadas as comparações

de contraste disponíveis no SPSS.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Quando uma covariável é incluída a opção Post-Hoc na caixa de dialogo

principal fica bloqueada, porém é possível solicitar o teste Post-Hoc no item Options.

Em Estimated Marginal Means no item Factor(s) and Factor Interactions selecionar a

variável independente e inserir em Display Means for. Em seguida marcar a opção

Compare main effects e selecionar o teste Post-Hoc em Confidence interval adjustment.

Dentre as opções disponíveis recomenda a opção de Bonferroni, porém a opção de

Sidak é menos conservadora e controla a perda de poder.

Ainda em Options selecione em Display os itens Descriptive, Parameter

estimates e Homogenety tests. Em Parameter estimates é calculado os coeficientes de

regressão e suas significância para as variáveis do modelo de regressão. Em

Homogenety tests o valor de significância para o teste de Homogeneidade das

Variâncias de Levene.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No Output no quadro Descriptive Statistics é apresentado os valores de média e

desvio-padrão dos grupos. No quadro Levene`s Test of Equality of Error Variances o

valor de sig (p)>0,05 indica que o pressuposto de Homogeneidade da Variâncias foi

atendido.

No quadro Tests of Between-Subjects Effects o valor de sig (p) para Corrected

Model indica se o modelo construído com a variável independente é significativo para

prever a variável dependente. Em Sexo o valor de sig (p)0,05 indica a influência

significativa sobre as variações de IMC entre os grupos de faixa etária (FE). Em relação

às faixas etárias foram observadas diferenças significativas, porém é necessária a

realização de Contrastes ou teste Post-Hoc para identificar entre quais categorias de FE

existe diferença. Observe que em baixo da tabela é apresentado o R

2

que indica que

percentual de variação da variável dependente é explicado pelo modelo construído pela

variável independente, tendo a covariável Sexo controlada.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No quadro Parameter Estimates são apresentados os coeficientes de regressão

para o intercepto, Sexo e categorias de faixa etária, com seus respectivos valores de “p”

(sig) e intervalo de confiança de 95% (Lower bound – Upper bound).

O SPSS codifica as categorias de forma que a última categoria seja a categorias

de referência (faixa etária 3) e codificada como “0”. Assim a categoria 2 representa a

diferença entre faixa etária 2 e 3, e a categoria 1 a diferença entre categoria 1 e 3.

Deste modo, os valores de B representam as diferenças entre médias desses

grupos, e assim a significância dos testes “tnos diz se as médias dos grupos diferem

significativamente ou não.

Deste modo podemos concluir que existe diferença entre a categoria 1 e 3 para

faixa etária (sig=0,002), mas não entre as categorias 2 e 3 (sig=0,225). Para a

covariável Sexo (1=masculino; 2=feminino) foi observado efeito significativo na

previsão do IMC e o valor de B= - 2,323 (negativo) indica que o sexo feminino

contribui para a redução dos valores de IMC.

Em relação ao contraste sugiro a opção de Helmert e o Polinomial. No

contraste de Helmert primeiro é comparado o grupo 1 com grupo 2 e 3 somados, e

depois é excluído o grupo 1 e comparado grupos 2 e 3. O grupo 1 apresentou diferença

significativa em relação os grupos 2 e 3 (sig=0,002), porém entre os grupos 2 e 3 não foi

observado diferença significativa (sig=0,225). Note que este são os mesmos valores

observado na regressão

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No contraste Polynomial é apresentado o valor de significância (sig) para

tendência linear (p=0,002), e para tendência quadrática (p=0,768). Este resultado indica

que o aumento da categoria de faixa etária se relaciona linearmente com o aumento do

IMC.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No quadro Estimates é apresentado a média dos grupos com os repectivos erro

padrão da média e intervalos de confiança de 95%. Porém estes valores de média e

IC95% estão sendo influenciados pelo controle da covariável Sexo e produzem valores

diferentes daqueles calculos diretamente como apresentado no quadro Descriptive

Explore. Lembre que é possível analisar a diferença entre os grupos pelo IC95%, onde

podemos verificar que os grupos de faixa etária 1 e 2 não diferem significativamente, e

nem o grupo 2 e 3, porém os grupos 1 e 3 apresentam diferenças singificativas.

No quadro Pairwise Comparisons é apresentado os valores de “p” (sig) para as

comparações par-a-par pelo teste de ajustamento de Bonferroni. É possível verificar que

controlada a covariável Sexo não foi observado diferença significativa entre os grupos

de Faixa etária 1 e 2. Porém entre o grupo 1 e 3 as diferenças permaneceram

significativas.

Statistic Std. Error

22,6155 ,24947

Lower

Bound

22,1239

Upper

Bound

23,1071

23,8419 ,35867

Lower

Bound

23,1330

Upper

Bound

24,5509

24,5918 ,36639

Lower

Bound

23,8662

Upper

Bound

25,3173

> 23 ANOS Mean

95%

Confidence

Interval for

Mean

95%

Confidence

Interval for

Mean

IMC

(Kg/m2)

Pré

< 20 ANOS Mean

95%

Confidence

Interval for

Mean

20 A 23

ANOS

Mean

Descriptives Explore

FAIXA ETÁRIA

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

TAMANHO DO EFEITO

Da mesma forma que na Anova-one-way é mais adequado calcular o tamanho

do efeito para as comparações utilizando o r como descrito na equação abaixo.

R

contraste

= t

2

/t

2

+gl

O quadro Parameter Estimate fornece as informações necessárias para calcular

o tamanho do efeito. Esta estatística tem N-2 graus de liberdade (N=tamanho total da

amostra=492).

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

R

contraste 1 vs. 3

= -3,109

2

/-3,109

2

+(492-2) = 0,13 = efeito pequeno

R

contraste 2 vs. 3

= -1,214

2

/-1,214

2

+(492-2) = 0,05 = efeito pequeno

4. ANOVA FATORIAL – ANOVA-TWO-WAY

A ANOVA fatorial é utilizada quando se pretende avaliar o efeito de duas ou

mais variáveis independentes sobre uma variável dependente. Existem vários desenhos

de estudo que permitem a ANOVA fatorial:

- Delineamento Fatorial Independente: quando existe variáveis

independentes e cada uma delas foi mensurada usando participantes diferentes.

- Delineamento Fatorial Relacionado: quando existe variáveis independentes

e cada uma delas foi mensurada usando participantes os mesmos participantes.

- Delineamento Fatorial Misto: quando existe variáveis independentes e

algumas foram mensuradas em participantes diferente e outras nos mesmos

participantes.

Vamos discutir a ANOVA fatorial independente de dois fatores, que é

comumente chamada de ANOVA-TWO-WAY. Ainda utilizando o exemplo do capitulo

anterior vamos analisar o efeito das variáveis independentes Sexo e Faixa Etária sobre

os valores da variável dependente IMC.

Aqui os grupos de comparação são independentes porque quando comparamos

a combinação de dois fatores não há a possibilidade dos participantes estarem dentro de

mais de um grupo de combinação de fatores.

Para produzir a Anova-two-way no SPSS clicar em Analyze<General Linear

Model<Univariate.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Na caixa de dialogo que abrir inserir a variável dependente (IMC) em

Dependent Variable e as variáveis independentes (Sexo e Faixa Etária) em Fixed Factor

(s).

Em Model é possível customizar a análise, porém o SPSS realiza

automaticamente as análises dos componentes principais e da interação. Ainda em

Model no item Sum of squares o SPSS realiza a análise automaticamente a análise do

tipo III (type III) que pode ser usada tanto em delineamento balanceados como não

balanceados. Em Contrasts é possível selecionar a opção de contraste como descrito em

na capítulo anterior da ANCOVA. Em Plots é possível construir o gráfico de linhas

introduzindo as variáveis independentes nas opções Horizontal Axis e Separete Lines, e

depois em Add. A construção do gráfico é importante para uma melhor interpretação da

interação.

Em Options selecionar as variáveis em Factor (s) and Factor Interactions e

inserir em Display para realizar as análises dos componentes principais e interação. Para

realizar a análise Post-Hoc dos efeitos principais selecionar o item Compare main

effects, e na opção Confidence interval adjustment a opção Bonferroni.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Em Display selecionar as opções Descriptive statistics e Homogeneity.

No Output do SPSS no quadro Between-Subjects Factors é descrita as

categorias das variáveis independentes e o número de sujeitos em cada categoria. No

quadro Levene´s Testo of Equality of Error Variances é apresentado o valor de “p” (sig)

para o teste de Levene, em que valores 0,05 indicam a violação a hipótese de

Homogeneidade das Variâncias.

No quadro Descriptive Statistics é apresentada e média (mean) e desvio-padrão

(Std.Deviation) para os valores de IMC dentro das combinações entre as variáveis

independentes.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No quadro Tests of Between-Subjects Effects é apresentado o valor de “p”

(sig) para o efeito principal do Sexo (sig=0,0001) e da faixa etária (sig=0,011). Também

é apresentado o efeito de interação entre sexo*faixa etária (sig=0,789).

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No quadro Contrast Results (K Matrix) é apresentado os contrastes de Helmert.

Em Leve 1 vs. Later é comparado a faixa etária 1 versus outras (2 e 3), onde o valor de

sig. de 0,006 (p0,05) indica que existe diferença significativa entre a faixa etária 1 e a

combinação das faixas etárias 2 e 3. Em Level 2 vs. Level 3 o valor de sig. de 0,194

(p>0,05) indica que não existe diferença significativa entre as faixas etárias 2 e 3. A

limitação do uso do Contraste de Helmert é que não é comparada a faixa etária 1 e 2

separadamente.

Porém no quadro Estimate para a variável Sexo é apresentada a média, erro

padrão da média e intervalo de confiança do IMC entre as categorias do Sexo como

componente principal. No quadro Pairwise Comparisons é apresentado os valores de

“p” para comparação de médias entre o sexo masculino e feminino.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Os valores de Sig.0,05 (p=0,0001) indicam que existe diferenças

significativas dos valores de IMC entre o sexo masculino e feminino pelo teste de

ajustado de comparações múltiplas de Bonferroni.

A mesma estimativa no componente principal Faixa Etária é realizada. O teste

de ajustamento de comparações múltiplas de Bonferroni, indica que existe diferenças

significativas entre a faixa etária 1 e 3 (p=0,009), mas não entre 1 e 2 (p=0,243), e nem

entre 2 e 3 (p=0,583).

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Por último é apresentado o quadro de comparação das médias (mean), erro

padrão da média (Std.Error) e intervalo de confiança (95% Confidence Interval) para as

interações entre Sexo e Faixa Etária. Ao analisar os intervalos de confiança de 95%

(IC95%) não foi observado diferenças significativas entre as faixas etárias quando

dividas por sexo, o que é confirmado pelo valor de “p” para interação (p=0,789).

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

5. ANOVA DE MEDIDAS REPETIDAS

A ANOVA de Medidas Repetidas é utilizada em situações em que os mesmos

sujeitos são medidos em momentos ou condições experimentais diferentes.

Esse tipo de delineamento tem a vantagem de reduzir a variabilidade não-

sistemática, fornecendo um poder maior para detectar efeitos genuínos.

Embora a distribuição de normalidade seja um pressuposto a se considerar,

principalmente dos resíduos, a pressuposto mais relevante para a Anova de Medidas

Repetidas é o da ESFERICIDADE (ɛ).

A Esfericidade refere-se a igualdade das variâncias das diferenças entre os

pares dos diferentes níveis de condições experimentais, e para que isso é necessário que

exista no mínimo três condições experimentais.

O pressuposto da Esfericidade é testado pelo teste de Mauchly´s, onde valores

de p0,05 indicam a violação da hipótese. Quando este pressuposto é violado o SPSS

fornece duas opções de teste que realizam a correção da hipótese da Esfericidade, sendo

eles o de Greenhouse-Geiser e a de Huynh-Feldt.

Quando o pressuposto de Esfericidade é violado (p0,05) o teste de

Greenhouse-Geiser deverá ser utilizado se o valor de Epsilon (ɛ) for 0,750. Quando o

valor de Epsilon (ɛ) for > 0,750 a opção deverá ser o teste Huynh-Feldt.

Para exemplificar a Anova de Medidas Repetidas no SPSS, vamos imaginar

uma situação onde foi realizada uma intervenção para avaliar o efeito sobre os valores

do índice de massa corporal (IMC). Os valores de IMC foram mensurados em três

momentos distintos, sendo a primeira medida pré intervenção (IMC_pré), a segunda

medida pós intervenção (IMC_pós), e a terceira medida no retorno após 3 meses do

final da intervenção (IMC_retorno).

Para iniciar a análise no SPSS clicar em Analyze<General Linear

Model<Repeated Measures. Na caixa de dialogo que abrir é preciso definir o número

de níveis que a variável dependente será mensurada (Number of level), que no exemplo

do IMC está em 3 níveis. Caso queira é possível nomear o fator de entrada, porém como

estou tratando de apenas uma variável não farei isto agora. Clicar em Add e depois em

Define.

Na próxima caixa de dialogo que se abre no item selecionar as 3 medidas de

IMC em inserir em Within-Subjects Variable (factor 1). A opção Model não será útil

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

neste desenho porque a análise não contém divisão de grupos (Between-Subjects

Factor(s)).

Na opção Contrast o SPSS realiza automaticamente o contraste polynomial que

analisa a presença de tendência linear ou quadrática, porém se preferir fazer

comparações par-a-par selecione a opção Repeated. Recomendo o contraste polynomial,

pois, as comparações par-a-par serão feitas nos teste Post-Hoc em Options. Em Plot

inserir o factor 1 em Horizontal Axis e clicar em Add. A opção Post-Hoc não estará

disponível por não possui nenhum grupo independente de comparação.

Em Options selecionar a variável Factor 1 em Factor (s) and Factor Interactions

e inserir em Display Means for, selecionando também o item Compare main effects, e

na opção Confidence interval adjustment a opção Bonferroni.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Em Display selecionar somente a opção Descriptive Statistics. A opção

Homogeneity teste não deve ser seleciona porque a homogeneidade das variâncias aqui

é substituída pelo teste de Esfericidade. Depois clicar em Continue e Ok.

No Output no quadro Within-Subjects Factors é apresentada a lista de variáveis

dependentes que foram incluídas na análise com seus respectivos códigos. Em

Descriptive Statisitics é apresentado os valores de média (Mean) e desvio-padrão

(Std.Deviation) para cada momento.

No quadro Multivariate Test é apresentado o valor de “p” (sig) que indica se

existe diferença entre as médias (sugiro olhar para Wilks`Lambda). No nosso exemplo

existe diferença significativa entre as médias (p= 0,0001), porém antes de analisar o

teste Post-Hoc para localizar as diferenças é necessário avaliar a Esfericidade.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No quadro Mauchy´s Testo f Sphericity o valor de sig 0,05 indica que a

hipótese de Esfericidade foi violada e as análise não podem ser baseadas nos valores de

Wilks´Lambda. Para decidir entre o teste de Greenhouse-Geisser ou Huynh-Feldt

devemos observa o valor de Epsiolon. Valores de Epsilon 0,75 utilizar Greenhouse-

Geisser, e >0,75 o teste de Huynh-Feldt.

No quadro Testo f Within-Subjects Effects são apresentados os valores de “p”

(sig) para os testes de Greenhouse-Geisser e Huynh-Feldt. No caso do exemplo do IMC

deveremos utilizar o valor de “p” do teste de Huynh-Feldt, que indica existir diferença

significativas entre as médias.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No quadro Tests of Within-Subjects Contrasts é apresentado o valor de “p”

(sig) para tendência (p-trend) linear e quadrática. Os resultados indicam não existir

tendência linear, mas confirmam a tendência quadrática (p=0,0001). Pela observação do

gráfico de linhas para as média é possível observar o comportamento quadrático.

No quadro Estimates é possível verificar as médias e respectivos intervalos de

confiança de 95% das três condições avaliadas, o que permite analisar e detectar entre

quais momentos ocorre a diferença significativa apontada no teste multivariado.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Porém para complementar a interpretação e localização das diferenças é

recomendado olhar para o quadro Pairwise Comparisons que realiza o teste Post-Hoc de

Bonferroni para as comparações par-a-par. Neste quadro é possível observar em sig que

o momento 2 apresenta diferença significativas em relação aos momentos 1 e 3, porém

não há diferença significativa entre os momentos 1 e 3.

TAMANHO DO EFEITO

Embora seja possível calcular o tamanho do efeito para a análise principal, é

preferível avaliar o tamanho do efeito através dos dados do Contraste planejado, pois,

permite avaliar o tamanho do efeito para cada comparação.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Para gerar estas informações é necessário retornar a caixa de dialogo que foi

realizada a ANOVA e na opção Contrasts selecionar o contraste Repeted e rodas a

análise novamente.

No quadro Tests of Within-Subjects Contrasts é possível utilizar as

informações dos graus de liberdade (df) e da estatística F utilizando a equação:

r = F/ (F+df)

r (1 vs. 2) =41,129/ 41,129 +491 = 0,27 efeito pequeno

r (2 vs. 3) =30,941/ 30,941 +491 = 0,24 efeito pequeno

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

A análise da Anova de Medidas Repetidas ainda pode ser analisada

comparando grupos. Vamos utilizar o exemplo do IMC, mas incluindo a variável sexo

como variável independente. Clicar em Analyze<General Linear Model<Repeated

Measures e editar o nome da variável (IMC) e o número de níveis (3).

Na caixa de dialogo principal incluir a variável Sexo no item Between-

Subjects Factor(s). Em Plots inserir a variável Sexo em Separate Lines e a variável IMC

em Horizontal Axis. Em Options inserir em Display Means for Sexo, IMC e a interação

Sexo*IMC. Ainda em Options selecionar a opção Compare main effects e selecionar o

teste Post-Hoc de Bonferroni. Retornar na caixa de dialogo principal e clicar em OK.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No Output em Within-Subjects Factors é indicado o número de fatores e em

Between-Subjects Factors o número de sujeito dentro dos grupos de comparação.

No quadro Descriptive Statistics é descrita a média e desvio-padrão dos valores

de IMC nas três condições de medida para o sexo masculino, sexo feminino e total.

No quadro Box´s Testo of Equality of Covariance Matrices o valor de sig

avalia a igualdade das matrizes de covariâncias entre os grupos (sexo). Valores de “p”

(sig) para o teste de Box 0,05 indicam que está hipótese foi violada. Porém o SPSS não

oferece uma versão de correção para a violação desta hipótese. No quadro Levene´s

Test of equality of Error Variance, valores de “p” (sig) 0,05 indicam a violação da

hipótese de homogeneidade das variâncias.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No quadro Multivariate Test o valor de “p” (sig) para o IMC indica que existe

diferença entre as médias em relação aos momentos pré, pós e retorno. Em IMC*Sexo o

valor de “p” indica que existe interação entre Sexo e as variações de IMC.

Porém o teste de Mauchy´s indica que a hipótese de Esfericidade foi violada, e

os valores de Epsilon indicam a necessidade de se basear as análises no teste de Huynh-

Feldt.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No quadro Testo f Within-Subjects Effects os valores de “p” (sig) confirmam o

efeito significativo do tempo sobre o IMC, como também a interação entre Sexo*IMC.

No quadro Tests of Within-Subjects Contrasts é possível verificar diferença

significativa entre as medidas pré e pós, e pós e retorno para os valores de IMC. Para a

interação Sexo*IMC não foi verificada interação significativa entre os momentos pré e

pós, mas entre os momentos pós e retorno foi observada interação significativa.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Para análise do efeito do Grupo (Sexo) o SPSS fornece no quadro Estimates as

médias e intervalos de confiança de 95%. No quadro Pairwise Comparisons é

apresentado o valor de “p” para comparação entre os sexos pelo teste de Bonferroni.

Lembre que esta média é geral e considera os três momentos.

Em relação ao tempo (pré, pós e retorno) também é fornecido no quadro

Estimates os valores de média e intervalo de confiança de 95%, e as comparações par-a-

par pelo teste Post-Hoc de Bonferroni.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Para analisar o comportamento da interação Sexo*IMC é apresentado no

quadro Estimates. Ao analisar os intervalos de confiança é possível verificar que ambos

os sexo apresentaram um redução significativa entre os momentos pré e pós, porém

entre os momentos pós e retorno apenas o sexo feminino apresentou aumento

significativo do IMC. Este comportamento pode ser melhor observado no gráfico de

linhas.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

6. MANOVA

A MANOVA (Análise de Variância Multivariada) é uma extensão da

ANOVA. Na MANOVA é possível analisar o efeito de uma ou mais variáveis

independentes sobre um conjunto de variáveis dependentes. Na ANOVA é possível

analisar o efeito de uma ou mais variáveis independentes sobre uma única variável

dependente.

A teoria por trás da MANOVA é complexa e não será discutida aqui, porém

alguns pontos importantes que podem auxiliar a decisão de realizar uma MANOVA ou

as variáveis que serão incluídas na análise serão abordados neste capítulo.

Na MANOVA duas ou mais variáveis dependentes podem ser incluídas na

análise, porém quanto maior o número de variáveis inseridas na análise maior será o

tamanho da amostra necessária para manutenção de um poder aceitável para detectar

diferenças quando estas estão presentes.

Outra questão importante é que as variáveis dependentes sejam

preferencialmente quantitativas ou ao menos em escala de medida ordinal.

Considerando que o número de variáveis influencia o poder da MANOVA a seleção das

variáveis de inclusão deve ser baseada em critério biológico que indiquem a possível

contribuição desta variável na análise.

Porém se não dispõe de critérios suficientes para auxiliar a escolha das

variáveis dependentes, mas mesmo assim você gostaria de incluí-las na análise,

recomendado que realize um teste de correlação entre as variáveis dependentes. As

variáveis que apresentem altas correlações entre si apresentam maior chance de

contribuírem para um maior poder para detectar diferenças significativas na MANOVA.

Além das características da variável dependente a MANOVA também exige a

aderência a mais dois pressupostos importantes, o da Normalidade Multivariada e o

da Homogeneidade das Matrizes de Covariância. O SPSS não tem oferece o teste de

Normalidade Multivariada, o que leva a necessidade de testar a normalidade Univariada

de cada variável que entra no modelo. A ausência de normalidade de uma variável

dependente não indica que o teste Normalidade Multivariada será violada, porém o teste

de Homogeneidade das Matrizes de Covariância é altamente sensível a violações da

Normalidade Multivariada. No SPSS o teste de Homogeneidade das Matrizes de

Covariância é realizado pelo teste de BOX.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

O SPSS fornece quatro análises para MANOVA, a estatística de ROY, o

Traço de HOTELLING, o Lamdda de WILKS e o Traço de PILLAI. Quando os

pressupostos forem atendidos utilizar estatística de ROY. Quando o pressuposto de

Homogeneidade das Matrizes de Covariância é violado e os grupos são de tamanhos

iguais utilize o Traço de PILLAI. Quando os pressupostos forem violados e os grupos

são de tamanhos diferentes, utilizar o Lamdda de WILKS.

A MANOVA é o teste geral que indica se existe ou não diferença significativa

entre os grupos, sendo necessários testes adicionais para localizar as diferenças. Uma

opção de teste adicional é a ANOVA univariada seguida do teste Post-Hoc de

Bonferroni. Porém a ANOVA univariada pode não ser suficiente para compreender o

efeito combinado das variáveis dependentes dentro dos grupos, o que leva a necessidade

da realização de uma ANÁLISE DISCRIMINANTE.

Como primeiro exemplo para descrever e rotina de análise da MANOVA no

SPSS vamos analisar se a variável Sexo (masculino=1; feminino=2) contribui de forma

significativa no comportamento das variáveis, índice de massa corporal (IMC), glicemia

de jejum (GL), pressão arterial sistólica (PAS) e frequência cardíaca de repouso (FC).

No SPSS clicar em Analyze<General Linear Model< Multivariate. Na caixa

de dialogo que abrir inserir as variáveis dependentes em Dependent Variables, e a

variável independente (Sexo) em Fixed Factor(s).

A opção Model será utilizadas caso queira personalizar alguma análise não

prevista no SPSS, o que acredito não ser necessário. Em Contrasts selecionar a opção

simple, porém se a variável independente tiver mais de dois níveis de (3 ou mais

categorias) o contraste simples lhe dará a opção de confrontar a primeira ou última

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

categoria com as demais, sendo necessário então definir com antecedência qual

categoria representará a categoria de referência para comparação. Em Post-Hoc embora

a solicitação desta análise esteja disponível no SPSS está análise não será realizada

porque a variável sexo tem apenas duas categorias de reposta. Porém é possível realizar

a análise Post-Hoc no item Options.

Em Options inserir a variável Sexo em Display Means for, e selcionar o item

Compare main effects e em seguida selecionar em Confidence inteval adjustment a

opção Bonferroni.

Ainda em Options selecionar em Display os itens: Descriptive Satatistics;

Estimate of effect size; Parameter estimates; e Homogeneity teste. Os itens SSCP

matrices e Residual SSCP matrix estão relacionados ao quadros de análise das matrizez

do modelo, dos resíduos e total, utilizadas na MANOVA, mas que não vão contribuir

com sua análise dos resultados. Após selecionar os itens clicar em Continues e depois

em OK.

No Output do SPSS o Between Factors é descrita as categorias (níveis) da

variáveis independente com a frequência absoluta de cada categoria. No quadro

Descriptive Statistics é apresentado os valores de média e desvio-padrão de cada

variável dependente divida entre as categorias da variável independente (sexo).

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No quadro Box´s Testo of Equality of Covariance Matrices o valor de sig

0,05 indica que a Homogeneidade das Matrizes de Covariância entre os grupos não

é igual. Considerando que os grupos são de tamanhos diferentes a análise da MANOVA

deve ser baseada nos valores de “p” (sig) do Lambda de Wilks. Caso a MANOVA

indique diferença significativa entre os grupos, as análises adicionais pela ANOVA

levam em consideração o pressuposto de Homogeneidade das Variâncias, avaliada pelo

teste de LEVENE. Como verificado no quadro abaixo todas as variáveis selecionadas

tem valor de sig > 0,05, indicando que o pressuposto de Homogeneidade das Variância

foi antendido.

No quadro Multivariate Tests é apresentado os valores de “p” (sig) para a

análise de MANOVA, que indicando que o conjunto de variáveis dependentes se

comporta de forma diferente entre os grupos, porém para identificar quais variáveis são

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

responsáveis por está diferença e em qual direção é necessário a realização das análises

adicionais. Ainda no quadro Multivariate Tests em Partial Eta Squared é apresentado o

valor do Eta

2

que pode ser utilizado para estimar o tamanho do efeito.

No quadro Testo f Between-Subjects Effects em Sexo é apresentado o valor de

“p” (sig) da ANOVA univariada para cada variável. Foi verificado efeito significativo

do sexo para as variáveis, pressão arterial sistólica (p=0,0001), frequência cardíaca de

repouso (p=0,026) e IMC (p=0,0001), mas não para glicemia de jejum (p=0,609).

Como a variável Sexo possui apenas duas categorias de resposta o teste Post-

Hoc se torna desnecessário, bastando apenas observar os valores de média no quadro de

estatística descritiva. Porém a direção e o tamanho da contribuição de cada variável

dentro das categorias podem ser avaliados pelos coeficientes de regressão apresentados

no quadro Parameter Estimates.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Como a variável Sexo apresenta apenas duas categorias as análises restantes

são redundantes e não contribuem para informações adicionais. Mas é interessante

realizar a análise Discriminante para avaliar a capacidade das variáveis em conjunto

diferenciar os grupos.

No SPSS clicar em Analyze<Classify<Discriminat. Na caixa de dialogo que

abrir inserir a variável independente Sexo em Grouping Variable e em Define Range

definir a amplitude dos valores. Em Independents inserir as variáveis dependentes.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Na caixa de dialogo principal clicar em Statistics e selecionar os itens

Unstandardized e Separate-groups covariance.

Retornando na caixa de dialogo principal clicar em Cassify e selecionar em

Prior Probabilities “All groups equa” se os grupos forem de mesmo tamanho, e

“Compute from groups sizes” se os grupos forem de tamanho diferente. Em Display

selecionar Summary table, em Use Covariance Matriz selecionar Within-groups, e em

Plots selecionar Combined-groups e Territorial map.

Retornando novamente na caixa de dialogo principal clicar na opção SAVE e

selecionar o item Discriminat scores. Depois retornar na caixa de dialogo principal e

clicar em OK

No Output, o quadro Eigenvalues compara a as funções discriminantes para

diferenciar os grupos. Porém a variável Sexo apresenta apenas duas categorias de

resposta, o que proporciona apenas uma função. No quadro Wilks´Lambda o valor de

“p” (sig) indica se a função discriminante foi significativa para diferenciar os grupos

através das variáveis discriminatórias.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Os valores apresentados no quadro Standardized Canonical Discriminat

Function Coefficients representam os coeficientes padronizados da função discriminante

da Combinação Linear (CL) que são equivalentes aos betas padronizados da regressão

linear. Estes informam a contribuição relativa de cada variável na CL. O fato de uma

variável se positiva e outra negativa indica que as diferenças entre os grupos são

explicadas pelas diferenças entre as variáveis.

No quadro Structure Matrix é apresentado os valores de correlação canônicas

que indicam a natureza e a carga (força) de contribuição de cada variável na divisão de

grupos.

No quadro Functions at Group Centroids os valores centróides de cada grupos

que representam a média dos escores de CL. O sinal positivo e negativo indica que as

variáveis se comportam de forma diferente dentro dos grupos.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Finalizando este exemplo o quadro Classifications Results indica o percentual

de sujeitos que foram classificados corretamente para seus grupos considerando a

função discriminante baseada nas variáveis proposta no modelo.

Agora vamos realizar um exemplo de variável independente que apresenta

quatro níveis de resposta. O Estado Nutricional classifica os valores de índice de massa

corpora (IMC) em baixo peso (1), eutrófico (2), sobrepeso (3) e obeso (4). Deste modo

o objetivo é analisar se o conjunto das variáveis dependentes, glicemia de jejum (GL),

pressão arterial sistólica (PAS) e frequência cardíaca de repouso (FC) se diferenciam

entre os grupos de diferentes categorias de Estado Nutricional.

Inserir as variáveis dependentes em Dependent Variable e a variável

independente em Fixed Factor(s). Em Contrasts selecionar o contraste Simple e em

Reference Category selecionar a opção Last para que a categoria Obeso (4), que é a

categoria de interesse, seja comparada com as outras.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Em Post-Hoc inserir a variável Estado Nutricional em Post Hoc Tests for e

selecionar o teste de Turkey (mais de 3 grupos de comparação) e o teste de Games-

Howell (deverá ser utilizado se o teste de Levene for violado). Em Options inserir a

variável Estado Nutriciona em Display Means for, selecionar o item Compare main

effects e selecionar o opção Bonferroni em Confidence interval adjustment. Ainda em

Options no item Display selecionar Descriptive statistics, Estimate of effect size,

Parameter estimates e Homogeneity tests.

No Output no quadro Between-Subjects Factors é possível observer que os

grupos tem tamanhos diferentes. No quadro Descriptive Statistics é apresentada a média

e desvio-padrão das variáveis dependentes dentro de cada categoria de Estado

Nutricional. No quadro Box´s Test of Equality of Covariance Matrices o valor de sig

indica que o pressuposto de Homogeneidade das Matrizes de Covariância foi violado.

No quadro Levene´s Test of Equality of Error Variance é possível ver que as variáveis

dependente não violaram o pressuposto de Homogeneidade das Variâncias.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No quadro Multivariate Test o valor de sig indica efeito significativo do grupo

sobre as variáveis dependentes, porém o tamanho do efeito é pequeno ao considerar o

Eta

2

. Como a MANOVA foi significativa a análise da ANOVA univariada deve ser

considerada para identificar quais variáveis dependentes se diferenciam entre as

categorias do Estado Nutricional no quadro Testo f Between-Subjects Effects. Apenas a

variáveis pressão arterial sistólica (PAS) apresentou efeito significativo de grupo.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No quadro Parameter Estimates é apresentado os coeficientes de regressão para

as variáveis dependentes dentro das categorias de Estado Nutricional. Aqui semelhante

a ANOVA somente a PAS apresentou efeito significativo, e pela análise dos

coeficientes de regressão (B) é possível observar que a redução da categoria do Estado

Nutricional se relaciona com a redução da PAS.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No quadro Contrast Results (K Matriz) é possível avaliar quais categorias

apresentam diferença significativa da categoria 4 (level 4) que representa o Estado

Nutricional Obeso. A variável PAS da categoria Obeso se diferencia significativamente

dos Estados Nutricional Baixo Peso (level 1), Eutrófico (level 2) e Sobrepeso (level 4).

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Embora o Contraste simples não avalie as diferenças entre os níveis 1,2 e 3,

estas podem ser analisadas pelos intervalos de confiança de 95% apresentados no

Estimates. O grupos Baixo Peso não apresenta diferenças significativas dos grupos

Eutrófico e Sobrepeso, porém os grupos Sobrepeso e Eutrófico apresentam diferenças

significativas. As diferenças significativas entre os grupos podem ser confirmadas no

quadro Pairwise Comparisons pelo teste Post-Hoc de Bonferroni, com também pelo

teste de Turkey. O teste de Games-Howell não deve ser considerado, pois, o

pressuposto de Homogeneidade das Variâncias foi atendido.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

A análise complementar a MANOVA é a análise Discriminante, que possibilita

analisar o quão bem as variáveis dependentes discriminam os grupos, mas lembre que

para a análise Discriminante as variáveis dependentes deverão ser inseridas no item

Independents e a variável que define os grupos (Estado Nutricional) deverá ser inserida

em Grouping Variable (lembre de definir a amplitude em Define Range). Em Statistics

selecionar ao menos a opção Separate-groups covariance em Matrices.

Em Classify no item Prior Probabilities a opção Compute from group sizes

devido os tamanhos diferentes dos grupos. Em Display selecionar Summary table, em

Use Covariance Matriz a opção Within-groups, e em Plots a opção Combined-groups.

Retornando na caixa de dialogo principal clicar em Save e selecionar a opção

Discriminat scores. Retornar a caixa de dialogo principal e clicar em OK.

No Output do SPSS no quadro Eigenvalues são apresentado os valores dos

elementos da Matriz HE

-1

utilizados para calcular as Combinações Lineares (CL), que

são convertido em percentual da variância da CL. No quadro Wilks´Lambda o valor de

sig indica que somente a primeira função da CL é significativa para discriminar os

Grupos.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No quadro Standardized Canonical Discriminate Function Coeficientes são

apresentados os coeficientes de regressão (B) das variáveis dependentes para cada

função. No quadro Canonical Discriminat Functiona Coefficients são apresentados os

coeficientes de correlação Canônica das variáveis dependentes, que devem ser

interpretados como a força da variável para divisão de grupos, que igualmente a

correlação varia de 0 a 1 ou -1.

No quadro Functions at Group Centroids é possível observar pelos sinais

positivo e negativo que as variáveis dependentes são capazes de discriminar os grupos

baixo peso e eutrofico dos grupos sobrepeso e obeso. Deste modo, os grupos com sinais

iguais não são discriminados corretamente ao considerar as variáveis dependentes.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

No quadro Classifications Results em “a” é indicado o percentual de sujeitos

que foram classificados corretamente pela função discriminante 1. As análises podem

ser complementadas pela análise visual do gráfico de dispersão entre a função 1 e 2.

Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV

BIBLIOGRAFIA

1. DAWSON, B.; TRAPP, R.G. Bioestatística básica e clínica. 3 ed.Rio de Janeiro:

McGraw-Hill, 2001.

2. DEMIDENKO, E. Sample size determination for logistic regression revisited.

Statistics in Medicine, John Wiley. v. 26, p. 3385-3397, 2007.

3. DEMIDENKO, E. Sample size and optimal design for logistic regression with

binary interaction. Statistics in Medicine. John Wiley. v. 27, p. 36-46, 2008.

4. FIELD, A. Descobrindo a estatística usando o SPSS. 2 ed. Porto Alegre:

Artmed, 2009, 689p.

5. FONTELLES, M.J.;et al. Metodologia da pesquisa: diretrizes para o cálculo do

tamanho da amostra. Revista Paraense de Medicina. v.24, n.2. 2010

6. GLANTZ, S.A. Princípios de Bioestatística. 7 ed. Porto Alegre: Artmed, 2014,

306p.

7. LINDENAU, J.D.; GUIMARÃES, L.S.P. Calculando o tamanho do efeito no

SPSS. Rev. HCPA, Secção de Bioestatística, v.32, n.3, 2012.

8. LUNET, N.; SEVERO, M.; BARROS, H. Desvio Padrão e Erro Padrão. Notas

Metodológicas. Arquivos de Medicina, 2006.

9. MIOT, Hélio Amante. Tamanho da amostra em estudos clínicos experimentais. J

Vas Bras. 2011; 10 (4); 275-278.

10. NOVIKOV, I.; FUND, N.; FREEDMAN, L. S. A modified approach to

estimating sample size for simple logistic regression with one continuous

covariate. Statistics in Medicine. John Wiley. v. 29, p. 97-107, 2009.

11. RIBAS, J.R.; VIEIRA, P.R.C. Análise multivariada com o uso do SPSS. 1 ed.

Rio de Janeiro: Editora Ciência Moderna, 2011, 272p.

12. VIEIRA, A.C.R.; ALVAREZ, M.M.; MARINS, V.M.R.; SICHIERI, R.;

VEIGA, G.V. Desempenho de pontos de corte do índice de massa corporal de

diferentes referências na predição de gordura corporal em adolescentes. Cad.

Saúde Pública, Rio de Janeiro, v.22, n.8, p.1681-1690, 2006.

13. WHITTEMORE, A. S. Sample size for logistic regression with small response

probability. Journal of the American Statistical Association. American

Statistical Association. v. 76, p. 27-32, 1981.