Como comparar médias de duas variaveis em grupos spss

25-03-2020

No SPSS, podemos comparar a mediana entre 2 ou mais grupos independentes pelas seguintes etapas:

  1. Abra o conjunto de dados e identifique as variáveis ​​independentes e dependentes para usar mediana teste.
  2. Agora, vá para analisar, testes não paramétricos e amostras independentes.
  3. Então você verá a seguinte caixa de diálogo.



Também perguntado, como você interpreta a mediana no SPSS?

Etapa 2: clique em “Analisar”, passe o mouse sobre “Estatísticas descritivas” e clique em “Frequências”. Etapa 3: Clique em “Estatísticas” e marque as caixas “média”, “modo” e “ mediana . ” Clique em “Continuar” duas vezes (selecione “nenhum” como o tipo de gráfico na segunda janela).

Posteriormente, a questão é: você pode comparar medianas? Testes válidos de medianas são: teste de humor e teste de permutação de diferenças em medianas . Mas o método de permutação está correto E se e somente E se os parâmetros de escala são iguais, então o princípio da permutabilidade de dados é mantido. Caso contrário, as observações não podem ser trocadas entre os grupos e o teste não faz sentido.

Da mesma forma, o que é teste de mediana em estatísticas?

O teste de mediana é um não paramétrico teste que é usado para teste se dois (ou mais) grupos independentes diferem na tendência central - especificamente se os grupos foram retirados de uma população com o mesmo mediana . A hipótese nula é que os grupos são retirados de populações com o mesmo mediana .

Por que testamos Kruskal Wallis?

O Kruskal - Wallis H teste (às vezes também chamado de "ANOVA unilateral nas classificações") é um método não paramétrico baseado em classificação teste que pode ser usado para determinar se há diferenças estatisticamente significativas entre dois ou mais grupos de uma variável independente em uma variável dependente contínua ou ordinal.

30 perguntas relacionadas com respostas encontradas

Em qual estatística o Teste de Mediana para Amostras Independentes se baseia? dados de frequência de uma amostra para avaliar a relação entre duas variáveis ​​na população. Cada indivíduo na amostra é classificado em ambas as variáveis, criando uma matriz de distribuição de frequência bidimensional.

Como as suposições agora foram verificadas, o teste de Mann-Whitney pode ser conduzido. Se o valor p estiver abaixo do risco alfa geralmente aceito de 5 por cento (0,05), a hipótese nula pode ser rejeitada e pelo menos uma diferença significativa pode ser assumida. Para os tempos de chamada, o valor p é 0,0459 - menor que 0,05.

Método direto do teste U de Mann Whitney Nomeie a amostra com as classificações menores “amostra 1” e a amostra com as classificações maiores “amostra 2”. Faça a primeira observação na amostra 1. Repita a Etapa 2 para todas as observações na amostra 1. Some todos os seus totais das Etapas 2 e 3.


Para iniciar o teste: Excel 2007: Selecione qualquer célula no intervalo que contém o conjunto de dados a ser analisado, clique em Comparar grupos na guia Analisar e clique em Mann Whitney. Se o conjunto de dados for organizado usando o layout da tabela: Clique em Hipótese alternativa e selecione a hipótese alternativa para testar. Clique em OK para executar o teste.

No menu iniciar, clique no “menu SPSS”. Selecione “estatísticas descritivas” no menu de análise. Após clicar no menu de estatísticas descritivas, outro menu aparecerá. A partir desta janela, selecione a variável para a qual deseja calcular as estatísticas descritivas e arraste-as para a janela de variáveis.

Para calcular a média dos dados agrupados, a primeira etapa é determinar o ponto médio (também chamado de marca de classe) de cada intervalo ou classe. Esses pontos médios devem então ser multiplicados pelas frequências das classes correspondentes. A soma dos produtos dividida pelo número total de valores será o valor da média.


Use a média para descrever a amostra com um único valor que representa o centro dos dados. Muitas análises estatísticas usam a média como uma medida padrão do centro de distribuição dos dados. A mediana e a média medem a tendência central.

SPSS: Analisar: Estatísticas descritivas. Estatísticas descritivas podem ser usadas para resumir os dados. Se seus dados forem categóricos, tente os procedimentos de frequências ou crosstabs. Se seus dados estiverem em nível de escala, tente resumos ou descritivos. Se você tiver várias perguntas de resposta, use conjuntos de várias respostas.

Para calcular a média, você soma os valores e divide pelo número de casos. Se você está marcando “Não sei” como 0, sua média seria (-1 + 1 + 2 + 2 + 0) / 5 ou 4/5. Se você descartar Não sei, sua média seria (-1 + 1 + 2 + 2) / 4 ou 4/4.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

MATERIAL DIDÁTICO

CURSO DE ESTATÍSTICA APLICADA PARA INICIANTES

MÓDULO 2

Comparação de duas médias e correlações no SPSS

AUTOR: EDUARDO FEDERIGHI BAISI CHAGAS

MARÍLIA

2016

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

SUMÁRIO

1. Significância estatística (valor de p)

2. Tamanho da Amostra

3. Intervalo de Confiança

4. Testes Estatísticos para comparação de uma média

5. Testando diferenças entre médias: Teste “t”

6. Testes Estatísticos para comparação de duas médias pareadas

7. Testes Estatísticos para comparação de duas médias independentes

8. Teste de Estatísticos de Correlação entre duas variáveis quantitativas

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

1. SIGNIFCÂNCIA ESTATÍSTICA e VALOR DE “p”

Embora os resultados descritivos da pesquisa digam muito sobre a amostra

estudada, a maioria dos pesquisadores tem se preocupado somente com o “valor de p,

pois, supõe-se que valores significativos do ponto de vista estatístico permitem fazer

inferências sobre a população de onde a amostra se originou.

Na verdade o valor de pnão nos diz se é possível ou não inferir sobre a

população a partir de dados de uma amostra, ele apenas nos diz qual a probabilidade de

erro ao assumirmos os resultados observados como verdadeiros. A força ou poder de

um estudo inferir sobre uma população a partir do estudo de uma amostra depende da

qualidade de procedimentos metodológicos associado ao cálculo do Tamanho da

Amostra, que por sua vez é determinado pelo desenho do estudo que se pretende

realizar.

O “valor do p” ou “p-value” é conhecido na estatística como nível descritivo e

está associado ao que chamamos de testes de hipóteses. O papel fundamental da

hipótese na pesquisa científica é sugerir explicações para os fatos. Uma vez formuladas

as hipóteses, estas devem ser comprovadas ou não através do estudo com a ajuda de

testes estatísticos.

Num teste estatístico são formuladas duas hipóteses chamadas hipótese nula

(H0) e hipótese alternativa (H1). Hipótese nula é aquela que é colocada à prova, ou seja,

é a hipótese que será confrontada pelo teste estatístico. Por outro lado, a hipótese

alternativa é aquela que será considerada como aceitável, caso a hipótese nula seja

rejeitada.

A H0 está associada a uma igualdade entre médias ou proporções que podem

indicar a não associação (independência) entre fatores de interesse. Por exemplo, num

estudo sobre fatores de risco para o diabetes tipo 2, uma hipótese nula poderia ser que

“a proporção de diabéticos tipo 2 entre obesos é igual à proporção entre não obesos“ ou

“a chance da doença é a mesma para obesos e não obesos”. Isto implicaria em dizer que

“não existe associação entre obesidade e diabetes tipo 2”.

Outro exemplo, desta vez considerando a igualdade de médias, pode ser

descrito por um estudo sobre tempo de recuperação de pacientes que realizaram cirurgia

de joelho. Supondo que desejamos comparar três procedimentos cirúrgicos diferentes,

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

uma possível hipótese seria que “o tempo médio de recuperação é o mesmo nos três

procedimentos cirúrgicos”, ou seja, “o tipo de procedimento cirúrgico não influencia no

tempo de recuperação do paciente”.

Todo teste de hipótese possui erros associados a ele, pois, partem do princípio

que os dados coletados de uma determinada amostra pode não refletir o verdadeiro

comportamento observado na população devido a variabilidade da amostra. Um dos

mais importantes é chamado “erro do tipo I” que corresponde à rejeição da hipótese

nula quando esta for verdadeira, ou seja, apontar que existem diferenças significativas

entre as médias ou proporções, quando na verdade elas não existem.

No exemplo do Diabetes Tipo 2, a probabilidade do erro do tipo I seria a

probabilidade de concluir que há associação com a obesidade, quando na verdade não

há, ou seja, concluir uma associação que não existe (que é devida ao acaso).

No exemplo do tempo de recuperação, o erro do tipo I corresponderia a dizer

que o tipo de procedimento cirúrgico influencia no tempo de recuperação quando na

realidade o tempo médio é o mesmo nos três procedimentos.

A probabilidade do erro do tipo I chama-se nível de significância e é expressa

através da letra grega α (alfa). Os níveis de significância usualmente adotados são 5%,

1% e 0,1%. Vales destacar que nada impede que o pesquisador adote um nível de

significância de 10%, porém isto implica em maior chance de cometer o erro do tipo I.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Formalmente, o nível descritivo (p) é definido como o “menor nível de

significância (α) que pode ser assumido para se rejeitar H0”, porém esta interpretação

não é simples até mesmo para os estatísticos. Considerando, de maneira muito

generalizada, que os pesquisadores ao rejeitarem a hipótese nula costumam dizer que

existe “significância estatística” ou que o resultado éestatisticamente significante”,

poderíamos definir o nível descritivo (p) como a “probabilidade mínima de erro ao

concluir que existe significância estatística”.

Importante ressaltar que o nível de significância (α) é um valor arbitrado

previamente pelo pesquisador, enquanto que o nível descritivo (p) é calculado de acordo

com os dados obtidos. Fixado α e calculado o “p”, a pergunta é: “será que posso dizer

com segurança que o resultado é estatisticamente significante?”.

Para responder à esta questão é necessário avaliar se a probabilidade de erro é

“aceitável” ou não, isto é, se o “valor do p” é pequeno o suficiente para concluir que

existe “significância estatística” dentro de uma margem de erro tolerável. Mas saber “o

que é pequeno ou grande” depende do nível de significância adotado, portanto a decisão

do pesquisador sempre estará baseada na comparação entre os dois valores. Se o valor

do p for menor que o nível de significância (α) adotado deve-se concluir que o resultado

é significante, pois, o erro está dentro do limite fixado.

Por outro lado, se o valor de p for superior à α significa que o menor erro que

podemos estar cometendo ainda é maior do que o erro máximo permitido, o que nos

levaria a concluir que o resultado é não significante, pois, o risco de uma conclusão

errada seria acima do que se deseja assumir. Segue abaixo um esquema que resume a

regra de decisão descrita.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

A grande vantagem de se utilizar o nível descritivo é a possibilidade de

“quantificar” a significância, ou seja, no lugar de uma resposta do tipo “sim ou não”

temos a informação de “quanto”. Considere os exemplos da tabela abaixo:

Note que no exemplo os dois resultados são “significantes”, porém o valor

de 0,0002 expressa uma significância muito maior do que 0,048. Além disso, este

último valor é muito próximo ao nível usual de 5%, o que pode causar dúvidas ou

ressalvas na tomada de decisão.

No 2º exemplo temos dois resultados não significantes. O 2º valor (0,987)

praticamente não expressa significância estatística nenhuma, pois, o erro é de quase

100%. Já o (0,085) embora não seja significante ao nível de 5% é um valor bastante

indicativo. Portanto, é muito mais valioso e informativo expressar as conclusões através

do valor exato do p em vez de apenas menor ou maior que o nível de significância (α)

fixado.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Deste modo, considerando que o valor de p nos diz qual a chance de erro ao

inferir sobre uma população a partir dos resultados de uma amostra, vale dizer também

que isto só é possível quando os procedimentos para obtenção da amostra foram

adequados. Caso contrário, aumentamos as chances de cometer erro do tipo II, que

representa a probabilidade de detectar diferenças significativas quando elas existem.

O erro do tipo II ocorre quando o pesquisado aceita a hipótese nula (H0),

quando não verdade deveria rejeitá-la, ou seja, utilizando o exemplo dos fatores de risco

para o diabetes tipo 2, assumir que não existe associação entre diabetes tipo 2 e

obesidade, quando na verdade existe. O erro do tipo II, também chamando de Beta (β),

ocorre principalmente quando o estudo apresenta uma amostra pequena.

O Beta exerce influência sobre o Poder do estudo, ou seja, a força do estudo

em detectar as diferenças quando elas realmente existem. O Poder (P) é representado

pela expressão matemática P=1-β. Desta forma, quanto menor a margem de erro do

tipo II assumida pelo pesquisador maior o Poder do estudo em detectar diferenças

quando elas existirem.

Deste modo, as inferências baseadas nos valores de p são válidas somente

quando o pesquisador se assegura de que sua amostra foi extraída da população por

procedimento aleatório e que o tamanho da amostra foi calculado baseado em

parâmetros representativos da população que se pretende estudar. Informações para

melhor compreensão dos procedimentos para obtenção de uma amostra e a

determinação de seu tamanho serão discutidas no próximo capítulo.

Embora a análise do valor de p esteja condicionada a pressupostos

relacionados aos procedimentos metodológicos de estimativa e obtenção da amostra,

sabemos que grande parte dos estudos não leva em consideração este cuidado

metodológico. Mas e agora, o que fazer?

Bom é óbvio que não podemos inferir sobre a população a partir de uma

amostra de conveniência sem procedimentos e tamanho de amostras apropriadas, porém

devemos lembrar que os elementos que foram incluídos no estudo sofreram algum

efeito da intervenção ou apresentaram alguma associação com as variáveis de estudo.

Deste modo, o pesquisador pode e devem discutir os fatores relacionados com o

comportamento observado nos elementos amostrais estudados.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Além disso, principalmente em amostras de tamanho reduzido que apresentam

baixo poder de estudo é muito frequente que os valores de p não sejam suficientes para

rejeitar a hipótese nula, porém ao se observar os resultados o pesquisador verifica que

sua amostra apresentou algum efeito, e neste momento surge uma questão importante.

Embora os resultados não tenha significado estatístico será que o efeito observado tem

significado clínico para os elementos estudados?

De fato, não se pode acreditar cegamente em tudo que os testes estatísticos

mostram. O que o clínico deve se perguntar ao interpretar os resultados de uma pesquisa

é “os resultados obtidos são relevantes do ponto de vista clínico?”.

Muitas vezes um resultado “estatisticamente significante” pode não ser

“clinicamente importante”. Por exemplo, um teste de comparação de médias pode

detectar uma diferença de 2mmHg na Pressão Arterial (PA) como sendo “altamente

significante” apesar desta diferença não ter nenhuma implicação clínica. Portanto, a

importância em termos biológicos não deve ser julgada pelos estatísticos, mas sim pelos

profissionais da área em que a pesquisa está sendo feita.

Por outro lado, existe também a situação inversa. Um resultado que não seja

“estatisticamente significante” pode ser muito importante, não devendo ser

desconsiderado. Portanto, não se deve fechar os olhos para um resultado que não seja

significativo, é preciso levar em conta também a importância do objeto que está sendo

estudado.

2. TAMANHO DA AMOSTRA

Há com frequência uma ênfase excessiva ao cálculo do tamanho de amostra em

detrimento da concepção cuidadosa de um plano amostral, que são as estratégias a

serem adotadas para garantir que a amostra a ser estudada seja representativa do

universo real do fenômeno a ser estudado, mas vale lembrar que, o cálculo do tamanho

da amostra não garante um resultado significante.

Para o planejamento do tamanho da amostra o investigador precisa estabelecer

algumas definições como: tipo de estudo que pretende realizar (ex. estudo de

prevalência, ensaio clínico, coorte, caso-controle); o tipo de medida que deve utilizar

(ex. medidas contínuas, categorizadas, prevalência, incidência); o tipo de análise (ex.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

diferenças entre médias, diferença entre proporções, cálculo de risco); a margem de erro

que pode assumir para o estudo (ex. o nível de significância e o poder do teste

estatístico que pretende aplicar).

Na homepage do Laboratório de Epidemiologia e Estatística

(www.lee.dante.br) está disponível um serviço que calcula tamanhos de amostra para

alguns dos desenhos de pesquisa médica/biológica mais frequentes, além de oferecer

textos de apoio para compreensão de cada item envolvido no cálculo e referências

bibliográficas para orientarem interessados num estudo autônomo.

FATORES QUE AFETAM O TAMANHO DAAMOSTRA

• Objetivo da amostra - Estudos descritivos costumam exigir amostra com menor

número de participantes.

• Tipo de variável - As variáveis qualitativas frequentemente requerem amostras

maiores que as variáveis quantitativas, porém variáveis quantitativas que apresentam

grande variabilidade também exigem amostras maiores.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

• Delineamento do estudo - Estudo pareado requer uma amostra com metade do

número de sujeitos, quando comparados aos estudos não-pareados.

Valor estimado para erro alfa (erro tipo I) - Corresponde ao erro máximo que o

pesquisador aceita cometer ao aplicar o teste estatístico para aceitar ou rejeitar a

hipótese nula. É o erro máximo que ele aceita para um erro falso-positivo. Na área das

ciências da saúde é usual utilizar 5%. Quanto menor o erro alfa estipulado pelo

pesquisador, maior será o tamanho estimado para a amostra.

• Poder do teste estatístico (1–erro β) – Corresponde à probabilidade do estudo

detectar uma diferença real entre os grupos estudados. Traduz a probabilidade de o

pesquisador cometer um erro falso-negativo. Na área das ciências da saúde é arbitrado

em 80%, 85% ou 90%, que corresponde a um erro beta de 20%, 15% e 10%,

respectivamente. Quanto maior o tamanho da amostra, maior será o poder do estudo em

detectar uma diferença ou um efeito real.

O tamanho da diferença - Corresponde ao tamanho da verdadeira diferença que se

deseja discriminar como significativa, entre as médias da variável considerada no

estudo. Pequenas diferenças exigem amostras maiores. Pode ser determinado por

estudos anteriores ou quando possível por valores interpretados com clinicamente

significativos.

• O tamanho da população – Para pequenas populações o tamanho da amostra é

diretamente proporcional ao tamanho da população. Para grandes populações, o

tamanho da amostra não é influenciado pelo tamanho da população, pois a mesma

deverá ser considerada como ilimitada.

• Dos recursos e do tempo disponível – É outro fator limitante que, não menos

importante, pode influenciar no tamanho da amostra.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

ETAPAS PARA O CÁLCULO DO TAMANHO DA AMOSTRA

a. Primeiro passo - Escolher a fórmula apropriada dependendo do tipo de estudo

(analítico ou descritivo) e do tipo de erro (alfa ou beta).

b. Segundo passo - Especificar os valores dos parâmetros que serão utilizados. São

eles:

• Variância esperada (s2) - Deve ser obtida com base em conhecimentos prévios sobre

o estudo a ser realizado. No caso de variáveis contínuas, esta pode ser estimada com

base em estudos semelhantes publicados na literatura, ou pela realização de um estudo

piloto previamente executado.

• Erro alfa (zα) - Usualmente, na área das ciências da saúde, é estimado em 5% ou 1%.

Erro beta (zβ) - Usualmente, é considerado em 20%, 15% ou 10%. Quanto menor o

erro beta estipulado, maior o poder do teste.

Diferença estimada entre os grupos ( d ) - Corresponde à diferença mínima a ser

detectada entre a média da amostra ( x ) e a verdadeira média da população (µ).

• Variância das proporções esperadas (p) - Se o parâmetro a ser estudado é uma

proporção, digamos, a proporção de sucesso para um determinado tratamento, e

assumindo-se que os grupos são iguais no tamanho, o pesquisador deve determinar a

proporção média (p) no estudo, ou seja, no grupo inteiro. A fórmula para calcular a

variância das proporções é p = p(1- p).

Nas fórmulas, valores do erro alfa e do erro beta, arbitrados pelo pesquisador,

devem ser introduzidos com base nos valores de zα e zβ, determinados na tabela de

valores críticos da distribuição normal gaussiana, conforme o Quadro abaixo, sendo zα,

rotineiramente, bicaudal, e zβ, unicaudal.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

No Quadro abaixo é mostrado os valores calculados para (zα+zβ)2 e

(zα/2+zβ)2, segundo Snedecor & Cochran,1967. Estes podem ser utilizados em

fórmulas para o cálculo do tamanho da amostra.

- Fórmulas para cálculo do tamanho de amostras para descrição de variáveis

quantitativas e qualitativas em uma população

- Fórmulas para cálculo do tamanho de amostras para comparação de dois grupos

segundo variáveis quantitativas e qualitativas e segundo pareamento dos casos.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

- Fórmula para cálculo do tamanho amostral para correlação linear entre variáveis

quantitativas.

3. INTERVALO DE CONFIANÇA

Médias, medianas, modas são chamadas estimativas pontuais, pois,

correspondem a um único valor que estima características de um grupo sob estudo.

Existem também as estimativas por intervalos que são expressas por um limite inferior e

um superior entre os quais se acredita estar o verdadeiro valor do parâmetro.

Uma das utilidades dos intervalos é dar a idéia da dispersão ou variabilidade

das estimativas. Um intervalo muito grande indica que a estimativa calculada não é tão

acurada quanto a outra com intervalo menor, ou seja, quanto maior a amplitude do

intervalo menor a confiabilidade da estimativa.

Existem vários métodos para expressar intervalos, porém o mais conhecido e

talvez o mais correto seja o “INTERVALO DE CONFIANÇA” que permite incorporar

uma probabilidade de erro. Esta probabilidade de erro é inferida a partir de um

conhecimento do modelo de distribuição de frequências do fenômeno estudado.

O modelo que mais habitualmente se ajusta à ocorrência de fenômenos

biológicos é o de DISTRIBUIÇÃO NORMAL, cujo intervalo de confiança envolve

para sua construção o conhecimento da variância (que permite o cálculo do desvio

padrão).

Os intervalos podem ser construídos com diferentes coeficientes de confiança,

sendo em geral mais utilizados os intervalos de confiança de 95% ou 99%. A cada

coeficiente corresponde um valor crítico da distribuição, que é uma medida de distância

da estimativa pontual que se expressa em unidades de desvios padrão.

Para gerar os INTERVALOS DE CONFIANÇA para MÉDIA no SPSS clicar

em Analyze<Descriptive Statistics<Explore. Na caixa de dialogo que abrir inserir no

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

item DEPENDENT LIST a variável QUANTITATIVA de interesse. No item DISPLAY

selecionar o item STATISTICS. Clicar na opção STATISTICS e na caixa de dialogo

EXPLORE: STATISTICS estará selecionada a opção DESCRIPTIVES-CONFIDENCE

NTERVAL FOR MEAN: ( )%. No item que contém o valor 95 poderá ser inserido o

valor de INTERVALO DE CONFIANÇA de interesse, porém o mais usual é o de 95%.

5% TrimmedMean - Esta é a média que seria obtida se 5% da parte inferior e

superior de valores da variável forem suprimidos. Se o valor de5% TrimmedMean é

muito diferente da média, isto indica que há alguns valores aberrantes. No entanto, você

não pode assumir que todos os valores extremos foram removidos da média aparada.

Além de informar sobre a variabilidade/dispersão de estimativas pontuais, os

intervalos de confiança podem também expressar a “significância estatística” dos testes

referentes às comparações de MÉDIAS.

Por exemplo, é possível comparar os INTERVALOS DE CONFIANÇA para

MÉDIA de IDADE entre os SEXOS. Porém para fazer isto teremos que recorrer

novamente ao recurso SPLIT FILE e inserir a variável SEXO.

Nos resultados apresentados no quadro abaixo é possível observar que o

INTERVALO DE CONFIANÇA da IDADE para o sexo MASCULINO não contém o

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

INTREVALO DE CONFIANÇA do sexo FEMININO. Isto indica que com 95% de

confiança existe diferença entre as MÉDIAS de IDADE.

O INTERVALO DE CONFINÇA também pode ser representado graficamente

pelo gráfico ERROR BAR (barra de erros). Remover a opção inserida no SPLIT FILE,

clicar em Graphs<LegacyDialogs<Error Bar. Na caixa de dialogo ERROR BAR

selecionar SIMPLE e no item DATA IN CHART ARE selecionar SUMMARIES FOR

GROUPS OF CASES, e clicar em DEFINE.

Na caixa de dialogo que se abrir inserir no item VARIABLE a variável

QUANTITATIVA e no item CATEGORY AXIS a variável QUALITATIVA que

divide os grupos de análise. Em seguida clicar em OK. É possível observar que os

INTERVALOS DE CONFIANÇA da IDADE para os SEXOS não se cruzam, o que

confirma a diferença entre os grupos.

Descriptives

SEXO Statistic Std. Error

MASCULINO IDADE (anos) Mean 23,212

,4752

95% Confidence Interval for

Mean

Lower Bound 22,273

Upper Bound 24,151

FEMINIO IDADE (anos) Mean 21,114

,2658

95% Confidence Interval for

Mean

Lower Bound 20,592

Upper Bound 21,637

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

situações, por exemplo, num teste de comparação de duas MÉDIAS, onde

INTERVALO DE CONFIANÇA analisado é da diferença entre as MÉDIAS. Nesta

situação quando o INTERVALO DE CONFIANÇA da diferença das MÉDIAS contém

o valor zero indica que a diferença não é significante, ou seja, que não existe diferença

entre as médias. Porém se não contém o valor zero as médias são diferentes,

Por exemplo, ao realizar medidas repetidas da GLICEMIA antes e depois de

uma intervenção foi calculada a diferenças entre os dois momentos, que é chamado de

delta variação (). Neste exemplo é possível verificar que o INTERVALO DE

CONFIANÇA contém o valor zero, ou seja, as MÉDIAS são iguais.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Apesar do Intervalo de Confiança poder ser utilizado para análise de dados

qualitativos isto será discutido no próximo módulo.

4. TESTE “t” PARA UM ÚNICO GRUPO

Vamos supor que o pesquisador tenha realizado um estudo descritivo com o

propósito de investigar a média da população para uma variável quantitativa. Após ter

calculado os parâmetros da estatística descritiva ele gostaria de saber se está média

difere ou não da população de onde os dados se originaram (supondo que se conheça

está média), de outras populações, da média observada em outros estudos publicados ou

ainda de valores de referência para a variável investigada.

Um recurso estatístico para isto é o “teste t para um único grupo”. Utilizando

a planilha de dados utilizaremos com exemplo a variável IMC. Sabendo que os valores

de IMC que representam um estado nutricional normal (eutrófico) variam entre 18,5 a

24,9 Kg/m

2

, e a média entre estes valores é de 21,7 Kg/m

2

, vamos testar se a média de

IMC da amostra estuda difere da média considerada normal para os valores de IMC,

com também dos limites inferiores e superiores.

Clicar em Analyze< Compare Means < One-Sample T test. Na caixa de

dialogo que abrir inserir em Teste Variables (s): a variável quantitativa de interesse, em

nosso caso o IMC. Em Teste Value inserir o valor a ser confrontado, em nosso exemplo

o valor de 21,7 Kg/m

2

. Como agora temos informações sobre a análise do Intervalo

de Confiança (IC) podemos clicar no item Options e selecionar o IC de interesse. Em

seguida clicar em Continue e depois em OK.

No Output serão produzidos dois quadros. O primeiro, One-Sample

Satatistic”, contém a estatística descritiva com o tamanho da amostra (N), a média

(Mean), o desvio-padrão (Std. Deviation) e o erro padrão da média (Std. Error Mean).

Statistic Std. Error

DIFERENÇA GL2-GL1 Mean ,0000

,93666

95% Confidence Interval for

Mean

Lower Bound -1,8404

Upper Bound 1,8404

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

No segundo quadro, “One-Sample Teste”, é apresentado os resultados do teste

estatístico. Na parte superior do quadro é apresentado o valor testado (Test Value) e

embaixo o valor do “t crítico” (t), o grau de liberdade (df), o valor de “p” para a

estatística bicaudal ( para obter o valor de “p” (Sig. (2-tailed)) para a estatística

unicaudal basta dividir o valor de “p” bicaudal por 2), a média da diferença (Mean

Difference) e o Intervalo de Confiança da Diferença (95% Confidence Intervalo f the

Difference) com os valore inferior (Lower) e superior (Upper).

O resultado indica que existe uma diferença significativa entre a média de IMC

da amostra estuda e o valor de referência de 21,7 Kg/m

2

, pois, o valor de “p” é 0,0001,

ou seja, existe pouca probabilidade desta diferença estar associada ao acaso. Assim é

possível dizer que a média do IMC é significativamente maior que o valor de referência

de 21,7 Kg/m

2

.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

5. TESTANDO DIFERENÇAS ENTRE MÉDIAS: TESTE “t”

Em situações onde se possui dois grupos de comparação e se pretende analisar

(comparar) as diferenças entre as médias, a forma mais simples de se fazer um

experimento é manipular uma só variável de duas maneiras e medir somente uma saída.

A manipulação da variável independente, ou seja, a variável que categoriza os grupos,

em geral envolve ter uma condição experimental e um grupo-controle.

O teste “t” para analisar este cenário e existem dois tipos de teste “t”:

- Teste “t” para amostras independentes: esse teste é utilizado quando existem duas

condições experimentais em sujeitos diferentes em cada grupo de comparação, ou seja,

amostras não pareadas.

- Teste “t” para amostras dependentes: esse teste é utilizado quando existem duas

condições experimentais aplicadas nos mesmos sujeitos em momentos diferentes, ou

seja, amostras pareadas. Está situação se caracteriza por medidas repetidas de um

mesmo grupo, porém em momentos diferentes e em condições diferentes.

Os dois testes têm fundamentação semelhante:

- Duas amostras de dados são coletadas e a média das amostras é calculada. Estas

médias podem diferir muito ou pouco;

- Se as amostras vêm da mesma população esperamos que suas médias não fossem

diferentes (diferença das médias é ZERO). Embora seja possível que as médias difiram

pelo acaso, grandes diferença devem ocorrer com pouco frequência (distribuição normal

– Histograma).

- Se a diferença entre as médias for maior do que esperamos considerando o erro padrão

é possível presumir que:

a) Que as médias das amostras da população variam muito somente por acaso e temos,

por acaso, coletado dados atípico desta população;

b) As duas amostras vêm de populações distintas, mas os valores são típicos de suas

respectivas populações originais, o que representa um diferença real entre as médias.

Tanto o teste “t” dependente ou independente são teste paramétricos baseados

na distribuição normal e devem analisar dados normalmente distribuídos e medidos

pelos menos em escala de medida intervalar. O teste “t” independente, que compara

grupos de sujeitos diferentes, também deve considerar que ass variâncias populacionais

são iguais, o que é analisado pelo teste de Levene que avalia a Homogeneidade das

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Variâncias, e que os escores (dados) são independentes, ou seja, os grupos são

excludentes.

6. TESTES ESTATÍSTICOS PARA COMPARAÇÃO DE DUAS MÉDIAS

PAREADAS.

Quando o pesquisador pretende comparar duas médias obtidas de uma mesma

amostra em condições diferentes e a variável analisada é quantitativa e com distribuição

normal recomenda-se o a aplicação do teste “t” pareado.

Para analisar a distribuição de normalidade recomenda-se utilizar o teste de

Shapiro-wilk quando a amostra for pequena (<30) ou o teste de Kolmorogov-smirnov

quando a amostra é grande ( 30). Porém os pesquisadores podem discordar em relação

o que é uma amostra pequena ou grande, assim amostras com até 50 elementos

amostrais podem requerem o teste de Shapiro-wilk.

A equação do teste “t” pareado comparar a diferença média entre das

observações da amostra (D) com a diferença da que devemos esperar encontrar entre as

médias populacionais (µ

d

) e, então, leva em conta o erro padrão das diferenças (S

d

/n).

t= D- µ

d

/ S

d

/n

Se a H0 for verdadeira é esperado que não exista diferença entre as dias.

Isto faz sentido, porque em um delineamento de medidas repetidas a diferença entre as

duas condições de medida podem ser causadas somente por dois fatores: 1) a

manipulação (experimento) da variável independente; ou 2) qualquer outro fator

individual que possa modificar a forma com que o sujeito e não controlado que possa

influenciar a medida.

Desta forma em estudos experimentais de medidas, tanto de medidas repetidas

amostras dependentes, quanto de amostras independentes estão condições estão

associadas a dois tipos de variação. A situação 1 refere-se a variação sistemática que

ocorre devido a influência do pesquisador e representado o efeito que se está

investigando. A situação 2 refere-se a variação não-sistemática que resulta de fatores

aleatórios.

Em estudos de medidas repetidas a principal variação é produto da variação

sistemática e pouco do efeito é atribuído a variação não-sistemática. Esse se deve

porque o mesmo elemento amostral é submetido às duas condições experimentais e as

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

diferenças nas médias da variável quantitativa se deva principalmente pela exposição as

diferentes condições experimentais.

Desta forma, na equação acima a diferença entre as médias (D) representa o

efeito (variação sistemática) e desvio padrão (S

d

) a variação não-sistemática. Assim

quanto maior o desvio-padrão e menor o tamanho da amostra, maior será o erro padrão

da média (S

d

/n) e menores a chances de se observar diferenças significativas entre as

médias.

Assim se a manipulação experimental criar qualquer tipo de efeito, a variação

sistemática (Diferença) será bem maior do a variação não-sistemática e o valor de “t”

será no mínimo maior que 1. Por outro lado, se a manipulação experimental não for bem

sucedida, a variação causada por diferenças individuais (não-sistemática) será bem

maior do que o efeito da intervenção produzindo um valor de “t” menor que 1.

Para produzir o teste “t” no SPSS clicar em Analyze < Compare Means <

Paired-Sample T Teste. Supondo que se pretenda analisar o efeito da intervenção

sobre os valores de glicemia de jejum, onde foram realizadas medidas de glicemia em

duas condições. A glicemia Pré representa a medida antes da intervenção com

orientações sobre exercício físico e a glicemia Pós a medida de glicemia 6 meses após o

início das orientações sobre exercício físico.

Na caixa de dialogo que abrir selecionar o par de variáveis que será analisada

na lista de variáveis e inserir em Paired Variables. Em Options é possível alterar o

Intervalo de Confiança para a média da diferença. Após inserir as variáveis clicar em

OK.

No Output o primeiro quadro (Paired Sample Statistic) apresenta a estatística

descritiva com valores de média (Mean), tamanho da amostra (N), o desvio-padrão (Std.

Deviation) e o erro padrão da média (Std. Error Mean).

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

No segundo quadro (Paired Sample Correlations) o SPSS apresenta a

correlação de Pearson que analisa a relação entre os dois médias. Quando medidas

repetidas são usadas, é possível que as condições experimentais se correlacionem.

Valores significativos quanto a correlação indicam que as variações entre as momentos

são semelhantes entre os elementos da amostra. Valores de correlação (Correlation)

próximo de 1 indicam alta correlação e próximo de 0 (zero) baixa correlação. Ainda no

quadro de correlação é apresentado o valor de “p” (Sig) que indicam se a correlação é

significativa. No caso abaixo é possível observar que as condições pré e pós apresentam

baixa correlação (r=0,043) e não são significativas, pois, o valor de “p” (0,345) é maior

0,05.

No terceiro quadro (Paired Samples Test) o Output do SPSS apresenta a

diferença da média (Mean) onde valores positivos indicam uma redução da média e

valores negativos indicam aumento. Ainda no item Paired Differences é apresentado o

desvio-padrão da diferença entre as médias (Std. Deviation) e o erro padrão das

diferenças entre os escores dos participantes em cada condição (Std. Error Mean). Além

disso, é possível verificar o Intervalo de Confiança (95% Condidence Intervalo of the

Difference). Como IC 95% da média da diferença não inclui o valor zero é possível

dizer que existe diferença significativa entre as médias.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Na continuidade deste quadro temo o valor do teste “t” e o grau de liberdade

(df) que será importante para calcular o tamanho do efeito. O valor de “p” (p=0,0001)

para o teste “t” bicaudal (Sig.(2-tailed)) é inferior a 0,05, o que indica que a

probabilidade das diferenças estarem relacionadas ao acaso é muito baixo, portanto a

diferenças entre as médias são reais e consideradas estatisticamente significativas.

O valor de “p” quanto é menor que 0,0001 costuma-se apresentar o valor de

0,0001. No caso do teste acima o valor de p é igual a 8.275102872521461E-6, que

representa o valor de 0,0000008275102872521461. Lembre ainda que para obter o valor

de “p” para o teste unicaudal basta dividir o valor do teste bicaudal por 2.

Embora o teste “t” para amostras pareadas tenha apresenta significância

estatística, isso não quer dizer que nosso efeito seja importante em termos práticos. Para

descobrir se o efeito é importante, precisamos calcular o Tamanho do Efeito. Cohen

(1988, 1992) classificou o tamanho do efeito em:

- r = 0,10 (efeito pequeno): nesse caso o efeito explica 1% da variância total;

- r = 0,30 (efeito médio): neste caso o efeito explica 9% da variância total;

- r = 0,50 (efeito grande): neste caso o efeito explica 25% da variância total.

Para calcular o Tamanho do Efeito “r” (Rosnow & Rosenthal, 2005, p.328)

que utiliza a seguinte equação:

r = t

2

/ (t

2

+ df)

Utilizando os resultados da análise acima onde t=4,506 e df= 491. O grau de

liberdade (df) é calculado pela equação df=n-1, sendo “n” o tamanho da amostra.

r = 4,506

2

/ (4,506

2

+ 491)

r = 20,30/ (20,30 + 491)

r = 0,03970= 0,19 (efeito médio).

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Porém o que fazer se os dados da variável quantitativa de interesse não

apresentarem Distribuição Normal, mesmo após a tentativa de ajustar estes dados?

Felizmente existe uma opção não-paramétrica para comparar medidas repetidas

em duas condições diferentes quando os dados quantitativos não apresentam

Distribuição Normal, ou mesmo, quando se tem variáveis em escala de medida discreta

ou ainda variáveis qualitativas em escala de medida ordinal. A opção não-paramétrica

para está situação é o teste dos postos com sinais de Wilcoxon, porém quando a

variável for qualitativa em escala ordinal é necessário que a variável apresente no

mínimo 3 categorias de resposta.

O teste de Wilcoxon para amostras pareadas funciona de forma semelhante ao

teste “t” para amostras pareadas, uma vez que ele tem por base as diferenças entre os

escores nas duas condições de comparação. Depois de calculadas, essas diferenças são

transformadas em postos, mas o sinal da diferença (positivo ou negativo) é atribuído a

cada posto. Quando a diferença é ZERO o dado é apresentado na análise descritiva, mas

excluído da análise.

Como podemos observar no quadro abaixo os valores de glicemia de jejum não

apresentaram Distribuição Normal para as condições pré e pós-intervenção para ambos

os testes, pois, os valores de “p” (Sig.) são inferiores a 0,05. Deste modo, é

recomendado que se realize o teste não-paramétrico.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Para realizar o teste dos postos com sinais de Wilcoxon no SPSS clicar em

Analyze < Nonparametric Tests < Legacy Dialogs < 2 Related Sample. Na caixa de

dialogo que abrir selecionar o par de variáveis relacionadas as condições de medida e

inserir Test Pairs. O teste de Wilcoxon está pré-selecionado e em Test Type é possível

selecionar outro tipos de teste que serão discutidos no próximo módulo.

Se clicar em Exact que tem o método Método Assintótico (Asymptotic only)

pré-selecionado e é um método preciso para amostras grandes. Quando se tem amostras

pequenas recomenda-se o uso do teste Exact. O método de Monte Carlo é uma outra

opção para amostras pequenas e produz o Intervalo de Confiança para o valor de

significância.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Em Options é possível selecionar a estatística descritiva e a distribuição do

quartil. Após selecionar as opções desejadas retornar a caixa de dialogo principal e

clicar em OK.

No Output o teste de Wilcoxon além da estatística descritiva selecionadas,

apresenta um quadro (Ranks) com os resultados dos postos negativos (Negative Ranks),

postos positivos (Positive Ranks), Iguais (Ties) e total. Também apresenta a média dos

postos positivos e negativos (Mean Ranks), e a soma dos pontos (Sumo f Ranks). Na

base da quadro é possível observar as letra “a”, “b” e “c” que indicam o significado dos

postos negativos, positivos e iguais.

No quadro Test Statistics

b

é apresentado os resultados do teste de Wilcoxon. O

valor de “t” é convertido em “escore-z” e a vantagem dessa abordagem é que ela

permite que o valor exato da significância seja calculado com base na distribuição

normal. Em Asymp. Sig. (2-tailed) é apresentado o valor de “p” correspondente a

estatística bicaudal. O teste de Wilcoxon indica que existe uma diferença significativa

entre as condições pré e pós-intervenção, pois, o valor de “p” é menor que 0,05,

indicando que a probabilidade (chance) de as diferenças estarem relacionados ao acaso

ser menor que 5%.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

O Tamanho do Efeito também pode ser calculado para o teste de Wilcoxon

pelo valor de “r” utilizando o “escore-z” e o número de observações (N). Com a amostra

tem 492 elementos amostrais que foram medidos duas vezes temos no exemplo dado

984 observações.

r= escore-z / N

r= -5,631/ 984

r= -5,631/ 31,36

r= 0,17 (efeito médio)

7. TESTES ESTATÍSTICOS PARA COMPARAÇÃO DE DUAS MÉDIAS

INDEPENDENTES

O teste “t” para amostras independentes deve ser utilizado quando se pretende

comparar dois grupos de elementos amostrais diferentes. Deste modo, que faz parte de

um grupo não poderá fazer parte do outro grupo. Além disso, o teste “t” independente

também é baseado na distribuição de normalidade, de modo que, os dados quantitativos

devem ser testados quanto a aderência ao pressuposto de Distribuição Normal.

Para avaliar a Distribuição de Normalidade deveremos utilizado o teste de

Shapiro-wilk quando a amostra for pequena (<30) ou o teste de Kolmorogov-smirnov

quando a amostra é grande ( 30). Porém aqui, além da Distribuição normal, também

será necessário testar a Homogeneidade das Variâncias pelo teste de LEVENE.

Vale destacar que diferente do teste “t” pareado, que tem a variação aleatória

minimizada por medidas repetidas do mesmo sujeito, o teste “t” não pareado

(independente) se caracteriza por grupos diferentes, o que acentua a variação aleatória

por conta das diferenças individuais que não podem ser controladas.

O teste “t” independente, portanto é baseada nas diferenças entre as médias das

amostras, ou seja, a diferença entre pares de dados de grupos diferentes e espera-se que

a diferença entre os pares seja semelhante. Deste modo, o teste “t” independente é

representado pela divisão entre as diferenças entre as médias das amostras pelo desvio

padrão da distribuição amostral (erro padrão da distribuição amostral).

Vale lembrar que para gerar a análise do teste “t” independente no SPSS é

necessário que a seja gerar uma variável qualitativa que identifique os grupos de

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

comparação. Está variável de codificar os grupos para permitir sua comparação da

variável quantitativa de interesse entre os grupos.

Para gerar as analises do teste “t” independente no SPSS clicar em Analyze <

Compare Means < Independent Sample T Test. Vamos supor que a hipótese nula

seja a de que não existe diferença entre o sexo masculino e feminino quanto as valores

de glicemia de jejum. Na caixa de dialogo que abrir inserir em Test Variable (s) a

variável quantitativa que se pretende comparar as médias. Em Grouping Variable inserir

a variável qualitativa que categoriza os grupos de comparação e em seguida clicar em

Define Groups. Em Define Groups inserir os códigos correspondentes as grupos de

comparação. Caso não tenha codificado a variável qualitativa na aba Variable View na

tabulação poderá utilizar a opção Cut point e o SPSS irá atribuir todos os casos maiores

ou iguais ao ponto de corte em um grupos e todos os caso menores que o ponto de corte

em outro grupo. Após codificar aos grupos em Define Groups clicar em Continue. De

volta a caixa de dialogo de origem você ainda poderá clicar em Options e modificar o

Intervalo de Confiança caso deseje. Inserir as variáveis e os códigos necessário clicar

em OK.

No Output do teste “t” independente são apresentados dois quadros. O primeiro

quadro (Group Statistics) é apresentado a estatística descritiva com o número de

observações por grupos (N), média (Mean), desvio-padrão (Std. Deviation) e erro

padrão da média (Std. Error Mean) para ambos os grupos de comparação.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

No segundo quadro (Independent Samples Test) são gerados dois valores de

“p” (Sig (2-lailed)), sendo um associado quando o pressuposto de Homogeneidade das

Variâncias é assumido e outro quando este pressuposto não é assumido. Para verificar

se o pressuposto de Homogeneidade das Variâncias foi atendido, basta observar o valor

de “p” (Sig) produzido em Levenes´s Test for Equality of Variances, onde valores de

“p” <0,05 indicam que o pressuposto não foi atendido devendo observar os valores

contidos na análise que não assume a igualdade das variâncias (Equal variances not

assumed). Por outro lado, se o teste de Levene apresentar valores de “p” 0,05 deverá

ser observado os valores contidos na análise que assume a igualdade das variâncias

(Equal variances assumed).

Em t-teste for Equality of Means é possível observar o valor de “t”, o grau de

liberdade (df), o valor de “p” (Sig (2-lailed)), a média da diferença (Mean Difference), o

erro padrão da diferença (Std. Error Difference) e o Intervalo de Confiança de 95% da

diferença (95% Confidence Intervalo of the Difference). No resultado do quadro abaixo

pode observar que a igualdade das variâncias foi assumida e o teste “t” gerou um valor

de “p” de 0,674 que indica que não existe diferenças significativas entre as média, ou

seja a probabilidade das diferenças estarem associadas ao acaso é maior que 5% (0,05).

Para calcular o Tamanho do Efeito (r) para o teste “t” independente, será

utilizado o valor de “t” (-0,420) e o grau de liberdade (df) para o teste que assume a

igualdade das variâncias (490).

r= t

2

/ (t

2

+ df)

r= -0,420

2

/ (-0,420

2

+ 490)

r= 0,1764 / (0,1764

+ 490)

r= 0,1764 / 490,1764

r= 0,0000359

r= 0,018 (sem efeito).

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Embora a Homogeneidade das Variâncias tenha sido atendida os dados de

glicemia de jejum não apresentaram distribuição normal, o que indica a necessidade do

uso de uma versão não-paramétrica para comparação entre dois grupos independentes.

As opções não-paramétricas para o teste “t” independente são o teste de Mann-

Whitney ou o teste de Soma dos Postos de Wilcoxon. Ambos os testes organizam os

valores (escores) do menor para o maior valor e em ordem crescente é atribuído o

postos independente do grupo de comparação.

Após a ordenação dos postos é determinado os postos reais. Quando existem

valores repetidos é calculada a média dos postos com no exemplo do quadro abaixo para

os valores de glicemia de jejum de Homens (1) e Mulheres (2).

SEXO GLICEMIA PRÉ (mg/dl) POSTO POSTO REAL

2 86 1 1

2 93 2 2

1 96 3 3

1 97 4 4

2 99 5 5

1 100 6 6,5

2 100 7 6,5

1 102 8 8,5

2 102 9 8,5

1 103 10 10,5

2 103 11 10,5

2 104 12 12

2 105 13 13

1 106 14 14

2 107 15 15

2 109 16 16

2 110 17 17

1 115 18 18

2 117 19 19

1 136 20 20

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Aqui abordaremos somente o teste de Mann-Whitney como opção não-

paramétrica para o teste “t” independente, que calcula o valor de “p” baseado na soma

dos postos e não nos valores exatos da variável quantitativa.

Para gerar a análise de Mann-Whitney no SPSS clicar Analyze <

Nonparametric Test < Legacy Dialogs < 2 Independent Sample. Na caixa de dialogo

que abrir o teste de Mann-Whitney está pré-selecionado, porém se não estiver você

poderá selecionar. Inserir em Test Variable List a variável quantitativa que se pretende

analisar. Em Grouping Variable inserir a variável qualitativa que define os grupos de

comparação e em seguida clicar em Define Groups para inserir os códigos atribuídos

para identificação dos grupos.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Na opção Exact por padrão o SPSS calcula a significância do teste de Mann-

Whitney utilizando um método que é preciso amostra grandes (Asymptotic only).

Porém em amostra pequenas é possível utilizar um teste de maior precisão na opção

EXACT. Outra opção para correção de amostras pequenas é o teste de Monte Carlo.

Após selecionar os parâmetros de análise voltar na caixa de dialogo inicial e

clicar e OK. No Output o SPSS produz o quadro Ranks que apresenta número de

elementos amostrais em cada grupo (N), a média dos postos (Mean Rank) e a soma dos

postos (Sumo of Ranks). Isto se refere a estatística descritiva que a média dos homens é

maior do que das mulheres. Lembre que também é possível a estatística descritiva da

variável quantitativa clicando em Options na caixa de dialogo inicial

No segundo quadro (Test Statistics

a

) contém os resultados da estatística de

Mann-Whitney U, de Wilcoxon W, escore-z e valor de “p” (Asymo.Sig. (2-tailed). Aqui

o valor de “p” indica que existe diferenças significativas entre os sexos em relação ao

valor de glicemia de jejum (p=0,0001). Vale lembrar que quando os grupos foram

comparados pelo teste “t” independente os valor de “p” (p=0,674) não foi identificado

diferenças significativas entre os sexo. Está situação destaca a importância de se optar

pó um teste não-paramétrico quando os dados quantitativos não apresentam distribuição

normal.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Como visto anteriormente o SPSS não calcula o tamanho do efeito (r), porém

ele fornece as informações necessárias. Para isto utilizamos o escore-z (Z) contido no

quadro Test Statistic

a

e o tamanho da amostra (N) com descrito na equação abaixo:

r= Z / N

r= -5,349/ 492

r = -5,349/ 22,18

r= 0,24 (efeito médio)

8. TESTE DE ESTATÍSTICOS DE CORRELAÇÃO ENTRE DUAS

VARIÁVEIS QUANTITATIVAS

O teste de correlação tem como propósito analisar se duas variáveis

quantitativas estão associadas e se elas variam conjuntamente. Para isto são utilizadas

duas medidas: a covariância e o coeficiente de correlação.

A covariância (cov) pode ser calculada pela equação abaixo, que é representa

pelo produto da diferença entre as variáveis “x” e “y”, dividido pelo tamanho da

amostra (n) menor 1. A diferença é representada pela diferença da média de cada

elemento. Para ilustrar o cálculo da covariância foi utilizado os dados de Frequência

Cardíaca (FC) e de Glicemia de Jejum (GL) do quadro abaixo.

cov (x,y) = (x

i

– x)*(y

i

– y)/ (n-1)

cov (x,y) = -2,5/ (20-1)

cov (x,y) = - 0,131

O coeficiente de correlação momento-produto de Pearson é calculado

dividindo a covariância pelo produto dos desvios-padrão das variáveis “x” e “y”,

representado na equação abaixo. Ainda utilizado os dados de FC e GL, com desvios-

padrão (S) de 13,12 e 10,28 respectivamente segue abaixo a equação e os cálculos do

coeficiente de correlção.

r = cov (x,y)/ S

x *

S

y

r = - 0,131/ (13,12 * 10,28)

r = -0,0009

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Os mesmos valores foram produzido no SPSS, porém no SPSS são

apresentados da seguinte maneira -0,0001 ou -9.750051169889752E-4 que representa -

0,000975. O coeficiente de correlação de Pearson está apresentado em Pearson

Correlation.

FC GL FC dif média GL dif média produto dif FC*GL DP FC DP GL

71 110 4,85 5,5 26,675 13,12 10,28

55 105 -11,15 0,5 -5,575 Média FC Média GL

74 115 7,85 10,5 82,425 66,15 115

85 100 18,85 -4,5 -84,825

57 117 -9,15 12,5 -114,375

70 102 3,85 -2,5 -9,625

75 102 8,85 -2,5 -22,125

72 99 5,85 -5,5 -32,175

65 136 -1,15 31,5 -36,225

72 107 5,85 2,5 14,625

42 96 -24,15 -8,5 205,275

48 86 -18,15 -18,5 335,775

58 109 -8,15 4,5 -36,675

64 106 -2,15 1,5 -3,225

68 100 1,85 -4,5 -8,325

59 103 -7,15 -1,5 10,725

97 93 30,85 -11,5 -354,775

48 103 -18,15 -1,5 27,225

65 97 -1,15 -7,5 8,625

78 104 11,85 -0,5 -5,925

-0,000975005

20

-2,5

n

covariância

-0,131578947

Correlação

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

O coeficiente de correlação varia de -1 a +1, onde -1 representa uma correlação

negativa, e +1 representa uma correlação positiva. O valor de 1, independente de

positivo ou negativo representa a correlação perfeita entre as variáveis “x” e “y”. Por

outro lado o valor ZERO representa ausência de correlação. Os coeficiente de

correlação pode ser interpretados da seguinte forma (DAWSON & TRAPP, 2001):

- 0, a 0,25 – inexistente a baixo

-0,25 a 0,50 – baixo a moderado

-0,50 a 0,75 – moderado a alto

- 0,75 – alto.

Para realizar a análise de correlação bivariada no SPSS clicar a Analyze <

Correlate < Bivariate. Na caixa de dialogo que abrir inserir em Variables as variáveis

quantitativas que se pretende analisar. O coeficiente de correlação de Pearson está pré-

selecionado em Correlations Coefficients. Neste item também está disponível os

coeficientes de correlação de Kendall-s tua-b e de Spearman, porém estes são versões

não-paramétrica que serão discutidas mais a frente. Em Testo f Signifcance existe a

opção do teste bicaudal (Two-tailed) ou unicaudal (One-tailed). Quando o item Flag

significant correlations estiver selecionado os coeficiente de correlação significativos

serão indicado com *, sendo * para p0,05 e ** para p0,001.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Ao clicar em Options poderá selecionar as opções Means and Standard

deviations (média e desvio-padrão), e a opção Cross-product deviation and covariances

que apresenta o desvio do produto cruzado e os valores de covariância. Após selecionar

os parâmetros desejados voltar a caixa de dialogo original e clicar em OK.

No Output o quadro Descriptive Statistics apresenta os valores de Média

(mean) e desvio-padrão (Std. Deviation) das variáveis. No quadro seguinte

(Correlations) são exibidos os valores do coeficiente de correlação de Pearson (Pearson

Correlation), o valor de “p” para o teste bicaudal (Sig. (2-tailed)), a soma dos quadrados

e produtos cruzados (Sum of Square and Cross-products) e os valores de covariância

(Covariance).

O valor de r= -0,064 indica uma correlação negativa e muita baixa devido a

proximidade de zero. Além disso é importante lembrar que não se deve basear suas

conclusões somente pelo coeficiente de correlação, é importante analisar o valor “p”

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

que indica a probabilidade deste coeficiente de correlação ter ocorrido por acaso na

amostra. Na análise de correlação de Pearson acima a significância foi de p=0,159, que

indica que a probabilidade deste valores de correlação terem ocorrido ao acaso é maior

que 5%.

Utilizando o R

2

para a interpretação

Embora não possamos tirar conclusões diretas sobre casualidade, podemos

levar o coeficiente de correlação um passo a frente elevando-o ao quadrado, o que é

conhecido como coeficiente de determinação (R

2

). O R

2

é uma medida da quantidade

de variação em uma variável que é explicada pela variação de outra variável. Se

convertermos este valor em porcentagem temos o percentual de explicação. Usando o

exemplo da FC e GL, se o objetivo da análise fosse utilizar os valores de FC para prever

os valores de glicemia observaríamos que a FC explica somente 0,4% (0,064

2

= 0,004 =

0,4%) da variação da GL.

Vale lembrar ainda que o teste de correlação de Pearson deva ser utilizado

somente quando os dados das variáveis quantitativas apresentam distribuição normal.

Como podemos observar na análise da distribuição de normalidade abaixo as variáveis

glicemia e frequência cardíaca não apresentam distribuição normal, portanto é

necessário a uso de uma versão não-paramétrica para analisar estes resultados.

A opção não-paramétrica para analisar a correlação de variáveis quantitativas

que não apresentam distribuição normal é o teste de Spearman que também organiza os

dados em postos. O caminho para gerar a análise de correlação de Spearman é o mesmo

da correlação de Pearson, exceto que no item Correlation Coefficients deverá ser

selecionado a opção Spearman.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

No Output os valores do coeficiente de correlação de Spearman estão

representado no item Correlation Coefficient (r=-0,071) e o valor de “p” (p=0,114) para

o teste bicaudal em Sig.(2-tailed). Elevando o valor de r ao quadrado temos o valor do

R

2

=0,0012. O teste de correlação de Spearman também pode ser utilizado em situações

que tem variáveis qualitativas em escala de medida ordinal.

Porém quando se tem amostras pequenas com dados quantitativos sem

distribuição normal ou dados qualitativos em escala ordinal com baixo número de

categorias de resposta, ou ainda uma das variáveis do tipo qualitativa o teste estatístico

para análise de correlação indicado é o teste de Tau de Kendall.

No SPSS seguir o mesmo caminho do teste de correlação de Pearson, porém

em item Correlation Coefficients selecionar a opção Kendall´s Tau-b, selecionar as

variáveis e clicar em OK. Os resultados são apresentados no Output semelhante ao teste

de Spearman.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Correlação Parcial

A correlação parcial é utilizada quando se pretende controlar o efeito de uma

terceira variável na relação entre duas variáveis. Vamos utilizar como exemplo as

variáveis, massa corporal, estatura e índice de massa corporal (IMC).

Inicialmente vamos explorar o comportamento destas variáveis através do

gráfico de dispersão matricial clicando na opção Graphs < Legacy Dialogs <

Scatter/Dot. Na caixa de dialogo que abrir selecionar a opção Matrix Scatter e clicar em

Define.

Na caixa de dialogo Scatterplot Matrix inserir na opção Matrix Variable as

variáveis de interesse e clicar na opção OK. Na análise do gráfico é possível observar

que a relação da estatura com a massa corporal e com o IMC é positiva.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Para analisar o coeficiente de correlação entre as variáveis deve ser realizado o

teste de correlação, porém antes verifique se os dados quantitativos m distribuição

normal. O teste de normalidade indica que devemos utilizar um teste não-paramétrico

para analisar a correlação. Como temos um amostra grande (n=492; >30 elementos

amostrais) vou optar pelo teste de Spearman.

Considerando que a pergunta do pesquisador é analisar a relação da estatura

com o IMC, porém gostaria de considerar que a massa corporal também influencia o

IMC e saber o quanto da relação da estatura e IMC é influenciada pela massa corporal.

A princípio analisando a tabela abaixo observamos uma correlação positiva e

significativa (p=0,0001) entre IMC e Estatura (r = 0,252) e um R

2

=0,06 que indica que a

variação de estatura explica somente 6% da variação no IMC. A massa corporal

apresentou correlação significativa (p=0,0001) e positiva (r=0,861) com o IMC, para

um R

2

=0,741 que indica que 74,1% da variação no IMC é representado pela massa

corporal.

Desta forma para analisar a relação entre estatura e IMC, controlando o efeito

da variável massa corporal sobre a variável estatura deve ser utilizado a correlação

Parcial. No SPSS clicar em Analyze < Correlate < Partial. Na caixa de dialogo que

abrir selecionar as variáveis analisadas em Variables e a variável de controle em

Controlling for.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

Se inicialmente foi verificado um correlação positiva de 0,252 (p=0,0001) e um

R

2

=0,06 que indica que a variação de estatura explica somente 6% da variação no IMC.

Com o controle da influência da massa corporal é possível verifica que a correlação

permanece significativa (p=0,0001), porém agora está é negativa (r=-0,875), ou seja, o

aumento na estatura inicialmente contribuía com o aumento do IMC, mas agora o

aumento da estatura se relaciona com a redução do IMC. O R

2

de 0,765 indica agora

que o aumento da estatura explica 76,5% da redução do IMC, após o controle da

variável massa corporal pela análise da correlação Parcial.

Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I

BIBLIOGRAFIA

1. BARROS, M. e REIS, R. Análise de dados em atividade física e saúde:

demonstrando a utilização do SPSS. Londrina: Midiograf, 2003.OLIVEIRA,

F.E.M. SPSS Básico para análise de dados. 1 ed. Rio de Janeiro: Editora Ciência

Moderna, 2007, 185p.

2. DAWSON, B.; TRAPP, R.G. Bioestatística básica e clínica. 3 ed.Rio de Janeiro:

McGraw-Hill, 2001.

3. DORIA FILHO, U. Introdução á bioestatística: para simples mortais. 11º ed.

reimpressão. Editora Elsevier: Rio de Janeiro, 1999.

4. FIELD, A. Descobrindo a estatística usando o SPSS. 2 ed. Porto Alegre:

Artmed, 2009, 689p.

5. FONTELLES, M.J.;et al. Metodologia da pesquisa: diretrizes para o cálculo do

tamanho da amostra. Revista Paraense de Medicina. v.24, n.2. 2010

6. GLANTZ, S.A. Princípios de Bioestatística. 7 ed. Porto Alegre: Artmed, 2014,

306p.

7. HOCHMAN, B.; NAHAS, F.X.; OLIVEIRA FILHO, F.S.; FERREIRA, L.M.

Desenhos de pesquisa. Acta Cirúrgica Brasileira, v.20; Supl. 2; 2005.

8. LINDENAU, J.D.; GUIMARÃES, L.S.P. Calculando o tamanho do efeito no

SPSS. Rev. HCPA, Secção de Bioestatística, v.32, n.3, 2012.

9. LUNET, N.; SEVERO, M.; BARROS, H. Desvio Padrão e Erro Padrão. Notas

Metodológicas. Arquivos de Medicina, 2006.

10. MIOT, Hélio Amante. Tamanho da amostra em estudos clínicos experimentais. J

Vas Bras. 2011; 10 (4); 275-278.

11. PAES, A.T. Itens essenciais em Bioestatística. ArqBrasCardiol. v.71,n.4, p. 575-

580, 1998.

12. RIBAS, J.R.; VIEIRA, P.R.C. Análise multivariada com o uso do SPSS. 1 ed.

Rio de Janeiro: Editora Ciência Moderna, 2011, 272p.

13. VIEIRA, S. Introdução à bioestatística. 4

0

ed. Editora Elsevier: Rio de Janeiro,

2008.

Última postagem

Tag