25-03-2020
No SPSS, podemos comparar a mediana entre 2 ou mais grupos independentes pelas seguintes etapas:
- Abra o conjunto de dados e identifique as variáveis independentes e dependentes para usar mediana teste.
- Agora, vá para analisar, testes não paramétricos e amostras independentes.
- Então você verá a seguinte caixa de diálogo.
Também perguntado, como você interpreta a mediana no SPSS?
Etapa 2: clique em “Analisar”, passe o mouse sobre “Estatísticas descritivas” e clique em “Frequências”. Etapa 3: Clique em “Estatísticas” e marque as caixas “média”, “modo” e “ mediana . ” Clique em “Continuar” duas vezes (selecione “nenhum” como o tipo de gráfico na segunda janela).
Posteriormente, a questão é: você pode comparar medianas? Testes válidos de medianas são: teste de humor e teste de permutação de diferenças em medianas . Mas o método de permutação está correto E se e somente E se os parâmetros de escala são iguais, então o princípio da permutabilidade de dados é mantido. Caso contrário, as observações não podem ser trocadas entre os grupos e o teste não faz sentido.
Da mesma forma, o que é teste de mediana em estatísticas?
O teste de mediana é um não paramétrico teste que é usado para teste se dois (ou mais) grupos independentes diferem na tendência central - especificamente se os grupos foram retirados de uma população com o mesmo mediana . A hipótese nula é que os grupos são retirados de populações com o mesmo mediana .
Por que testamos Kruskal Wallis?
O Kruskal - Wallis H teste (às vezes também chamado de "ANOVA unilateral nas classificações") é um método não paramétrico baseado em classificação teste que pode ser usado para determinar se há diferenças estatisticamente significativas entre dois ou mais grupos de uma variável independente em uma variável dependente contínua ou ordinal.
30 perguntas relacionadas com respostas encontradas
Em qual estatística o Teste de Mediana para Amostras Independentes se baseia? dados de frequência de uma amostra para avaliar a relação entre duas variáveis na população. Cada indivíduo na amostra é classificado em ambas as variáveis, criando uma matriz de distribuição de frequência bidimensional.
Como as suposições agora foram verificadas, o teste de Mann-Whitney pode ser conduzido. Se o valor p estiver abaixo do risco alfa geralmente aceito de 5 por cento (0,05), a hipótese nula pode ser rejeitada e pelo menos uma diferença significativa pode ser assumida. Para os tempos de chamada, o valor p é 0,0459 - menor que 0,05.
Método direto do teste U de Mann Whitney Nomeie a amostra com as classificações menores “amostra 1” e a amostra com as classificações maiores “amostra 2”. Faça a primeira observação na amostra 1. Repita a Etapa 2 para todas as observações na amostra 1. Some todos os seus totais das Etapas 2 e 3.
Para iniciar o teste: Excel 2007: Selecione qualquer célula no intervalo que contém o conjunto de dados a ser analisado, clique em Comparar grupos na guia Analisar e clique em Mann Whitney. Se o conjunto de dados for organizado usando o layout da tabela: Clique em Hipótese alternativa e selecione a hipótese alternativa para testar. Clique em OK para executar o teste.
No menu iniciar, clique no “menu SPSS”. Selecione “estatísticas descritivas” no menu de análise. Após clicar no menu de estatísticas descritivas, outro menu aparecerá. A partir desta janela, selecione a variável para a qual deseja calcular as estatísticas descritivas e arraste-as para a janela de variáveis.
Para calcular a média dos dados agrupados, a primeira etapa é determinar o ponto médio (também chamado de marca de classe) de cada intervalo ou classe. Esses pontos médios devem então ser multiplicados pelas frequências das classes correspondentes. A soma dos produtos dividida pelo número total de valores será o valor da média.
Use a média para descrever a amostra com um único valor que representa o centro dos dados. Muitas análises estatísticas usam a média como uma medida padrão do centro de distribuição dos dados. A mediana e a média medem a tendência central.
SPSS: Analisar: Estatísticas descritivas. Estatísticas descritivas podem ser usadas para resumir os dados. Se seus dados forem categóricos, tente os procedimentos de frequências ou crosstabs. Se seus dados estiverem em nível de escala, tente resumos ou descritivos. Se você tiver várias perguntas de resposta, use conjuntos de várias respostas.
Para calcular a média, você soma os valores e divide pelo número de casos. Se você está marcando “Não sei” como 0, sua média seria (-1 + 1 + 2 + 2 + 0) / 5 ou 4/5. Se você descartar Não sei, sua média seria (-1 + 1 + 2 + 2) / 4 ou 4/4.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
MATERIAL DIDÁTICO
CURSO DE ESTATÍSTICA APLICADA PARA INICIANTES
MÓDULO 2
Comparação de duas médias e correlações no SPSS
AUTOR: EDUARDO FEDERIGHI BAISI CHAGAS
MARÍLIA
2016
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
SUMÁRIO
1. Significância estatística (valor de p)
2. Tamanho da Amostra
3. Intervalo de Confiança
4. Testes Estatísticos para comparação de uma média
5. Testando diferenças entre médias: Teste “t”
6. Testes Estatísticos para comparação de duas médias pareadas
7. Testes Estatísticos para comparação de duas médias independentes
8. Teste de Estatísticos de Correlação entre duas variáveis quantitativas
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
1. SIGNIFCÂNCIA ESTATÍSTICA e VALOR DE “p”
Embora os resultados descritivos da pesquisa digam muito sobre a amostra
estudada, a maioria dos pesquisadores tem se preocupado somente com o “valor de p”,
pois, supõe-se que valores significativos do ponto de vista estatístico permitem fazer
inferências sobre a população de onde a amostra se originou.
Na verdade o “valor de p” não nos diz se é possível ou não inferir sobre a
população a partir de dados de uma amostra, ele apenas nos diz qual a probabilidade de
erro ao assumirmos os resultados observados como verdadeiros. A força ou poder de
um estudo inferir sobre uma população a partir do estudo de uma amostra depende da
qualidade de procedimentos metodológicos associado ao cálculo do Tamanho da
Amostra, que por sua vez é determinado pelo desenho do estudo que se pretende
realizar.
O “valor do p” ou “p-value” é conhecido na estatística como nível descritivo e
está associado ao que chamamos de testes de hipóteses. O papel fundamental da
hipótese na pesquisa científica é sugerir explicações para os fatos. Uma vez formuladas
as hipóteses, estas devem ser comprovadas ou não através do estudo com a ajuda de
testes estatísticos.
Num teste estatístico são formuladas duas hipóteses chamadas hipótese nula
(H0) e hipótese alternativa (H1). Hipótese nula é aquela que é colocada à prova, ou seja,
é a hipótese que será confrontada pelo teste estatístico. Por outro lado, a hipótese
alternativa é aquela que será considerada como aceitável, caso a hipótese nula seja
rejeitada.
A H0 está associada a uma igualdade entre médias ou proporções que podem
indicar a não associação (independência) entre fatores de interesse. Por exemplo, num
estudo sobre fatores de risco para o diabetes tipo 2, uma hipótese nula poderia ser que
“a proporção de diabéticos tipo 2 entre obesos é igual à proporção entre não obesos“ ou
“a chance da doença é a mesma para obesos e não obesos”. Isto implicaria em dizer que
“não existe associação entre obesidade e diabetes tipo 2”.
Outro exemplo, desta vez considerando a igualdade de médias, pode ser
descrito por um estudo sobre tempo de recuperação de pacientes que realizaram cirurgia
de joelho. Supondo que desejamos comparar três procedimentos cirúrgicos diferentes,
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
uma possível hipótese seria que “o tempo médio de recuperação é o mesmo nos três
procedimentos cirúrgicos”, ou seja, “o tipo de procedimento cirúrgico não influencia no
tempo de recuperação do paciente”.
Todo teste de hipótese possui erros associados a ele, pois, partem do princípio
que os dados coletados de uma determinada amostra pode não refletir o verdadeiro
comportamento observado na população devido a variabilidade da amostra. Um dos
mais importantes é chamado “erro do tipo I” que corresponde à rejeição da hipótese
nula quando esta for verdadeira, ou seja, apontar que existem diferenças significativas
entre as médias ou proporções, quando na verdade elas não existem.
No exemplo do Diabetes Tipo 2, a probabilidade do erro do tipo I seria a
probabilidade de concluir que há associação com a obesidade, quando na verdade não
há, ou seja, concluir uma associação que não existe (que é devida ao acaso).
No exemplo do tempo de recuperação, o erro do tipo I corresponderia a dizer
que o tipo de procedimento cirúrgico influencia no tempo de recuperação quando na
realidade o tempo médio é o mesmo nos três procedimentos.
A probabilidade do erro do tipo I chama-se nível de significância e é expressa
através da letra grega α (alfa). Os níveis de significância usualmente adotados são 5%,
1% e 0,1%. Vales destacar que nada impede que o pesquisador adote um nível de
significância de 10%, porém isto implica em maior chance de cometer o erro do tipo I.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Formalmente, o nível descritivo (p) é definido como o “menor nível de
significância (α) que pode ser assumido para se rejeitar H0”, porém esta interpretação
não é simples até mesmo para os estatísticos. Considerando, de maneira muito
generalizada, que os pesquisadores ao rejeitarem a hipótese nula costumam dizer que
existe “significância estatística” ou que o resultado é “estatisticamente significante”,
poderíamos definir o nível descritivo (p) como a “probabilidade mínima de erro ao
concluir que existe significância estatística”.
Importante ressaltar que o nível de significância (α) é um valor arbitrado
previamente pelo pesquisador, enquanto que o nível descritivo (p) é calculado de acordo
com os dados obtidos. Fixado α e calculado o “p”, a pergunta é: “será que posso dizer
com segurança que o resultado é estatisticamente significante?”.
Para responder à esta questão é necessário avaliar se a probabilidade de erro é
“aceitável” ou não, isto é, se o “valor do p” é pequeno o suficiente para concluir que
existe “significância estatística” dentro de uma margem de erro tolerável. Mas saber “o
que é pequeno ou grande” depende do nível de significância adotado, portanto a decisão
do pesquisador sempre estará baseada na comparação entre os dois valores. Se o valor
do p for menor que o nível de significância (α) adotado deve-se concluir que o resultado
é significante, pois, o erro está dentro do limite fixado.
Por outro lado, se o valor de p for superior à α significa que o menor erro que
podemos estar cometendo ainda é maior do que o erro máximo permitido, o que nos
levaria a concluir que o resultado é não significante, pois, o risco de uma conclusão
errada seria acima do que se deseja assumir. Segue abaixo um esquema que resume a
regra de decisão descrita.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
A grande vantagem de se utilizar o nível descritivo é a possibilidade de
“quantificar” a significância, ou seja, no lugar de uma resposta do tipo “sim ou não”
temos a informação de “quanto”. Considere os exemplos da tabela abaixo:
Note que no 1º exemplo os dois resultados são “significantes”, porém o valor
de 0,0002 expressa uma significância muito maior do que 0,048. Além disso, este
último valor é muito próximo ao nível usual de 5%, o que pode causar dúvidas ou
ressalvas na tomada de decisão.
No 2º exemplo temos dois resultados não significantes. O 2º valor (0,987)
praticamente não expressa significância estatística nenhuma, pois, o erro é de quase
100%. Já o 1º (0,085) embora não seja significante ao nível de 5% é um valor bastante
indicativo. Portanto, é muito mais valioso e informativo expressar as conclusões através
do valor exato do p em vez de apenas menor ou maior que o nível de significância (α)
fixado.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Deste modo, considerando que o valor de p nos diz qual a chance de erro ao
inferir sobre uma população a partir dos resultados de uma amostra, vale dizer também
que isto só é possível quando os procedimentos para obtenção da amostra foram
adequados. Caso contrário, aumentamos as chances de cometer erro do tipo II, que
representa a probabilidade de detectar diferenças significativas quando elas existem.
O erro do tipo II ocorre quando o pesquisado aceita a hipótese nula (H0),
quando não verdade deveria rejeitá-la, ou seja, utilizando o exemplo dos fatores de risco
para o diabetes tipo 2, assumir que não existe associação entre diabetes tipo 2 e
obesidade, quando na verdade existe. O erro do tipo II, também chamando de Beta (β),
ocorre principalmente quando o estudo apresenta uma amostra pequena.
O Beta exerce influência sobre o Poder do estudo, ou seja, a força do estudo
em detectar as diferenças quando elas realmente existem. O Poder (P) é representado
pela expressão matemática P=1-β. Desta forma, quanto menor a margem de erro do
tipo II assumida pelo pesquisador maior o Poder do estudo em detectar diferenças
quando elas existirem.
Deste modo, as inferências baseadas nos valores de p são válidas somente
quando o pesquisador se assegura de que sua amostra foi extraída da população por
procedimento aleatório e que o tamanho da amostra foi calculado baseado em
parâmetros representativos da população que se pretende estudar. Informações para
melhor compreensão dos procedimentos para obtenção de uma amostra e a
determinação de seu tamanho serão discutidas no próximo capítulo.
Embora a análise do valor de p esteja condicionada a pressupostos
relacionados aos procedimentos metodológicos de estimativa e obtenção da amostra,
sabemos que grande parte dos estudos não leva em consideração este cuidado
metodológico. Mas e agora, o que fazer?
Bom é óbvio que não podemos inferir sobre a população a partir de uma
amostra de conveniência sem procedimentos e tamanho de amostras apropriadas, porém
devemos lembrar que os elementos que foram incluídos no estudo sofreram algum
efeito da intervenção ou apresentaram alguma associação com as variáveis de estudo.
Deste modo, o pesquisador pode e devem discutir os fatores relacionados com o
comportamento observado nos elementos amostrais estudados.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Além disso, principalmente em amostras de tamanho reduzido que apresentam
baixo poder de estudo é muito frequente que os valores de p não sejam suficientes para
rejeitar a hipótese nula, porém ao se observar os resultados o pesquisador verifica que
sua amostra apresentou algum efeito, e neste momento surge uma questão importante.
Embora os resultados não tenha significado estatístico será que o efeito observado tem
significado clínico para os elementos estudados?
De fato, não se pode acreditar cegamente em tudo que os testes estatísticos
mostram. O que o clínico deve se perguntar ao interpretar os resultados de uma pesquisa
é “os resultados obtidos são relevantes do ponto de vista clínico?”.
Muitas vezes um resultado “estatisticamente significante” pode não ser
“clinicamente importante”. Por exemplo, um teste de comparação de médias pode
detectar uma diferença de 2mmHg na Pressão Arterial (PA) como sendo “altamente
significante” apesar desta diferença não ter nenhuma implicação clínica. Portanto, a
importância em termos biológicos não deve ser julgada pelos estatísticos, mas sim pelos
profissionais da área em que a pesquisa está sendo feita.
Por outro lado, existe também a situação inversa. Um resultado que não seja
“estatisticamente significante” pode ser muito importante, não devendo ser
desconsiderado. Portanto, não se deve fechar os olhos para um resultado que não seja
significativo, é preciso levar em conta também a importância do objeto que está sendo
estudado.
2. TAMANHO DA AMOSTRA
Há com frequência uma ênfase excessiva ao cálculo do tamanho de amostra em
detrimento da concepção cuidadosa de um plano amostral, que são as estratégias a
serem adotadas para garantir que a amostra a ser estudada seja representativa do
universo real do fenômeno a ser estudado, mas vale lembrar que, o cálculo do tamanho
da amostra não garante um resultado significante.
Para o planejamento do tamanho da amostra o investigador precisa estabelecer
algumas definições como: tipo de estudo que pretende realizar (ex. estudo de
prevalência, ensaio clínico, coorte, caso-controle); o tipo de medida que deve utilizar
(ex. medidas contínuas, categorizadas, prevalência, incidência); o tipo de análise (ex.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
diferenças entre médias, diferença entre proporções, cálculo de risco); a margem de erro
que pode assumir para o estudo (ex. o nível de significância e o poder do teste
estatístico que pretende aplicar).
Na homepage do Laboratório de Epidemiologia e Estatística
(www.lee.dante.br) está disponível um serviço que calcula tamanhos de amostra para
alguns dos desenhos de pesquisa médica/biológica mais frequentes, além de oferecer
textos de apoio para compreensão de cada item envolvido no cálculo e referências
bibliográficas para orientarem interessados num estudo autônomo.
FATORES QUE AFETAM O TAMANHO DAAMOSTRA
• Objetivo da amostra - Estudos descritivos costumam exigir amostra com menor
número de participantes.
• Tipo de variável - As variáveis qualitativas frequentemente requerem amostras
maiores que as variáveis quantitativas, porém variáveis quantitativas que apresentam
grande variabilidade também exigem amostras maiores.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
• Delineamento do estudo - Estudo pareado requer uma amostra com metade do
número de sujeitos, quando comparados aos estudos não-pareados.
• Valor estimado para erro alfa (erro tipo I) - Corresponde ao erro máximo que o
pesquisador aceita cometer ao aplicar o teste estatístico para aceitar ou rejeitar a
hipótese nula. É o erro máximo que ele aceita para um erro falso-positivo. Na área das
ciências da saúde é usual utilizar 5%. Quanto menor o erro alfa estipulado pelo
pesquisador, maior será o tamanho estimado para a amostra.
• Poder do teste estatístico (1–erro β) – Corresponde à probabilidade do estudo
detectar uma diferença real entre os grupos estudados. Traduz a probabilidade de o
pesquisador cometer um erro falso-negativo. Na área das ciências da saúde é arbitrado
em 80%, 85% ou 90%, que corresponde a um erro beta de 20%, 15% e 10%,
respectivamente. Quanto maior o tamanho da amostra, maior será o poder do estudo em
detectar uma diferença ou um efeito real.
• O tamanho da diferença - Corresponde ao tamanho da verdadeira diferença que se
deseja discriminar como significativa, entre as médias da variável considerada no
estudo. Pequenas diferenças exigem amostras maiores. Pode ser determinado por
estudos anteriores ou quando possível por valores interpretados com clinicamente
significativos.
• O tamanho da população – Para pequenas populações o tamanho da amostra é
diretamente proporcional ao tamanho da população. Para grandes populações, o
tamanho da amostra não é influenciado pelo tamanho da população, pois a mesma
deverá ser considerada como ilimitada.
• Dos recursos e do tempo disponível – É outro fator limitante que, não menos
importante, pode influenciar no tamanho da amostra.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
ETAPAS PARA O CÁLCULO DO TAMANHO DA AMOSTRA
a. Primeiro passo - Escolher a fórmula apropriada dependendo do tipo de estudo
(analítico ou descritivo) e do tipo de erro (alfa ou beta).
b. Segundo passo - Especificar os valores dos parâmetros que serão utilizados. São
eles:
• Variância esperada (s2) - Deve ser obtida com base em conhecimentos prévios sobre
o estudo a ser realizado. No caso de variáveis contínuas, esta pode ser estimada com
base em estudos semelhantes publicados na literatura, ou pela realização de um estudo
piloto previamente executado.
• Erro alfa (zα) - Usualmente, na área das ciências da saúde, é estimado em 5% ou 1%.
• Erro beta (zβ) - Usualmente, é considerado em 20%, 15% ou 10%. Quanto menor o
erro beta estipulado, maior o poder do teste.
• Diferença estimada entre os grupos ( d ) - Corresponde à diferença mínima a ser
detectada entre a média da amostra ( x ) e a verdadeira média da população (µ).
• Variância das proporções esperadas (p) - Se o parâmetro a ser estudado é uma
proporção, digamos, a proporção de sucesso para um determinado tratamento, e
assumindo-se que os grupos são iguais no tamanho, o pesquisador deve determinar a
proporção média (p) no estudo, ou seja, no grupo inteiro. A fórmula para calcular a
variância das proporções é p = p(1- p).
Nas fórmulas, valores do erro alfa e do erro beta, arbitrados pelo pesquisador,
devem ser introduzidos com base nos valores de zα e zβ, determinados na tabela de
valores críticos da distribuição normal gaussiana, conforme o Quadro abaixo, sendo zα,
rotineiramente, bicaudal, e zβ, unicaudal.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
No Quadro abaixo é mostrado os valores calculados para (zα+zβ)2 e
(zα/2+zβ)2, segundo Snedecor & Cochran,1967. Estes podem ser utilizados em
fórmulas para o cálculo do tamanho da amostra.
- Fórmulas para cálculo do tamanho de amostras para descrição de variáveis
quantitativas e qualitativas em uma população
- Fórmulas para cálculo do tamanho de amostras para comparação de dois grupos
segundo variáveis quantitativas e qualitativas e segundo pareamento dos casos.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
- Fórmula para cálculo do tamanho amostral para correlação linear entre variáveis
quantitativas.
3. INTERVALO DE CONFIANÇA
Médias, medianas, modas são chamadas estimativas pontuais, pois,
correspondem a um único valor que estima características de um grupo sob estudo.
Existem também as estimativas por intervalos que são expressas por um limite inferior e
um superior entre os quais se acredita estar o verdadeiro valor do parâmetro.
Uma das utilidades dos intervalos é dar a idéia da dispersão ou variabilidade
das estimativas. Um intervalo muito grande indica que a estimativa calculada não é tão
acurada quanto a outra com intervalo menor, ou seja, quanto maior a amplitude do
intervalo menor a confiabilidade da estimativa.
Existem vários métodos para expressar intervalos, porém o mais conhecido e
talvez o mais correto seja o “INTERVALO DE CONFIANÇA” que permite incorporar
uma probabilidade de erro. Esta probabilidade de erro é inferida a partir de um
conhecimento do modelo de distribuição de frequências do fenômeno estudado.
O modelo que mais habitualmente se ajusta à ocorrência de fenômenos
biológicos é o de DISTRIBUIÇÃO NORMAL, cujo intervalo de confiança envolve
para sua construção o conhecimento da variância (que permite o cálculo do desvio
padrão).
Os intervalos podem ser construídos com diferentes coeficientes de confiança,
sendo em geral mais utilizados os intervalos de confiança de 95% ou 99%. A cada
coeficiente corresponde um valor crítico da distribuição, que é uma medida de distância
da estimativa pontual que se expressa em unidades de desvios padrão.
Para gerar os INTERVALOS DE CONFIANÇA para MÉDIA no SPSS clicar
em Analyze<Descriptive Statistics<Explore. Na caixa de dialogo que abrir inserir no
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
item DEPENDENT LIST a variável QUANTITATIVA de interesse. No item DISPLAY
selecionar o item STATISTICS. Clicar na opção STATISTICS e na caixa de dialogo
EXPLORE: STATISTICS estará selecionada a opção DESCRIPTIVES-CONFIDENCE
NTERVAL FOR MEAN: ( )%. No item que contém o valor 95 poderá ser inserido o
valor de INTERVALO DE CONFIANÇA de interesse, porém o mais usual é o de 95%.
5% TrimmedMean - Esta é a média que seria obtida se 5% da parte inferior e
superior de valores da variável forem suprimidos. Se o valor de5% TrimmedMean é
muito diferente da média, isto indica que há alguns valores aberrantes. No entanto, você
não pode assumir que todos os valores extremos foram removidos da média aparada.
Além de informar sobre a variabilidade/dispersão de estimativas pontuais, os
intervalos de confiança podem também expressar a “significância estatística” dos testes
referentes às comparações de MÉDIAS.
Por exemplo, é possível comparar os INTERVALOS DE CONFIANÇA para
MÉDIA de IDADE entre os SEXOS. Porém para fazer isto teremos que recorrer
novamente ao recurso SPLIT FILE e inserir a variável SEXO.
Nos resultados apresentados no quadro abaixo é possível observar que o
INTERVALO DE CONFIANÇA da IDADE para o sexo MASCULINO não contém o
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
INTREVALO DE CONFIANÇA do sexo FEMININO. Isto indica que com 95% de
confiança existe diferença entre as MÉDIAS de IDADE.
O INTERVALO DE CONFINÇA também pode ser representado graficamente
pelo gráfico ERROR BAR (barra de erros). Remover a opção inserida no SPLIT FILE,
clicar em Graphs<LegacyDialogs<Error Bar. Na caixa de dialogo ERROR BAR
selecionar SIMPLE e no item DATA IN CHART ARE selecionar SUMMARIES FOR
GROUPS OF CASES, e clicar em DEFINE.
Na caixa de dialogo que se abrir inserir no item VARIABLE a variável
QUANTITATIVA e no item CATEGORY AXIS a variável QUALITATIVA que
divide os grupos de análise. Em seguida clicar em OK. É possível observar que os
INTERVALOS DE CONFIANÇA da IDADE para os SEXOS não se cruzam, o que
confirma a diferença entre os grupos.
Descriptives
SEXO Statistic Std. Error
MASCULINO IDADE (anos) Mean 23,212
,4752
95% Confidence Interval for
Mean
Lower Bound 22,273
Upper Bound 24,151
FEMINIO IDADE (anos) Mean 21,114
,2658
95% Confidence Interval for
Mean
Lower Bound 20,592
Upper Bound 21,637
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Há situações, por exemplo, num teste de comparação de duas MÉDIAS, onde
INTERVALO DE CONFIANÇA analisado é da diferença entre as MÉDIAS. Nesta
situação quando o INTERVALO DE CONFIANÇA da diferença das MÉDIAS contém
o valor zero indica que a diferença não é significante, ou seja, que não existe diferença
entre as médias. Porém se não contém o valor zero as médias são diferentes,
Por exemplo, ao realizar medidas repetidas da GLICEMIA antes e depois de
uma intervenção foi calculada a diferenças entre os dois momentos, que é chamado de
delta variação (∆). Neste exemplo é possível verificar que o INTERVALO DE
CONFIANÇA contém o valor zero, ou seja, as MÉDIAS são iguais.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Apesar do Intervalo de Confiança poder ser utilizado para análise de dados
qualitativos isto será discutido no próximo módulo.
4. TESTE “t” PARA UM ÚNICO GRUPO
Vamos supor que o pesquisador tenha realizado um estudo descritivo com o
propósito de investigar a média da população para uma variável quantitativa. Após ter
calculado os parâmetros da estatística descritiva ele gostaria de saber se está média
difere ou não da população de onde os dados se originaram (supondo que se conheça
está média), de outras populações, da média observada em outros estudos publicados ou
ainda de valores de referência para a variável investigada.
Um recurso estatístico para isto é o “teste t para um único grupo”. Utilizando
a planilha de dados utilizaremos com exemplo a variável IMC. Sabendo que os valores
de IMC que representam um estado nutricional normal (eutrófico) variam entre 18,5 a
24,9 Kg/m
2
, e a média entre estes valores é de 21,7 Kg/m
2
, vamos testar se a média de
IMC da amostra estuda difere da média considerada normal para os valores de IMC,
com também dos limites inferiores e superiores.
Clicar em Analyze< Compare Means < One-Sample T test. Na caixa de
dialogo que abrir inserir em Teste Variables (s): a variável quantitativa de interesse, em
nosso caso o IMC. Em Teste Value inserir o valor a ser confrontado, em nosso exemplo
o valor de 21,7 Kg/m
2
. Como agora já temos informações sobre a análise do Intervalo
de Confiança (IC) podemos clicar no item Options e selecionar o IC de interesse. Em
seguida clicar em Continue e depois em OK.
No Output serão produzidos dois quadros. O primeiro, “One-Sample
Satatistic”, contém a estatística descritiva com o tamanho da amostra (N), a média
(Mean), o desvio-padrão (Std. Deviation) e o erro padrão da média (Std. Error Mean).
Statistic Std. Error
DIFERENÇA GL2-GL1 Mean ,0000
,93666
95% Confidence Interval for
Mean
Lower Bound -1,8404
Upper Bound 1,8404
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
No segundo quadro, “One-Sample Teste”, é apresentado os resultados do teste
estatístico. Na parte superior do quadro é apresentado o valor testado (Test Value) e
embaixo o valor do “t crítico” (t), o grau de liberdade (df), o valor de “p” para a
estatística bicaudal ( para obter o valor de “p” (Sig. (2-tailed)) para a estatística
unicaudal basta dividir o valor de “p” bicaudal por 2), a média da diferença (Mean
Difference) e o Intervalo de Confiança da Diferença (95% Confidence Intervalo f the
Difference) com os valore inferior (Lower) e superior (Upper).
O resultado indica que existe uma diferença significativa entre a média de IMC
da amostra estuda e o valor de referência de 21,7 Kg/m
2
, pois, o valor de “p” é 0,0001,
ou seja, existe pouca probabilidade desta diferença estar associada ao acaso. Assim é
possível dizer que a média do IMC é significativamente maior que o valor de referência
de 21,7 Kg/m
2
.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
5. TESTANDO DIFERENÇAS ENTRE MÉDIAS: TESTE “t”
Em situações onde se possui dois grupos de comparação e se pretende analisar
(comparar) as diferenças entre as médias, a forma mais simples de se fazer um
experimento é manipular uma só variável de duas maneiras e medir somente uma saída.
A manipulação da variável independente, ou seja, a variável que categoriza os grupos,
em geral envolve ter uma condição experimental e um grupo-controle.
O teste “t” para analisar este cenário e existem dois tipos de teste “t”:
- Teste “t” para amostras independentes: esse teste é utilizado quando existem duas
condições experimentais em sujeitos diferentes em cada grupo de comparação, ou seja,
amostras não pareadas.
- Teste “t” para amostras dependentes: esse teste é utilizado quando existem duas
condições experimentais aplicadas nos mesmos sujeitos em momentos diferentes, ou
seja, amostras pareadas. Está situação se caracteriza por medidas repetidas de um
mesmo grupo, porém em momentos diferentes e em condições diferentes.
Os dois testes têm fundamentação semelhante:
- Duas amostras de dados são coletadas e a média das amostras é calculada. Estas
médias podem diferir muito ou pouco;
- Se as amostras vêm da mesma população esperamos que suas médias não fossem
diferentes (diferença das médias é ZERO). Embora seja possível que as médias difiram
pelo acaso, grandes diferença devem ocorrer com pouco frequência (distribuição normal
– Histograma).
- Se a diferença entre as médias for maior do que esperamos considerando o erro padrão
é possível presumir que:
a) Que as médias das amostras da população variam muito somente por acaso e temos,
por acaso, coletado dados atípico desta população;
b) As duas amostras vêm de populações distintas, mas os valores são típicos de suas
respectivas populações originais, o que representa um diferença real entre as médias.
Tanto o teste “t” dependente ou independente são teste paramétricos baseados
na distribuição normal e devem analisar dados normalmente distribuídos e medidos
pelos menos em escala de medida intervalar. O teste “t” independente, que compara
grupos de sujeitos diferentes, também deve considerar que ass variâncias populacionais
são iguais, o que é analisado pelo teste de Levene que avalia a Homogeneidade das
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Variâncias, e que os escores (dados) são independentes, ou seja, os grupos são
excludentes.
6. TESTES ESTATÍSTICOS PARA COMPARAÇÃO DE DUAS MÉDIAS
PAREADAS.
Quando o pesquisador pretende comparar duas médias obtidas de uma mesma
amostra em condições diferentes e a variável analisada é quantitativa e com distribuição
normal recomenda-se o a aplicação do teste “t” pareado.
Para analisar a distribuição de normalidade recomenda-se utilizar o teste de
Shapiro-wilk quando a amostra for pequena (<30) ou o teste de Kolmorogov-smirnov
quando a amostra é grande (≥ 30). Porém os pesquisadores podem discordar em relação
o que é uma amostra pequena ou grande, assim amostras com até 50 elementos
amostrais podem requerem o teste de Shapiro-wilk.
A equação do teste “t” pareado comparar a diferença média entre das
observações da amostra (D) com a diferença da que devemos esperar encontrar entre as
médias populacionais (µ
d
) e, então, leva em conta o erro padrão das diferenças (S
d
/√n).
t= D- µ
d
/ S
d
/√n
Se a H0 for verdadeira é esperado que não exista diferença entre as médias.
Isto faz sentido, porque em um delineamento de medidas repetidas a diferença entre as
duas condições de medida podem ser causadas somente por dois fatores: 1) a
manipulação (experimento) da variável independente; ou 2) qualquer outro fator
individual que possa modificar a forma com que o sujeito e não controlado que possa
influenciar a medida.
Desta forma em estudos experimentais de medidas, tanto de medidas repetidas
amostras dependentes, quanto de amostras independentes estão condições estão
associadas a dois tipos de variação. A situação 1 refere-se a variação sistemática que
ocorre devido a influência do pesquisador e representado o efeito que se está
investigando. A situação 2 refere-se a variação não-sistemática que resulta de fatores
aleatórios.
Em estudos de medidas repetidas a principal variação é produto da variação
sistemática e pouco do efeito é atribuído a variação não-sistemática. Esse se deve
porque o mesmo elemento amostral é submetido às duas condições experimentais e as
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
diferenças nas médias da variável quantitativa se deva principalmente pela exposição as
diferentes condições experimentais.
Desta forma, na equação acima a diferença entre as médias (D) representa o
efeito (variação sistemática) e desvio padrão (S
d
) a variação não-sistemática. Assim
quanto maior o desvio-padrão e menor o tamanho da amostra, maior será o erro padrão
da média (S
d
/√n) e menores a chances de se observar diferenças significativas entre as
médias.
Assim se a manipulação experimental criar qualquer tipo de efeito, a variação
sistemática (Diferença) será bem maior do a variação não-sistemática e o valor de “t”
será no mínimo maior que 1. Por outro lado, se a manipulação experimental não for bem
sucedida, a variação causada por diferenças individuais (não-sistemática) será bem
maior do que o efeito da intervenção produzindo um valor de “t” menor que 1.
Para produzir o teste “t” no SPSS clicar em Analyze < Compare Means <
Paired-Sample T Teste. Supondo que se pretenda analisar o efeito da intervenção
sobre os valores de glicemia de jejum, onde foram realizadas medidas de glicemia em
duas condições. A glicemia Pré representa a medida antes da intervenção com
orientações sobre exercício físico e a glicemia Pós a medida de glicemia 6 meses após o
início das orientações sobre exercício físico.
Na caixa de dialogo que abrir selecionar o par de variáveis que será analisada
na lista de variáveis e inserir em Paired Variables. Em Options é possível alterar o
Intervalo de Confiança para a média da diferença. Após inserir as variáveis clicar em
OK.
No Output o primeiro quadro (Paired Sample Statistic) apresenta a estatística
descritiva com valores de média (Mean), tamanho da amostra (N), o desvio-padrão (Std.
Deviation) e o erro padrão da média (Std. Error Mean).
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
No segundo quadro (Paired Sample Correlations) o SPSS apresenta a
correlação de Pearson que analisa a relação entre os dois médias. Quando medidas
repetidas são usadas, é possível que as condições experimentais se correlacionem.
Valores significativos quanto a correlação indicam que as variações entre as momentos
são semelhantes entre os elementos da amostra. Valores de correlação (Correlation)
próximo de 1 indicam alta correlação e próximo de 0 (zero) baixa correlação. Ainda no
quadro de correlação é apresentado o valor de “p” (Sig) que indicam se a correlação é
significativa. No caso abaixo é possível observar que as condições pré e pós apresentam
baixa correlação (r=0,043) e não são significativas, pois, o valor de “p” (0,345) é maior
0,05.
No terceiro quadro (Paired Samples Test) o Output do SPSS apresenta a
diferença da média (Mean) onde valores positivos indicam uma redução da média e
valores negativos indicam aumento. Ainda no item Paired Differences é apresentado o
desvio-padrão da diferença entre as médias (Std. Deviation) e o erro padrão das
diferenças entre os escores dos participantes em cada condição (Std. Error Mean). Além
disso, é possível verificar o Intervalo de Confiança (95% Condidence Intervalo of the
Difference). Como IC 95% da média da diferença não inclui o valor zero é possível
dizer que existe diferença significativa entre as médias.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Na continuidade deste quadro temo o valor do teste “t” e o grau de liberdade
(df) que será importante para calcular o tamanho do efeito. O valor de “p” (p=0,0001)
para o teste “t” bicaudal (Sig.(2-tailed)) é inferior a 0,05, o que indica que a
probabilidade das diferenças estarem relacionadas ao acaso é muito baixo, portanto a
diferenças entre as médias são reais e consideradas estatisticamente significativas.
O valor de “p” quanto é menor que 0,0001 costuma-se apresentar o valor de
0,0001. No caso do teste acima o valor de p é igual a 8.275102872521461E-6, que
representa o valor de 0,0000008275102872521461. Lembre ainda que para obter o valor
de “p” para o teste unicaudal basta dividir o valor do teste bicaudal por 2.
Embora o teste “t” para amostras pareadas tenha apresenta significância
estatística, isso não quer dizer que nosso efeito seja importante em termos práticos. Para
descobrir se o efeito é importante, precisamos calcular o Tamanho do Efeito. Cohen
(1988, 1992) classificou o tamanho do efeito em:
- r = 0,10 (efeito pequeno): nesse caso o efeito explica 1% da variância total;
- r = 0,30 (efeito médio): neste caso o efeito explica 9% da variância total;
- r = 0,50 (efeito grande): neste caso o efeito explica 25% da variância total.
Para calcular o Tamanho do Efeito “r” (Rosnow & Rosenthal, 2005, p.328)
que utiliza a seguinte equação:
r = √ t
2
/ (t
2
+ df)
Utilizando os resultados da análise acima onde t=4,506 e df= 491. O grau de
liberdade (df) é calculado pela equação df=n-1, sendo “n” o tamanho da amostra.
r = √ 4,506
2
/ (4,506
2
+ 491)
r = √ 20,30/ (20,30 + 491)
r = √ 0,03970= 0,19 (efeito médio).
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Porém o que fazer se os dados da variável quantitativa de interesse não
apresentarem Distribuição Normal, mesmo após a tentativa de ajustar estes dados?
Felizmente existe uma opção não-paramétrica para comparar medidas repetidas
em duas condições diferentes quando os dados quantitativos não apresentam
Distribuição Normal, ou mesmo, quando se tem variáveis em escala de medida discreta
ou ainda variáveis qualitativas em escala de medida ordinal. A opção não-paramétrica
para está situação é o teste dos postos com sinais de Wilcoxon, porém quando a
variável for qualitativa em escala ordinal é necessário que a variável apresente no
mínimo 3 categorias de resposta.
O teste de Wilcoxon para amostras pareadas funciona de forma semelhante ao
teste “t” para amostras pareadas, uma vez que ele tem por base as diferenças entre os
escores nas duas condições de comparação. Depois de calculadas, essas diferenças são
transformadas em postos, mas o sinal da diferença (positivo ou negativo) é atribuído a
cada posto. Quando a diferença é ZERO o dado é apresentado na análise descritiva, mas
excluído da análise.
Como podemos observar no quadro abaixo os valores de glicemia de jejum não
apresentaram Distribuição Normal para as condições pré e pós-intervenção para ambos
os testes, pois, os valores de “p” (Sig.) são inferiores a 0,05. Deste modo, é
recomendado que se realize o teste não-paramétrico.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Para realizar o teste dos postos com sinais de Wilcoxon no SPSS clicar em
Analyze < Nonparametric Tests < Legacy Dialogs < 2 Related Sample. Na caixa de
dialogo que abrir selecionar o par de variáveis relacionadas as condições de medida e
inserir Test Pairs. O teste de Wilcoxon está pré-selecionado e em Test Type é possível
selecionar outro tipos de teste que serão discutidos no próximo módulo.
Se clicar em Exact que tem o método Método Assintótico (Asymptotic only)
pré-selecionado e é um método preciso para amostras grandes. Quando se tem amostras
pequenas recomenda-se o uso do teste Exact. O método de Monte Carlo é uma outra
opção para amostras pequenas e produz o Intervalo de Confiança para o valor de
significância.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Em Options é possível selecionar a estatística descritiva e a distribuição do
quartil. Após selecionar as opções desejadas retornar a caixa de dialogo principal e
clicar em OK.
No Output o teste de Wilcoxon além da estatística descritiva selecionadas,
apresenta um quadro (Ranks) com os resultados dos postos negativos (Negative Ranks),
postos positivos (Positive Ranks), Iguais (Ties) e total. Também apresenta a média dos
postos positivos e negativos (Mean Ranks), e a soma dos pontos (Sumo f Ranks). Na
base da quadro é possível observar as letra “a”, “b” e “c” que indicam o significado dos
postos negativos, positivos e iguais.
No quadro Test Statistics
b
é apresentado os resultados do teste de Wilcoxon. O
valor de “t” é convertido em “escore-z” e a vantagem dessa abordagem é que ela
permite que o valor exato da significância seja calculado com base na distribuição
normal. Em Asymp. Sig. (2-tailed) é apresentado o valor de “p” correspondente a
estatística bicaudal. O teste de Wilcoxon indica que existe uma diferença significativa
entre as condições pré e pós-intervenção, pois, o valor de “p” é menor que 0,05,
indicando que a probabilidade (chance) de as diferenças estarem relacionados ao acaso
ser menor que 5%.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
O Tamanho do Efeito também pode ser calculado para o teste de Wilcoxon
pelo valor de “r” utilizando o “escore-z” e o número de observações (N). Com a amostra
tem 492 elementos amostrais que foram medidos duas vezes temos no exemplo dado
984 observações.
r= escore-z / √N
r= -5,631/ √ 984
r= -5,631/ 31,36
r= 0,17 (efeito médio)
7. TESTES ESTATÍSTICOS PARA COMPARAÇÃO DE DUAS MÉDIAS
INDEPENDENTES
O teste “t” para amostras independentes deve ser utilizado quando se pretende
comparar dois grupos de elementos amostrais diferentes. Deste modo, que faz parte de
um grupo não poderá fazer parte do outro grupo. Além disso, o teste “t” independente
também é baseado na distribuição de normalidade, de modo que, os dados quantitativos
devem ser testados quanto a aderência ao pressuposto de Distribuição Normal.
Para avaliar a Distribuição de Normalidade deveremos utilizado o teste de
Shapiro-wilk quando a amostra for pequena (<30) ou o teste de Kolmorogov-smirnov
quando a amostra é grande (≥ 30). Porém aqui, além da Distribuição normal, também
será necessário testar a Homogeneidade das Variâncias pelo teste de LEVENE.
Vale destacar que diferente do teste “t” pareado, que tem a variação aleatória
minimizada por medidas repetidas do mesmo sujeito, o teste “t” não pareado
(independente) se caracteriza por grupos diferentes, o que acentua a variação aleatória
por conta das diferenças individuais que não podem ser controladas.
O teste “t” independente, portanto é baseada nas diferenças entre as médias das
amostras, ou seja, a diferença entre pares de dados de grupos diferentes e espera-se que
a diferença entre os pares seja semelhante. Deste modo, o teste “t” independente é
representado pela divisão entre as diferenças entre as médias das amostras pelo desvio
padrão da distribuição amostral (erro padrão da distribuição amostral).
Vale lembrar que para gerar a análise do teste “t” independente no SPSS é
necessário que a seja gerar uma variável qualitativa que identifique os grupos de
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
comparação. Está variável de codificar os grupos para permitir sua comparação da
variável quantitativa de interesse entre os grupos.
Para gerar as analises do teste “t” independente no SPSS clicar em Analyze <
Compare Means < Independent Sample T Test. Vamos supor que a hipótese nula
seja a de que não existe diferença entre o sexo masculino e feminino quanto as valores
de glicemia de jejum. Na caixa de dialogo que abrir inserir em Test Variable (s) a
variável quantitativa que se pretende comparar as médias. Em Grouping Variable inserir
a variável qualitativa que categoriza os grupos de comparação e em seguida clicar em
Define Groups. Em Define Groups inserir os códigos correspondentes as grupos de
comparação. Caso não tenha codificado a variável qualitativa na aba Variable View na
tabulação poderá utilizar a opção Cut point e o SPSS irá atribuir todos os casos maiores
ou iguais ao ponto de corte em um grupos e todos os caso menores que o ponto de corte
em outro grupo. Após codificar aos grupos em Define Groups clicar em Continue. De
volta a caixa de dialogo de origem você ainda poderá clicar em Options e modificar o
Intervalo de Confiança caso deseje. Inserir as variáveis e os códigos necessário clicar
em OK.
No Output do teste “t” independente são apresentados dois quadros. O primeiro
quadro (Group Statistics) é apresentado a estatística descritiva com o número de
observações por grupos (N), média (Mean), desvio-padrão (Std. Deviation) e erro
padrão da média (Std. Error Mean) para ambos os grupos de comparação.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
No segundo quadro (Independent Samples Test) são gerados dois valores de
“p” (Sig (2-lailed)), sendo um associado quando o pressuposto de Homogeneidade das
Variâncias é assumido e outro quando este pressuposto não é assumido. Para verificar
se o pressuposto de Homogeneidade das Variâncias foi atendido, basta observar o valor
de “p” (Sig) produzido em Levenes´s Test for Equality of Variances, onde valores de
“p” <0,05 indicam que o pressuposto não foi atendido devendo observar os valores
contidos na análise que não assume a igualdade das variâncias (Equal variances not
assumed). Por outro lado, se o teste de Levene apresentar valores de “p” ≥ 0,05 deverá
ser observado os valores contidos na análise que assume a igualdade das variâncias
(Equal variances assumed).
Em t-teste for Equality of Means é possível observar o valor de “t”, o grau de
liberdade (df), o valor de “p” (Sig (2-lailed)), a média da diferença (Mean Difference), o
erro padrão da diferença (Std. Error Difference) e o Intervalo de Confiança de 95% da
diferença (95% Confidence Intervalo of the Difference). No resultado do quadro abaixo
pode observar que a igualdade das variâncias foi assumida e o teste “t” gerou um valor
de “p” de 0,674 que indica que não existe diferenças significativas entre as média, ou
seja a probabilidade das diferenças estarem associadas ao acaso é maior que 5% (0,05).
Para calcular o Tamanho do Efeito (r) para o teste “t” independente, será
utilizado o valor de “t” (-0,420) e o grau de liberdade (df) para o teste que assume a
igualdade das variâncias (490).
r= √t
2
/ (t
2
+ df)
r= √-0,420
2
/ (-0,420
2
+ 490)
r= √0,1764 / (0,1764
+ 490)
r= √0,1764 / 490,1764
r= √0,0000359
r= 0,018 (sem efeito).
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Embora a Homogeneidade das Variâncias tenha sido atendida os dados de
glicemia de jejum não apresentaram distribuição normal, o que indica a necessidade do
uso de uma versão não-paramétrica para comparação entre dois grupos independentes.
As opções não-paramétricas para o teste “t” independente são o teste de Mann-
Whitney ou o teste de Soma dos Postos de Wilcoxon. Ambos os testes organizam os
valores (escores) do menor para o maior valor e em ordem crescente é atribuído o
postos independente do grupo de comparação.
Após a ordenação dos postos é determinado os postos reais. Quando existem
valores repetidos é calculada a média dos postos com no exemplo do quadro abaixo para
os valores de glicemia de jejum de Homens (1) e Mulheres (2).
SEXO GLICEMIA PRÉ (mg/dl) POSTO POSTO REAL
2 86 1 1
2 93 2 2
1 96 3 3
1 97 4 4
2 99 5 5
1 100 6 6,5
2 100 7 6,5
1 102 8 8,5
2 102 9 8,5
1 103 10 10,5
2 103 11 10,5
2 104 12 12
2 105 13 13
1 106 14 14
2 107 15 15
2 109 16 16
2 110 17 17
1 115 18 18
2 117 19 19
1 136 20 20
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Aqui abordaremos somente o teste de Mann-Whitney como opção não-
paramétrica para o teste “t” independente, que calcula o valor de “p” baseado na soma
dos postos e não nos valores exatos da variável quantitativa.
Para gerar a análise de Mann-Whitney no SPSS clicar Analyze <
Nonparametric Test < Legacy Dialogs < 2 Independent Sample. Na caixa de dialogo
que abrir o teste de Mann-Whitney está pré-selecionado, porém se não estiver você
poderá selecionar. Inserir em Test Variable List a variável quantitativa que se pretende
analisar. Em Grouping Variable inserir a variável qualitativa que define os grupos de
comparação e em seguida clicar em Define Groups para inserir os códigos atribuídos
para identificação dos grupos.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Na opção Exact por padrão o SPSS calcula a significância do teste de Mann-
Whitney utilizando um método que é preciso amostra grandes (Asymptotic only).
Porém em amostra pequenas é possível utilizar um teste de maior precisão na opção
EXACT. Outra opção para correção de amostras pequenas é o teste de Monte Carlo.
Após selecionar os parâmetros de análise voltar na caixa de dialogo inicial e
clicar e OK. No Output o SPSS produz o quadro Ranks que apresenta número de
elementos amostrais em cada grupo (N), a média dos postos (Mean Rank) e a soma dos
postos (Sumo of Ranks). Isto se refere a estatística descritiva que a média dos homens é
maior do que das mulheres. Lembre que também é possível a estatística descritiva da
variável quantitativa clicando em Options na caixa de dialogo inicial
No segundo quadro (Test Statistics
a
) contém os resultados da estatística de
Mann-Whitney U, de Wilcoxon W, escore-z e valor de “p” (Asymo.Sig. (2-tailed). Aqui
o valor de “p” indica que existe diferenças significativas entre os sexos em relação ao
valor de glicemia de jejum (p=0,0001). Vale lembrar que quando os grupos foram
comparados pelo teste “t” independente os valor de “p” (p=0,674) não foi identificado
diferenças significativas entre os sexo. Está situação destaca a importância de se optar
pó um teste não-paramétrico quando os dados quantitativos não apresentam distribuição
normal.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Como visto anteriormente o SPSS não calcula o tamanho do efeito (r), porém
ele fornece as informações necessárias. Para isto utilizamos o escore-z (Z) contido no
quadro Test Statistic
a
e o tamanho da amostra (N) com descrito na equação abaixo:
r= Z /√ N
r= -5,349/ √ 492
r = -5,349/ 22,18
r= 0,24 (efeito médio)
8. TESTE DE ESTATÍSTICOS DE CORRELAÇÃO ENTRE DUAS
VARIÁVEIS QUANTITATIVAS
O teste de correlação tem como propósito analisar se duas variáveis
quantitativas estão associadas e se elas variam conjuntamente. Para isto são utilizadas
duas medidas: a covariância e o coeficiente de correlação.
A covariância (cov) pode ser calculada pela equação abaixo, que é representa
pelo produto da diferença entre as variáveis “x” e “y”, dividido pelo tamanho da
amostra (n) menor 1. A diferença é representada pela diferença da média de cada
elemento. Para ilustrar o cálculo da covariância foi utilizado os dados de Frequência
Cardíaca (FC) e de Glicemia de Jejum (GL) do quadro abaixo.
cov (x,y) = ∑ (x
i
– x)*(y
i
– y)/ (n-1)
cov (x,y) = -2,5/ (20-1)
cov (x,y) = - 0,131
O coeficiente de correlação momento-produto de Pearson é calculado
dividindo a covariância pelo produto dos desvios-padrão das variáveis “x” e “y”,
representado na equação abaixo. Ainda utilizado os dados de FC e GL, com desvios-
padrão (S) de 13,12 e 10,28 respectivamente segue abaixo a equação e os cálculos do
coeficiente de correlção.
r = cov (x,y)/ S
x *
S
y
r = - 0,131/ (13,12 * 10,28)
r = -0,0009
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Os mesmos valores foram produzido no SPSS, porém no SPSS são
apresentados da seguinte maneira -0,0001 ou -9.750051169889752E-4 que representa -
0,000975. O coeficiente de correlação de Pearson está apresentado em Pearson
Correlation.
FC GL FC dif média GL dif média produto dif FC*GL DP FC DP GL
71 110 4,85 5,5 26,675 13,12 10,28
55 105 -11,15 0,5 -5,575 Média FC Média GL
74 115 7,85 10,5 82,425 66,15 115
85 100 18,85 -4,5 -84,825
57 117 -9,15 12,5 -114,375
70 102 3,85 -2,5 -9,625
75 102 8,85 -2,5 -22,125
72 99 5,85 -5,5 -32,175
65 136 -1,15 31,5 -36,225
72 107 5,85 2,5 14,625
42 96 -24,15 -8,5 205,275
48 86 -18,15 -18,5 335,775
58 109 -8,15 4,5 -36,675
64 106 -2,15 1,5 -3,225
68 100 1,85 -4,5 -8,325
59 103 -7,15 -1,5 10,725
97 93 30,85 -11,5 -354,775
48 103 -18,15 -1,5 27,225
65 97 -1,15 -7,5 8,625
78 104 11,85 -0,5 -5,925
-0,000975005
20
-2,5
n
covariância
-0,131578947
Correlação
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
O coeficiente de correlação varia de -1 a +1, onde -1 representa uma correlação
negativa, e +1 representa uma correlação positiva. O valor de 1, independente de
positivo ou negativo representa a correlação perfeita entre as variáveis “x” e “y”. Por
outro lado o valor ZERO representa ausência de correlação. Os coeficiente de
correlação pode ser interpretados da seguinte forma (DAWSON & TRAPP, 2001):
- 0, a 0,25 – inexistente a baixo
-0,25 a 0,50 – baixo a moderado
-0,50 a 0,75 – moderado a alto
- ≥ 0,75 – alto.
Para realizar a análise de correlação bivariada no SPSS clicar a Analyze <
Correlate < Bivariate. Na caixa de dialogo que abrir inserir em Variables as variáveis
quantitativas que se pretende analisar. O coeficiente de correlação de Pearson está pré-
selecionado em Correlations Coefficients. Neste item também está disponível os
coeficientes de correlação de Kendall-s tua-b e de Spearman, porém estes são versões
não-paramétrica que serão discutidas mais a frente. Em Testo f Signifcance existe a
opção do teste bicaudal (Two-tailed) ou unicaudal (One-tailed). Quando o item Flag
significant correlations estiver selecionado os coeficiente de correlação significativos
serão indicado com *, sendo * para p≤0,05 e ** para p≤0,001.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Ao clicar em Options poderá selecionar as opções Means and Standard
deviations (média e desvio-padrão), e a opção Cross-product deviation and covariances
que apresenta o desvio do produto cruzado e os valores de covariância. Após selecionar
os parâmetros desejados voltar a caixa de dialogo original e clicar em OK.
No Output o quadro Descriptive Statistics apresenta os valores de Média
(mean) e desvio-padrão (Std. Deviation) das variáveis. No quadro seguinte
(Correlations) são exibidos os valores do coeficiente de correlação de Pearson (Pearson
Correlation), o valor de “p” para o teste bicaudal (Sig. (2-tailed)), a soma dos quadrados
e produtos cruzados (Sum of Square and Cross-products) e os valores de covariância
(Covariance).
O valor de r= -0,064 indica uma correlação negativa e muita baixa devido a
proximidade de zero. Além disso é importante lembrar que não se deve basear suas
conclusões somente pelo coeficiente de correlação, é importante analisar o valor “p”
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
que indica a probabilidade deste coeficiente de correlação ter ocorrido por acaso na
amostra. Na análise de correlação de Pearson acima a significância foi de p=0,159, que
indica que a probabilidade deste valores de correlação terem ocorrido ao acaso é maior
que 5%.
Utilizando o R
2
para a interpretação
Embora não possamos tirar conclusões diretas sobre casualidade, podemos
levar o coeficiente de correlação um passo a frente elevando-o ao quadrado, o que é
conhecido como coeficiente de determinação (R
2
). O R
2
é uma medida da quantidade
de variação em uma variável que é explicada pela variação de outra variável. Se
convertermos este valor em porcentagem temos o percentual de explicação. Usando o
exemplo da FC e GL, se o objetivo da análise fosse utilizar os valores de FC para prever
os valores de glicemia observaríamos que a FC explica somente 0,4% (0,064
2
= 0,004 =
0,4%) da variação da GL.
Vale lembrar ainda que o teste de correlação de Pearson deva ser utilizado
somente quando os dados das variáveis quantitativas apresentam distribuição normal.
Como podemos observar na análise da distribuição de normalidade abaixo as variáveis
glicemia e frequência cardíaca não apresentam distribuição normal, portanto é
necessário a uso de uma versão não-paramétrica para analisar estes resultados.
A opção não-paramétrica para analisar a correlação de variáveis quantitativas
que não apresentam distribuição normal é o teste de Spearman que também organiza os
dados em postos. O caminho para gerar a análise de correlação de Spearman é o mesmo
da correlação de Pearson, exceto que no item Correlation Coefficients deverá ser
selecionado a opção Spearman.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
No Output os valores do coeficiente de correlação de Spearman estão
representado no item Correlation Coefficient (r=-0,071) e o valor de “p” (p=0,114) para
o teste bicaudal em Sig.(2-tailed). Elevando o valor de r ao quadrado temos o valor do
R
2
=0,0012. O teste de correlação de Spearman também pode ser utilizado em situações
que tem variáveis qualitativas em escala de medida ordinal.
Porém quando se tem amostras pequenas com dados quantitativos sem
distribuição normal ou dados qualitativos em escala ordinal com baixo número de
categorias de resposta, ou ainda uma das variáveis do tipo qualitativa o teste estatístico
para análise de correlação indicado é o teste de Tau de Kendall.
No SPSS seguir o mesmo caminho do teste de correlação de Pearson, porém
em item Correlation Coefficients selecionar a opção Kendall´s Tau-b, selecionar as
variáveis e clicar em OK. Os resultados são apresentados no Output semelhante ao teste
de Spearman.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Correlação Parcial
A correlação parcial é utilizada quando se pretende controlar o efeito de uma
terceira variável na relação entre duas variáveis. Vamos utilizar como exemplo as
variáveis, massa corporal, estatura e índice de massa corporal (IMC).
Inicialmente vamos explorar o comportamento destas variáveis através do
gráfico de dispersão matricial clicando na opção Graphs < Legacy Dialogs <
Scatter/Dot. Na caixa de dialogo que abrir selecionar a opção Matrix Scatter e clicar em
Define.
Na caixa de dialogo Scatterplot Matrix inserir na opção Matrix Variable as
variáveis de interesse e clicar na opção OK. Na análise do gráfico é possível observar
que a relação da estatura com a massa corporal e com o IMC é positiva.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Para analisar o coeficiente de correlação entre as variáveis deve ser realizado o
teste de correlação, porém antes verifique se os dados quantitativos têm distribuição
normal. O teste de normalidade indica que devemos utilizar um teste não-paramétrico
para analisar a correlação. Como temos um amostra grande (n=492; >30 elementos
amostrais) vou optar pelo teste de Spearman.
Considerando que a pergunta do pesquisador é analisar a relação da estatura
com o IMC, porém gostaria de considerar que a massa corporal também influencia o
IMC e saber o quanto da relação da estatura e IMC é influenciada pela massa corporal.
A princípio analisando a tabela abaixo observamos uma correlação positiva e
significativa (p=0,0001) entre IMC e Estatura (r = 0,252) e um R
2
=0,06 que indica que a
variação de estatura explica somente 6% da variação no IMC. A massa corporal
apresentou correlação significativa (p=0,0001) e positiva (r=0,861) com o IMC, para
um R
2
=0,741 que indica que 74,1% da variação no IMC é representado pela massa
corporal.
Desta forma para analisar a relação entre estatura e IMC, controlando o efeito
da variável massa corporal sobre a variável estatura deve ser utilizado a correlação
Parcial. No SPSS clicar em Analyze < Correlate < Partial. Na caixa de dialogo que
abrir selecionar as variáveis analisadas em Variables e a variável de controle em
Controlling for.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
Se inicialmente foi verificado um correlação positiva de 0,252 (p=0,0001) e um
R
2
=0,06 que indica que a variação de estatura explica somente 6% da variação no IMC.
Com o controle da influência da massa corporal é possível verifica que a correlação
permanece significativa (p=0,0001), porém agora está é negativa (r=-0,875), ou seja, o
aumento na estatura inicialmente contribuía com o aumento do IMC, mas agora o
aumento da estatura se relaciona com a redução do IMC. O R
2
de 0,765 indica agora
que o aumento da estatura explica 76,5% da redução do IMC, após o controle da
variável massa corporal pela análise da correlação Parcial.
Estatística Aplicada para Iniciantes – Módulo 2 – Estatística Analítica I
BIBLIOGRAFIA
1. BARROS, M. e REIS, R. Análise de dados em atividade física e saúde:
demonstrando a utilização do SPSS. Londrina: Midiograf, 2003.OLIVEIRA,
F.E.M. SPSS Básico para análise de dados. 1 ed. Rio de Janeiro: Editora Ciência
Moderna, 2007, 185p.
2. DAWSON, B.; TRAPP, R.G. Bioestatística básica e clínica. 3 ed.Rio de Janeiro:
McGraw-Hill, 2001.
3. DORIA FILHO, U. Introdução á bioestatística: para simples mortais. 11º ed.
reimpressão. Editora Elsevier: Rio de Janeiro, 1999.
4. FIELD, A. Descobrindo a estatística usando o SPSS. 2 ed. Porto Alegre:
Artmed, 2009, 689p.
5. FONTELLES, M.J.;et al. Metodologia da pesquisa: diretrizes para o cálculo do
tamanho da amostra. Revista Paraense de Medicina. v.24, n.2. 2010
6. GLANTZ, S.A. Princípios de Bioestatística. 7 ed. Porto Alegre: Artmed, 2014,
306p.
7. HOCHMAN, B.; NAHAS, F.X.; OLIVEIRA FILHO, F.S.; FERREIRA, L.M.
Desenhos de pesquisa. Acta Cirúrgica Brasileira, v.20; Supl. 2; 2005.
8. LINDENAU, J.D.; GUIMARÃES, L.S.P. Calculando o tamanho do efeito no
SPSS. Rev. HCPA, Secção de Bioestatística, v.32, n.3, 2012.
9. LUNET, N.; SEVERO, M.; BARROS, H. Desvio Padrão e Erro Padrão. Notas
Metodológicas. Arquivos de Medicina, 2006.
10. MIOT, Hélio Amante. Tamanho da amostra em estudos clínicos experimentais. J
Vas Bras. 2011; 10 (4); 275-278.
11. PAES, A.T. Itens essenciais em Bioestatística. ArqBrasCardiol. v.71,n.4, p. 575-
580, 1998.
12. RIBAS, J.R.; VIEIRA, P.R.C. Análise multivariada com o uso do SPSS. 1 ed.
Rio de Janeiro: Editora Ciência Moderna, 2011, 272p.
13. VIEIRA, S. Introdução à bioestatística. 4
0
ed. Editora Elsevier: Rio de Janeiro,
2008.