Métodos estatísticos paramétricos e não paramétricos. Procedimentos paramétricos e não paramétricos para análise de dados estatísticos

A estratégia geral para avaliar as hipóteses estatísticas discutidas acima determina principalmente o uso dos chamados métodos paramétricos de estatística matemática.

Métodos paramétricos são baseados em algumas, via de regra, suposições bastante prováveis ​​sobre a natureza da distribuição de uma variável aleatória. Normalmente, os métodos paramétricos utilizados na análise de dados experimentais são baseados na suposição de que a distribuição desses dados é normal. Uma consequência desta suposição é a necessidade de estimar os parâmetros de distribuição em estudo. Assim, no caso do seguinte t -Student's test tais parâmetros estimados são a expectativa matemática e a variância. Em alguns casos, suposições adicionais são feitas sobre como os parâmetros que caracterizam a distribuição de uma variável aleatória em diferentes amostras se correlacionam entre si. Assim, no teste de Student, que muitas vezes é usado para comparar os valores médios (expectativa) de duas séries de dados quanto à sua homogeneidade ou heterogeneidade, é feita uma suposição adicional sobre a homogeneidade das variâncias da distribuição de variáveis ​​aleatórias no duas populações gerais das quais esses dados foram extraídos.

A vantagem dos métodos de análise de dados paramétricos é o fato de terem um poder bastante alto. Debaixo poder de teste tenha em mente sua capacidade de evitar erros do segundo tipo, ou β-erros. Quanto menor o erro β, maior o poder do teste. Em outras palavras, poder de teste = 1 - β.

O alto poder dos testes paramétricos, ou critérios, deve-se ao fato de que esses métodos exigem que os dados disponíveis sejam descritos em escala métrica. Como você sabe, as escalas métricas incluem a escala de intervalo e a escala de razão, que às vezes também é chamada de escala absoluta. Escala de intervalo permite ao pesquisador descobrir não apenas as relações de igualdade ou desigualdade dos elementos da amostra (como permite fazer escala de nomes ) e não apenas relações de ordem (como permite fazer escala de pedido ), mas também avaliar a equivalência de intervalos. Escala absoluta além disso, permite avaliar a equivalência das relações entre os elementos do conjunto obtidos durante a medição. É por isso que as escalas métricas são chamadas de escalas de medição fortes. Devido a esse poder, os métodos paramétricos permitem uma expressão mais precisa das diferenças na distribuição de uma variável aleatória sob a condição de que o marcador ou as hipóteses alternativas sejam verdadeiras.

Deve-se notar também que, em geral, os métodos paramétricos de estatística são mais desenvolvidos na teoria da estatística matemática e, portanto, são usados ​​muito mais amplamente. Quase todos os resultados experimentais podem ser avaliados usando qualquer um desses métodos. São esses métodos que são considerados principalmente em livros e manuais sobre análise de dados estatísticos.

Ao mesmo tempo, as dificuldades associadas ao uso de métodos de análise paramétrica em estatística são que, em alguns casos, suposições a priori sobre a natureza da distribuição das variáveis ​​aleatórias em estudo podem se mostrar incorretas. E esses casos são muito típicos da pesquisa psicológica em determinadas situações.

Então, se compararmos duas amostras usando t -Teste de estudante, você pode descobrir que a distribuição de nossos dados difere do normal, e as variações nas duas amostras diferem significativamente. Neste caso, a utilização de um teste de Student paramétrico pode, em certa medida, distorcer as conclusões que o investigador pretende tirar. Esse perigo aumenta se os valores das estatísticas calculadas estiverem próximos dos valores de limite dos quantis usados ​​para aceitar ou rejeitar as hipóteses. Na maioria dos casos, no entanto, como, por exemplo, no caso de utilização de t -teste, alguns desvios de pressupostos teoricamente dados não são críticos para uma inferência estatística confiável. Em outros casos, tais desvios podem representar uma séria ameaça a tal conclusão. Em seguida, os pesquisadores podem desenvolver procedimentos especiais que podem ajustar o procedimento de tomada de decisão sobre a veracidade das hipóteses estatísticas. O objetivo desses procedimentos é contornar ou flexibilizar os requisitos excessivamente rigorosos dos modelos paramétricos das estatísticas utilizadas.

Uma das opções para tais ações do pesquisador, ao descobrir que os dados que recebeu diferem em seus parâmetros do que está especificado no modelo estrutural do teste paramétrico utilizado, pode ser tentar transformar esses dados na forma desejada. Por exemplo, como observado no Cap. 1, ao medir o tempo de reação, é possível evitar um valor alto da assimetria de sua distribuição se os logaritmos dos valores obtidos forem usados ​​para análise, e não os valores do tempo de reação em si.

Outra opção é recusar-se a usar quaisquer suposições a priori sobre a natureza da distribuição de uma variável aleatória na população geral. E isso significa a rejeição de métodos paramétricos de estatística matemática em favor de métodos não paramétricos.

Não paramétrico são chamados métodos de estatística matemática, nos quais não são feitas suposições a priori sobre a natureza da distribuição dos dados em estudo e não são feitas suposições sobre a razão dos parâmetros de distribuição dos valores analisados. Esta é a principal vantagem desses métodos.

A vantagem da estatística não paramétrica é plenamente revelada quando os resultados obtidos no experimento são apresentados de forma mais fraca. escala não métrica, representando os resultados do ranking. Tal escala é chamada escala de pedidos. Claro que, em alguns casos, o pesquisador pode converter esses dados para uma escala de intervalo mais forte usando procedimentos de normalização de dados, mas, via de regra, a melhor opção nessa situação é usar testes não paramétricos especialmente projetados para análise estatística.

Como regra, os testes de estatística não paramétrica envolvem estimar as razões disponíveis de somas de classificação em duas ou mais amostras e, com base nisso, é formulada uma conclusão sobre a razão dessas amostras. Exemplos de tais testes são teste de sinal, teste de classificação sinalizada de Wilcoxon, assim como Teste U de Mann Whitney, que são usados ​​como um análogo do paramétrico t -Teste do aluno.

Ao mesmo tempo, se os resultados da medição forem apresentados em uma escala mais forte, o uso de estatísticas não paramétricas significa a rejeição de algumas das informações contidas nos dados. A consequência disso é o perigo de um aumento do erro do segundo tipo inerente a esses métodos.

Assim, os métodos de estatística não paramétrica são mais conservadores do que os métodos de estatística paramétrica. Seu uso ameaça em maior medida com um erro do segundo tipo, ou seja, uma situação em que o pesquisador, por exemplo, não consegue detectar diferenças entre duas amostras, quando tais diferenças realmente ocorrem. Em outras palavras, tais métodos acabam sendo menos poderosos que os métodos paramétricos. Portanto, o uso de estatísticas paramétricas na análise de dados experimentais, além da classificação simples, é geralmente preferido.

Ao resolver as questões de construção de modelos de sistemas, a tarefa de gerar informações iniciais sobre os parâmetros dos elementos que compõem o sistema é de particular relevância. A precisão e confiabilidade das informações iniciais determinam a precisão das estimativas das características analisadas dos sistemas, a precisão dos cálculos para otimizar as estratégias de funcionamento e as regras para sua manutenção, resolvendo problemas relacionados à previsão do comportamento do sistema no futuro , e outras questões. Ao formar as informações iniciais sobre os parâmetros dos elementos, como regra, as informações obtidas durante o exame dos sistemas e o estudo da experiência de sua operação são tomadas como base. Em outras palavras, as informações sobre o comportamento dos componentes do sistema no processo de sua operação são tomadas como base.

A análise dos indicadores iniciais de elementos, montagens, componentes, que é realizada nas etapas de operação, teste, desenvolvimento de design, é realizada para resolver os seguintes problemas:

    determinação dos valores reais das características estudadas dos componentes nas condições de sua operação real;

    identificar a relação entre as características estudadas dos elementos e suas condições de operação, analisando o impacto nos indicadores estudados de influências externas;

    prever o comportamento de equipamentos recém-criados.

Assim, para resolver esses problemas, em primeiro lugar,

é necessário organizar o controle sobre o comportamento do equipamento em condições reais de operação. No futuro, as informações obtidas durante a operação dos objetos são utilizadas para construir modelos de sistemas para os quais a análise é realizada.

Ao realizar estudos experimentais, um papel importante é desempenhado pelas informações obtidas como resultado de observações de objetos cujo comportamento é de natureza probabilística. O estudo de tais sistemas é realizado de acordo com os resultados da implementação dos parâmetros de saída, que são variáveis ​​aleatórias. A característica mais geral que descreve o comportamento de uma variável aleatória unidimensional é sua densidade de distribuição / (0- Conhecendo a densidade de distribuição de uma variável aleatória, pode-se determinar exclusivamente características como a probabilidade de realização de algum evento, a intensidade de a ocorrência do evento, o tempo médio entre as realizações dos eventos, etc. Apresentamos as fórmulas , permitindo avaliar os indicadores correspondentes.

A probabilidade de um evento ocorrer ao longo do tempo t é determinado pela fórmula

Q(t) = F(t)=\f(t)dt.

Na prática, a quantidade definida através da função de distribuição é frequentemente usada da seguinte forma:

Por exemplo, na teoria da confiabilidade, a probabilidade de operação sem falhas é definida dessa maneira.

O tempo médio entre as realizações de eventos é determinado a partir da relação

Ta =]tf(f)dt=]p(t)dt.

A intensidade da ocorrência de um evento pode ser determinada pela fórmula

"_/(f)_ClFjt) EU _ dP(t) 1 P(t)dt P(t)dt Pit)"

Assim, conhecendo a função densidade ou distribuição de uma variável aleatória, podemos proceder à determinação das características de um sistema complexo. Na prática, a função de distribuição é muitas vezes desconhecida. Ele deve ser restaurado de acordo com os dados estatísticos da implementação da variável aleatória. Como as estatísticas sobre os resultados das observações estão sempre presentes de forma limitada, a restauração da função de distribuição é possível com certo grau de confiabilidade. Portanto, se a função de distribuição é estimada com um certo erro,

urya

f (X - t ) 2 ^ 2a 2

" (x-t ) 2 ^ 2 uma 2

Vamos calcular as derivadas parciais:

dPN(t,m,o) _ 1

dm

d P N (t, t, O) _ duma 2

r \t

2 cerca de 2

\ /-J

então o cálculo das características do sistema também será realizado com um erro.

A precisão da estimativa dos indicadores de sistemas complexos é caracterizada pela magnitude da dispersão. Que seja necessário estimar algum indicador R(t). Vamos mostrar como a variância é determinada em sua estimativa. Vamos supor que o indicador R(t ) é determinado através da função de distribuição. Deixe a função de distribuição depender de dois parâmetros de ar. Exemplos de funções de dois parâmetros são a distribuição normal, normal truncada, log-normal, distribuição gama, distribuição Weibull e várias outras. Então deixe F(t) = F(t, a, r). Assim, o indicador estimado de um sistema complexo pode ser representado como um funcional de F(t) = F(t, a, r):

K(r) = K = K(f,a,p).

Vamos decompor a estimativa R ( t) na série de Taylor no ponto a, p e nos restringimos a três termos:

i(0 = K(0+^®(a-a)+^®(p-p).

Para ambas as partes desta expressão, aplicamos a operação de calcular a variância

(t-m) 2

-t exp

Distribuição normal

A densidade da lei de distribuição normal tem a forma

Pn(t, m, cerca de)= 1 -7=- J exp

Fn(t, então)= -y=- Jexp

(t-m)

2

O tempo médio entre as realizações de eventos é determinado pela forma

(t- m) 2 2 uma 2

onde cov(a, P) é a covariância entre os parâmetros do ar. Assim, para estimar a variância de um determinado indicador, é necessário determinar as derivadas parciais desse indicador em relação aos parâmetros da lei de distribuição e a variância na estimativa dos parâmetros da lei de distribuição.

Considere as questões de determinação de derivativos parciais para os indicadores apresentados acima para leis de distribuição específicas.A determinação da variação das estimativas dos parâmetros das leis de distribuição será descrita abaixo.

Como exemplo, vamos considerar a definição de derivadas parciais do indicador estimado em relação aos parâmetros da lei de distribuição para a lei normal.

Ґ ( t-m) 2 ^

2 desde 2

Assim, as derivadas parciais são definidas como

dTN(m,uma) 1 7

-- - = - f=~ exp

d m V2nab

dTN(m, o) EU

eut= F

f 2 ~\ m

2 0

\ /

E, por fim, pela intensidade do evento, temos

X(t, t, o) = -

Distribuição normal truncada unicaudal

A densidade de distribuição da lei normal truncada com truncamento unilateral à esquerda no ponto 0 tem a forma

/ (t-m ) 2 ^ 2 uma 2

\ І2em

(X - t) 2 2a 2

\І2po(

Expressões para derivadas parciais têm a forma

dX N (t, m,a ) _ f N (t, m,a )" m (eu -F N (t, m,o))-f N (t, m, o )[ l-F N (t, m, o )]" m m

2

dm

com = -

(*-YU 2 2 Kommersant

cerca deyj2nb

, ., t-m EU ( t-m ) 2

f H (fW O ra =Ir=-T ex PV

Ґ , h2 4 V

( t-m) 2

( 2 milhões t

2 uma 2

\

2 segundos 7

\ /J

" a2

da 2

2

[( t-m ) 2 - uma 2 ] 2l/2l 3

(t-m)

dx

P(SCH,b) = \-{

(t -m) 2a 2

m2O 2

\ =

(t-m)exp

m exp

2 2 em 3

Vamos introduzir a notação:

R= J exp

J

Assim, são apresentadas fórmulas para determinar os indicadores derivados correspondentes aos parâmetros da lei de distribuição para a lei normal. Uma generalização da distribuição normal é a distribuição normal truncada. Consideremos o uso de uma distribuição normal unilateral truncada nos problemas de estimação de indicadores de sistemas complexos. Em vários problemas de análise de sistemas, os parâmetros aleatórios são definidos positivamente. Um exemplo são os problemas da teoria da confiabilidade, em que os parâmetros aleatórios têm um domínio de definição de 0 a, por exemplo, o tempo de operação até a falha ser um valor definido positivo. Nesse caso, é ilegal aplicar a lei de distribuição normal para descrever essas variáveis ​​aleatórias. Em tais situações, uma distribuição normal truncada à esquerda é usada. Consideremos este caso em relação à estimação de indicadores de confiabilidade.

(x-c) 2 2 b

( X - U-U

dx; Q= jexp

As derivadas correspondentes têm a forma

Ґ 2\ .hl

2 Kommersant

r,"H

db(Q-Rf

onde os componentes correspondentes são determinados pelas fórmulas

O tempo médio entre as realizações de eventos é determinado pela fórmula

2 b 2

/ . .і \ (*-YU

S /h'^

l/ts l/ts fG G-M-

(QW b =^exp

Eu^lbEU-Jeub Jb

Vamos denotar o numerador por EU.

As derivadas correspondentes são calculadas pelas fórmulas

distribuição log-normal

A distribuição logaritmicamente normal obedece à variável aleatória t, cujo logaritmo é distribuído de acordo com a lei normal. A densidade de distribuição da lei log-normal tem a forma

KMY) _ i;q-%eu Jf_urz _______

"-!Li S)

/ 2 N.º! 2fc

FARSA, FALSOKQ Ul.

-^, A, -ex P

A função de distribuição tem a forma

2 b 2

Por fim, a intensidade da ocorrência dos eventos é igual a

(*-10 2 NO

2 b

OndeNO= Kommersant 1 .

Vamos escrever fórmulas para determinar indicadores de confiabilidade

(X -M-) 2 2 Kommersant

(x -\eu .? 2 Kommersant

dx-jexpcerca de

I „(*, I, D) \u003d I - Jexp

Introduzimos a notação

As derivadas correspondentes têm a forma

(*-YU

M= exp

2 \

( (EUnf-H) 2 NO

Rln(; , ND) _ 1 Pt - JeunB

P „Jt,\i,B) 1pg-n

Vamos determinar as derivadas da intensidade em relação aos parâmetros

dkaM(t,№) _ M^jQ-R)- (Q-RY 11 M CE(Q-R) 2 :

uhdentro


( (senhor) m 2 b

Para determinar o tempo médio até a falha, use a fórmula

(Sra. 2

M 11 =-m^exp

; (b-l)"=exp

e a última expressão

Derivados são iguais

dtlaC, R, NO) 1 (dentro ,

Vamos escrever uma expressão para a probabilidade de operação sem falhas

A expressão para determinar a taxa de falha tem a forma \Jt,\eu, b) = -

P B (t, a, b) = exp\

KumaJ

Vamos calcular as derivadas desta expressão em relação aos parâmetros de distribuição:

<У2дВ I 2 NO

E P^(t,a,b) _ b sim a

dPB(t,uma, b) _

Derivadas parciais são determinadas a partir de expressões

E CL^V) _

^ 2

eu tjbw dentro exp|

(lnf- |X) 2 2 NO

onde (/ln(0)

7 B(a ^) = J ex P

(Inf-(X) 2 2 NO

E T B (a, b)_~ r b(t

* (t"Dentro

\df, E7v(a ^ e b

dK»ShV) (0 ) " º (EU - (0 )- / eu. (EU- F n J e))"

EV 2

* P

A taxa de falha é

(^ b-" , uma

As derivadas em relação aos parâmetros têm a forma

isto,uma,b)

(1 - F„„) = - I n Vii exp

_ (EUnf- (X) 2 NO

E ^a,b) b 2

E Xdentroia, b)_Ґ" b

sim~a 2

dbumabuma

uma ,

Distribuição Weibull

A densidade de distribuição Weibull tem a forma

fB (t,a,b) = -(-

Distribuição gama

A densidade da distribuição gama é escrita como segue

F B (t, a, b) = 1-exp

Assim, a função de distribuição tem a forma

x, um *

Fr(t,X,a) = fXuma~ " ex(-Xx) dx.

A probabilidade de operação sem falhas é calculada pela fórmula

P v (t , X , a) = Eu feexp(-Xx)dx.

As derivadas em relação aos parâmetros são

і і OcX a4 Jx a4 exp (-Xx) Jx-X a J x uma exp ( -Xx)dx

EXG(g,a,X) _ (f r ( 'Xa)) K - / r(f,X,uma); Ea 2

J exp(-Xx)(a- Xx)dx \

[!-,F r (ZAa)];=-

RD G (t, X , uma) _X1

Pa) e

RD ^ sim a) = ~ G^a) eu * uma ~" ex P(-^t r (a)(ta ^ - 111 0 - Г"(а)]Жс, onde Г(а) = J X uma t uma ~ " exp (- Xt)dt \u003d J Z a " 1 exp (-r)<&; Г(а) = J г“"’ exp(-z) In z 4 z

O tempo médio até a falha é determinado pela fórmula

G r (o, X) \u003d J ^ - exp(-Xt)deu =~.

oG(a) X

As derivadas correspondentes são

dt G (Oh ) umadG G ( uma ,X) _ 1 EH.X 2 Sim~X"

A taxa de falha é registrada

X uma t uma -" exp (- xt )

Xr(t,uma,X) =

(f r (t , X ,uma )) uma = ^-y-^-[(X a InXf a "exp (- Xt)+X uma t uma 1 Infexp(-Xt))-

X 1 V a " 1 exp(-Xf)r„ (a)];

G a ((X)X a Jjr a "1 exp (-Xx) Jx-

t tX uma Em Xj X a ' 1 exp (-Xx)dx +X a Jx a 1 Injfexp (-Xx)dx

Assim, obtêm-se expressões que permitem resolver os problemas de avaliação da precisão na determinação dos indicadores de sistemas complexos. São consideradas as leis de distribuição mais utilizadas na análise de sistemas. Obtêm-se as fórmulas para determinar os principais indicadores dos sistemas e calculam-se as primeiras derivadas parciais dos indicadores em relação aos parâmetros das leis de distribuição correspondentes. A próxima questão que precisa ser abordada é a de estimar os parâmetros da lei de distribuição escolhida. Vamos ver como esse problema é resolvido.

As derivadas em relação aos parâmetros são definidas como

d X r ( t,a , x) _ (fr(tX a) ) \ -/ r(t, X, a) 2

Onde uma^ g" 1 "pW-X-r-exp(-Xr)

Escalas estatísticas

Processamento estatístico de dados de pesquisa

Os dados estatísticos são usados ​​no processamento de materiais de pesquisa psicológica para extrair o máximo de informações úteis possível dos dados quantitativos obtidos no experimento.

O uso de certos métodos estatísticos é determinado pela escala estatística a que pertence o material recebido.

Escala de nomes. Esta escala inclui materiais em que os objetos estudados diferem uns dos outros em sua qualidade, e a ordem não é importante. Por exemplo, a distribuição dos participantes da conferência. No processamento estatístico de tais materiais, deve-se levar em conta o número de unidades que cada objeto é representado.

Escala de pedidos. A ordem dos objetos é o foco. Esta escala em estatística inclui tais materiais de pesquisa em que objetos pertencentes a uma ou várias classes estão sujeitos a consideração, mas diferem quando comparados um com o outro: mais - menos, mais alto - mais baixo, etc.

A maneira mais fácil de mostrar as características típicas da escala de pedidos é observar os resultados de qualquer competição esportiva. Eles listam sequencialmente os participantes que ocuparam a primeira, segunda, terceira e outras posições, respectivamente.

em ordem de lugar, e as informações sobre as conquistas reais dos atletas ficam em segundo plano ou estão ausentes.

Escala de intervalo. Inclui materiais em que se dá uma avaliação quantitativa do objeto em estudo em unidades fixas. Os materiais correspondentes à escala de intervalos devem ter uma unidade de medida idêntica a si mesma para todas as medidas repetidas.

Escala de relacionamento. Esta escala inclui materiais que levam em conta não apenas o número de unidades fixas , como na escala de intervalos, mas também as razões dos resultados totais obtidos entre si. Para trabalhar com tais relacionamentos, você precisa ter algum ponto absoluto, a partir do qual a contagem regressiva é realizada.

Se os dados disponíveis para o pesquisador, após um exame mais detalhado, apenas divergirem ligeiramente da curva de distribuição normal de Gauss, isso dá ao pesquisador o direito de usar métodos paramétricos no processamento estatístico, cujas disposições iniciais são baseadas na curva de distribuição normal de Gauss . A distribuição normal é chamada paramétrica porque para construir e analisar a curva gaussiana, basta ter apenas dois parâmetros: a média aritmética, cujo valor deve corresponder à altura da perpendicular restaurada no centro da curva, e a a chamada raiz quadrada média, ou desvio padrão, um valor que caracteriza o intervalo de flutuações desta curva.

Se for impossível aplicar métodos paramétricos, é necessário recorrer a métodos não paramétricos.

Um dos fatores que limitam a aplicação de testes estatísticos baseados na suposição de normalidade é o tamanho da amostra. Desde que a amostra seja grande o suficiente (por exemplo, 100 ou mais observações), a distribuição da amostra pode ser considerada normal, mesmo que não seja certo que a distribuição da variável na população seja normal. No entanto, se a amostra for pequena, os testes paramétricos só devem ser usados ​​se houver confiança de que a variável é de fato normalmente distribuída. No entanto, mesmo para essas variáveis, não há como testar essa suposição em uma amostra pequena (os testes estatísticos de normalidade começam a funcionar efetivamente em uma amostra contendo pelo menos 51 observações).

Os métodos não paramétricos são mais apropriados quando o tamanho da amostra é pequeno e os dados estão em escalas ordinais ou nominais. Se houver muitos dados empíricos (por exemplo, n>100), muitas vezes não faz sentido e até parece incorreto usar estatísticas não paramétricas. Se o tamanho da amostra for muito pequeno (por exemplo, n=10 ou menos), então os níveis de p-significância para os testes não paramétricos que usam a aproximação normal só podem ser considerados como estimativas aproximadas.



A aplicação de critérios baseados na suposição de normalidade também é limitada pelo fato de as características em estudo pertencerem a uma determinada escala de medição. Métodos estatísticos como, por exemplo, teste t de Student (para amostras dependentes e independentes), correlação linear de Pearson, bem como regressão, cluster e análise fatorial assumem que os dados de origem são contínuos (os valores das variáveis ​​em estudo estão relacionados a uma escala de intervalo ou razão). No entanto, há casos em que os dados são simplesmente classificados (medidos em uma escala ordinal) em vez de medidos com precisão. Então parece apropriado usar critérios estatísticos como, por exemplo, o teste T de Wilcoxon, teste G de sinais, teste U de Mann-Whitney, teste Z de Wald-Wolfowitz, correlação de posto de Spearman, etc. Seus próprios métodos estatísticos trabalhará com dados nominais, por exemplo, a correlação de características qualitativas, o teste do qui-quadrado, o teste Q de Cochran, etc. A escolha de um determinado critério está associada a uma hipótese que o pesquisador apresenta no decorrer da pesquisa científica , e então tenta provar isso no nível empírico.

Assim, para cada critério paramétrico, existe pelo menos uma alternativa não paramétrica. Em geral, esses procedimentos se enquadram em uma das seguintes categorias: (1) avaliação do grau de dependência entre as variáveis; (2) critérios de diferença para amostras independentes; (3) critérios de diferença para amostras dependentes.

Para avaliar a dependência (relacionamento), ou o grau de estanqueidade (densidade, resistência) da conexão, calcule o coeficiente de correlação de Pearson (r). A rigor, seu uso também apresenta limitações associadas, por exemplo, ao tipo de escala em que os dados são medidos e à não linearidade da dependência. Portanto, coeficientes não paramétricos ou assim chamados de correlação de posto (por exemplo, coeficiente de correlação de posto de Spearman (ρ), estatística tau de Kendall (τ), Gama (Gamma)), usados ​​para dados ordinais (classificados), são usados ​​como uma alternativa. Se houver mais de duas variáveis, então o coeficiente de concordância de Kendall é usado. É usado, por exemplo, para avaliar a consistência das opiniões de especialistas independentes (por exemplo, pontos atribuídos ao mesmo assunto, participante da competição).

Se os dados são medidos em uma escala nominal, então é natural apresentá-los em tabelas de contingência que utilizam o teste qui-quadrado de Pearson com diversas variações e correções de acurácia.

Diferenças entre grupos independentes. Se houver duas amostras (por exemplo, meninos e meninas) que precisam ser comparadas em relação a algum valor médio, por exemplo, pensamento criativo, você pode usar o teste t para amostras independentes (teste t para amostras independentes) . Alternativas não paramétricas para este teste são o teste de corridas de Wald-Wolfowitz, o teste U de Mann-Whitney e o teste de duas amostras de Kolmogorov-Smirnov. Deve ser lembrado que o teste de Kolmogorov-Smirnov para duas amostras é sensível não apenas à diferença na posição das duas distribuições, mas também à forma da distribuição. Na verdade, é sensível a qualquer desvio da hipótese de homogeneidade, mas não indica com qual desvio o pesquisador está lidando.

Diferenças entre grupos dependentes. Se for necessário comparar duas variáveis ​​relacionadas à mesma amostra, por exemplo, os indicadores de agressividade dos mesmos sujeitos antes e depois do trabalho correcional, geralmente é usado o teste t para amostras dependentes. Testes não paramétricos alternativos são o Teste de Sinal e o teste de par emparelhado de Wilcoxon. O teste de Wilcoxon sugere que é possível classificar as diferenças entre as observações comparadas. Se isso não puder ser feito, então o critério de sinal é usado, que leva em consideração apenas os sinais das diferenças entre os valores comparados.

Se as variáveis ​​em consideração forem categóricas (nominais), então o Qui-quadrado de McNemar é apropriado. Se houver duas variáveis ​​categóricas, a estatística padrão e os critérios apropriados para tabelas de contingência são usados ​​para avaliar o grau de dependência: Qui-quadrado, Phi-quadrado, teste exato de Fisher.

A tabela abaixo apresenta os testes paramétricos e suas alternativas não paramétricas, levando em consideração as seguintes categorias: 1) avaliação do grau de dependência entre as variáveis; 2) critérios de diferença.

Tabela 4.1 - Critérios paramétricos e não paramétricos

Critérios paramétricos Testes não paramétricos
avaliação de dependência (relacionamentos)
Coeficiente de correlação de Pearson (r) coeficientes de correlação de posto (coeficiente de correlação de posto de Spearman ρ), estatística tau de Kendall (τ), Gamma (Gamma)); Qui-quadrado de Pearson (para dados nominais)
diferenças entre grupos independentes
Teste t de Student para amostras independentes (teste t para amostras independentes) Wald-Wolfowitz executa teste, teste Mann-Whitney U, teste de duas amostras Kolmogorov-Smirnov
diferenças entre grupos dependentes
Teste t de Student para amostras dependentes (teste t para amostras dependentes) Teste G de sinais (Sign Test), teste T de comparações pareadas de Wilcoxon (teste de pares pareados de Wilcoxon); McNemar Qui-quadrado, Qui-quadrado, Phi-quadrado, Exato de Fisher (para dados nominais)

Se mais de duas variáveis ​​da mesma amostra forem consideradas (por exemplo, pré-ajuste, pós-ajuste-1 e pós-ajuste-2), geralmente é usada a análise de variância de medidas repetidas, que pode ser pensada como uma generalização do teste t para amostras dependentes para aumentar a sensibilidade da análise. A abreviatura em inglês para análise de variância é ANOVA (Analysis of Variation). A análise de variância permite controlar simultaneamente não apenas o nível base da variável dependente, mas também outros fatores, além de incluir mais de uma variável dependente no plano do experimento. Métodos não paramétricos alternativos são análise de variância de Kruskal-Wallis e teste de mediana (ANOVA de Kruskal-Wallis, teste de mediana), análise de variância de classificação de Friedman (ANOVA de Friedman por Ranks).

Perguntas sobre critérios não paramétricos.

Critério estatístico - uma regra de decisão que garante a aceitação de uma hipótese verdadeira e a rejeição de uma hipótese falsa com alta probabilidade. Ao mesmo tempo, um critério estatístico é um método para calcular um determinado número e esse próprio número.

Os critérios paramétricos são usados ​​quando a amostra é normal, enquanto o cálculo nestes critérios inclui características da distribuição de probabilidade da característica, ou seja, média e variância. Isso pressupõe que os dados são contínuos. Os testes paramétricos incluem: Teste t de Student, teste do qui-quadrado. Adequado para escalas de relações de intervalo.

Testes não paramétricos são usados ​​quando é impossível falar em distribuição normal, os testes são baseados em operar com postos ou frequências. Os não paramétricos incluem o teste do sinal, o teste de Wilcoxon, o teste de Mann-Whitney e o de Jonkheer. Adequado para escalas mais fracas que escalas intervalares.

Antes de escolher um critério, devemos verificar a normalidade da amostra.

Não tenho ideia do que escrever em termos de medidas médias e de dispersão, porque aparentemente existem todos os mesmos conceitos de dispersão e blá blá outras coisas *_*

2. Métodos para testar hipóteses estatísticas: teste t, teste de Wilcoxon, teste de Mann-Whitney, teste de Kruskal-Wallace (condições de aplicação, formulação de hipóteses, distribuições de estatísticas, ideia de cálculo)

Teste t (Student) - usado se a amostra for normal. As hipóteses são formuladas da seguinte forma:

1. H0 é formulado

2. H1 é formulado, alternativa H0 (geralmente indica a interação de características).

3. Uma estatística é selecionada para escolher entre duas hipóteses

4. Para cada nível de significância α, é estabelecida uma região crítica, onde a) o resultado que cai nesta região indica H1 ao invés de H0 b) a probabilidade do resultado cair nesta região em H0 true é igual a α.

A probabilidade de um erro aceitável do primeiro tipo α=0,05, se o valor do critério em nossa amostra for maior que t 0,05, então aceitamos a hipótese H0, rejeitamos a hipótese H1.

Para uma amostra

Para amostras independentes.

O teste de postos sinalizados de Wilcoxon considera não os valores dos números da amostra, mas apenas seus sinais. O critério leva em consideração os valores absolutos dos membros da amostra. É usado quando a amostra pode não ser normal e quando é necessário decidir se a amostra tem uma média significativamente diferente de zero. Aplicação requer:

1) Defina o nível de significância α e encontre o quantil de Wilcoxon inferior correspondente.


2) Organize todos os membros da amostra em ordem crescente de valor absoluto, assine as fileiras abaixo deles.

3) Calcule a estatística de Wilcoxon, para a qual calculamos a soma das classificações atribuídas aos membros negativos da amostra.

4) Compare as estatísticas obtidas com o quantil encontrado anteriormente. Se esta soma de ranks for menor que o quantil inferior, rejeitamos a hipótese H0 e aceitamos a hipótese H1. Da mesma forma, se a soma das classificações de todos os membros positivos da amostra for maior que o quantil superior, aceitamos H1 e rejeitamos H0.

O teste de Mann-Whitney (U) é um teste para amostras independentes, análogo ao teste t de Student. Seu valor empírico mostra como as duas linhas de valores de atributos coincidem. É usado quando a amostra pode não ser normal, apenas o requisito de similaridade das distribuições é preservado, mas elas não precisam ser normais + quando é necessário resolver o problema, é possível afirmar isso. Que o valor médio da amostra experimental é significativamente maior que o valor médio do grupo controle.

1) Nós anotamos os membros de ambas as amostras em ordem crescente, destacando os membros de diferentes amostras de maneiras diferentes.

2) Para cada número da primeira amostra (controle), calculamos quantos números da segunda amostra (experimental) estão localizados à esquerda dela. Se o número da primeira amostra for igual ao número da segunda, adicione 0,5. Obtemos resultados consistentes e os somamos.

3) Observamos o nível de significância que escolhemos para o quantil inferior de acordo com Mann-Whitney. Se a soma recebida por nós for menor que o quantil inferior, então rejeitamos a hipótese H0, aceitamos a hipótese H1.

A distribuição de Mann-Whitney é simétrica (ou seja, você pode contar para trás e usar o quantil superior).

O teste de Kruskal-Wallace é um análogo não paramétrico da análise de variância unidirecional para amostras independentes. Semelhante ao teste de Mann-Whitney. Avalia o grau de coincidência de várias séries de valores da característica alterada. A ideia principal é apresentar todos os valores das amostras comparadas como uma sequência comum de valores ranqueados, seguido do cálculo da classificação média para cada uma das amostras.

Calculado após a classificação.

N é o número total de todas as amostras.

k é o número de amostras comparadas.

R i é a soma das classificações para uma amostra específica.

n i – tamanho da amostra i.

Quanto mais as amostras diferem, quanto maior o valor computacional de H, menor o nível de p-significância. Quando uma hipótese estatística nula é rejeitada, uma alternativa sobre diferenças estatisticamente significativas nesse traço é aceita sem especificar a direção das diferenças. (para direção, é necessário o teste de Mann-Whitney, pois é para duas amostras, e esta é para mais de duas).