Indice
27 relazioni: Coefficiente di correlazione per ranghi di Spearman, Distribuzione (statistica), Frank Wilcoxon, Kappa di Cohen, Parametro (statistica), Significatività, Statistica non parametrica, Test binomiale, Test chi quadrato di Pearson, Test dei ranghi con segno di Wilcoxon, Test dei ranghi equivalenti di Moses, Test dei run, Test dei segni, Test della mediana, Test di Anderson-Darling, Test di Budne, Test di Girone, Test di Kolmogorov-Smirnov, Test di Kruskal-Wallis, Test di Kuiper, Test di McNemar, Test di randomizzazione, Test di Siegel-Tukey, Test di verifica d'ipotesi, Test di Wilcoxon-Mann-Whitney, Test esatto di Fisher, Test Q.
Coefficiente di correlazione per ranghi di Spearman
L'indice di correlazione R per ranghi di Spearman è una misura statistica non parametrica di correlazione. Essa misura il grado di relazione tra due variabili e l'unica ipotesi richiesta è che siano ordinabili, e, se possibile, continue.
Vedere Test non parametrico e Coefficiente di correlazione per ranghi di Spearman
Distribuzione (statistica)
In statistica, in particolare nella statistica descrittiva, una distribuzione è una rappresentazione del modo in cui le diverse modalità di un carattere si distribuiscono nelle unità statistiche che compongono il collettivo oggetto di studio.
Vedere Test non parametrico e Distribuzione (statistica)
Frank Wilcoxon
Cominciò la carriera scientifica nell'ambito della chimica nella quale operò dal 1924 al 1950 (ricerca sugli insetticidi, sintesi delle sostanze di crescita delle piante, azioni fungicide).
Vedere Test non parametrico e Frank Wilcoxon
Kappa di Cohen
Il Kappa di Cohen è un coefficiente statistico che rappresenta il grado di accuratezza e affidabilità in una classificazione statistica; è un indice di concordanza che tiene conto della probabilità di concordanza casuale; l'indice calcolato in base al rapporto tra l'accordo in eccesso rispetto alla probabilità di concordanza casuale e l'eccesso massimo ottenibile.
Vedere Test non parametrico e Kappa di Cohen
Parametro (statistica)
In statistica, si definisce parametro un valore che definisce una caratteristica "relativamente" costante di una funzione o di una popolazione, che serve a descriverla.
Vedere Test non parametrico e Parametro (statistica)
Significatività
In statistica la significatività è la possibilità rilevante che compaia un determinato valore. Ci si riferisce anche a "statisticamente differente da zero", ma ciò non significa che la "significatività" sia rilevante, o vasta, come indurrebbe a pensare la parola.
Vedere Test non parametrico e Significatività
Statistica non parametrica
La statistica non parametrica è una parte della statistica in cui si assume che i modelli matematici non necessitano di ipotesi a priori sulle caratteristiche della popolazione (ovvero, di un parametro), o comunque le ipotesi sono meno restrittive di quelle usate nella statistica parametrica.
Vedere Test non parametrico e Statistica non parametrica
Test binomiale
Il test binomiale è un test non parametrico applicabile a variabili dicotomiche e campioni bernoulliani.
Vedere Test non parametrico e Test binomiale
Test chi quadrato di Pearson
Il test chi quadrato di Pearson (o della bontà dell'adattamento) è un test non parametrico applicato a grandi campioni quando si è in presenza di variabili nominali e si vuole verificare se il campione è stato estratto da una popolazione con una predeterminata distribuzione o che due o più campioni derivino dalla stessa popolazione.
Vedere Test non parametrico e Test chi quadrato di Pearson
Test dei ranghi con segno di Wilcoxon
Il test dei segni per ranghi di Wilcoxon è un test non parametrico che si applica nel caso di un singolo campione con due misure accoppiate.
Vedere Test non parametrico e Test dei ranghi con segno di Wilcoxon
Test dei ranghi equivalenti di Moses
Il test dei ranghi equivalenti di Moses (in inglese Moses rank-like test) è un test non parametrico che verifica, in presenza di misurazioni fatte su scala a intervalli, se due campioni statistici provengono da due popolazioni con la stessa varianza e mediana o media anche differenti.
Vedere Test non parametrico e Test dei ranghi equivalenti di Moses
Test dei run
In statistica il test dei run, o test delle sequenze, o test di Wald-Wolfowitz (da Abraham Wald e Jacob Wolfowitz) è un test di verifica d'ipotesi, non parametrico, condotto sull'indipendenza dei dati in una sequenza binaria.
Vedere Test non parametrico e Test dei run
Test dei segni
In statistica inferenziale, il test dei segni è un test non parametrico per due campioni dipendenti che viene utilizzato per verificare se la tendenza centrale di un fenomeno è uguale o significativamente diversa prima e dopo un certo trattamento.
Vedere Test non parametrico e Test dei segni
Test della mediana
Il test della mediana è un test non parametrico, caso speciale del test del chi quadrato di Pearson. Viene testata l'ipotesi nulla che le mediane delle popolazioni di due campioni statistici siano identiche.
Vedere Test non parametrico e Test della mediana
Test di Anderson-Darling
Il test di Anderson-Darling (dai suoi autori Theodore Wilbur Anderson e Donald A. Darling che lo descrissero nel 1952) è un test di verifica d'ipotesi utilizzato in statistica per verificare se un campione di valori può essere generato da una determinata variabile casuale.
Vedere Test non parametrico e Test di Anderson-Darling
Test di Budne
Il test di Budne è storicamente uno dei primi test non parametrici per verificare l'ipotesi nulla che due insiemi di dati provengano da due variabili casuali aventi stessa distribuzione contro l'ipotesi alternativa oppure.
Vedere Test non parametrico e Test di Budne
Test di Girone
Il test di Girone è un test statistico non parametrico per la verifica d'ipotesi concernente le leggi di distribuzione. Venne proposto nel 1964 da Giovanni Girone come semplice indice di omogeneità di due distribuzioni e poi sviluppato come test di verifica d'ipotesi.
Vedere Test non parametrico e Test di Girone
Test di Kolmogorov-Smirnov
Il test di Kolmogorov-Smirnov è un test non parametrico sviluppato per due campioni da Smirnov nel 1939, sulla base delle considerazioni relative a un solo campione di Kolmogorov del 1933, che verifica la forma delle distribuzioni campionarie; in particolare può essere utilizzato per confrontare un campione con una distribuzione di riferimento oppure per confrontare due campioni.
Vedere Test non parametrico e Test di Kolmogorov-Smirnov
Test di Kruskal-Wallis
In Statistica, il test di Kruskal-Wallis è un metodo non parametrico per verificare l'uguaglianza delle mediane di diversi gruppi; cioè per verificare che tali gruppi provengano da una stessa popolazione (o da popolazioni con uguale mediana).
Vedere Test non parametrico e Test di Kruskal-Wallis
Test di Kuiper
Usato nell'ambito della statistica non parametrica, il test di Kuiper (1962) è strettamente legato al più noto test di Kolmogorov-Smirnov. Come questo, vengono calcolate le quantità D+ and D- che rappresentano la deviazione massima sopra e sotto due distribuzioni da comparare.
Vedere Test non parametrico e Test di Kuiper
Test di McNemar
Il Test di McNemar è un test non parametrico che si applica a tabelle di frequenza 2 x 2. Viene generalmente impiegato per verificare l'esistenza di differenze in dati dicotomici (presenza/assenza; positivo/negativo) prima e dopo un certo cambio o evento o trattamento (ovvero per valutare l'efficacia di quel trattamento), qualora siano disponibili dati sotto forma di frequenze.
Vedere Test non parametrico e Test di McNemar
Test di randomizzazione
Il test di randomizzazione o di aleatorizzazione (o di rimescolamento o shuffling test), ideato da Ronald Fisher nel 1935, appartiene alla famiglia dei test di ricampionamento (insieme al metodo bootstrap, al metodo jackknife e al metodo di Montecarlo).
Vedere Test non parametrico e Test di randomizzazione
Test di Siegel-Tukey
Il test di Siegel-Tukey è un test non parametrico che si applica su dati misurati almeno su una scala ordinale e viene detto anche test per le differenze di scala tra due gruppi.
Vedere Test non parametrico e Test di Siegel-Tukey
Test di verifica d'ipotesi
In statistica, il test di verifica d'ipotesi è uno strumento atto a verificare la veridicità di un'ipotesi formulata, che si presta ad essere confermata o smentita dai dati osservati sperimentalmente.
Vedere Test non parametrico e Test di verifica d'ipotesi
Test di Wilcoxon-Mann-Whitney
Il test di Wilcoxon e il test di Mann-Whitney (anche noto come test U di Mann-Whitney) sono due dei più potenti test non parametrici per verificare, in presenza di valori ordinali provenienti da una distribuzione continua, se due campioni statistici provengono dalla stessa popolazione.
Vedere Test non parametrico e Test di Wilcoxon-Mann-Whitney
Test esatto di Fisher
Il test esatto di Fisher (o test di Fisher-Yates, test di Fisher-Irwin, test esatto del chi²) è un test per la verifica d'ipotesi utilizzato nell'ambito della statistica non parametrica in situazioni con due variabili nominali dicotomiche e campioni piccoli.
Vedere Test non parametrico e Test esatto di Fisher
Test Q
Il test Q o test di Dixon (Q test in inglese) è un semplice test statistico non parametrico utilizzato per valutare se scartare o meno dati ritenuti outlier.
Vedere Test non parametrico e Test Q