Indice
20 relazioni: Bias (statistica), Curtosi, Eteroschedasticità, Karl Pearson, Linearità (matematica), Metodo dei minimi quadrati, Precisione, Regressione lineare, Se e solo se, Statistica, Teorema di Gauss-Markov, Test della varianza minima, Test di Cochran, Test di Hartley, Test F, Validazione di un metodo analitico, Valore atteso, Variabile casuale, Variabili indipendenti e identicamente distribuite, Varianza.
Bias (statistica)
In statistica, i termini bias (etimologia incerta), distorsione o scostamento sono usati con riferimento a due concetti. Un campione distorto è un campione statistico in cui la probabilità di inclusione nel campione di individui appartenenti alla popolazione dipende dalle caratteristiche della popolazione oggetto di studio.
Vedere Omoschedasticità e Bias (statistica)
Curtosi
La curtosi (nota anche come kurtosi, dal greco κυρτός), nel linguaggio della statistica, è un allontanamento dalla normalità distributiva, rispetto alla quale si verifica un maggiore appiattimento (distribuzione platicurtica) o un maggiore allungamento (distribuzione leptocurtica).
Vedere Omoschedasticità e Curtosi
Eteroschedasticità
In statistica, un campione di variabili casuali è eteroschedastico (dal Greco antico hetero “differente” e skedasis “dispersione”) se al suo interno esistono sotto-popolazioni che hanno diverse varianze.
Vedere Omoschedasticità e Eteroschedasticità
Karl Pearson
Con i suoi lavori influenzò notevolmente la teoria statistica, in particolare è ricordato per l'introduzione dell'indice che porta il suo nome per lo studio della correlazione di dati.
Vedere Omoschedasticità e Karl Pearson
Linearità (matematica)
In matematica, la linearità è una relazione che intercorre fra due o più enti matematici. Intuitivamente, due quantità sono in relazione lineare se tra loro sussiste una qualche forma di proporzionalità diretta.
Vedere Omoschedasticità e Linearità (matematica)
Metodo dei minimi quadrati
Il metodo dei minimi quadrati (in inglese OLS: Ordinary Least Squares) è una tecnica di ottimizzazione (o regressione) che permette di trovare una funzione, rappresentata da una curva ottima (o curva di regressione), che si avvicini il più possibile ad un insieme di dati (tipicamente punti del piano).
Vedere Omoschedasticità e Metodo dei minimi quadrati
Precisione
Nella teoria degli errori, la precisione è il grado di "convergenza" (o "dispersione") di dati rilevati individualmente (campione) rispetto al valore medio della serie cui appartengono ovvero, in altri termini, la loro varianza (o deviazione standard) rispetto alla media campionaria.
Vedere Omoschedasticità e Precisione
Regressione lineare
La regressione formalizza e risolve il problema di una relazione funzionale tra variabili misurate sulla base di dati campionari estratti da un'ipotetica popolazione infinita.
Vedere Omoschedasticità e Regressione lineare
Se e solo se
In matematica, filosofia, logica e nei campi tecnici che ne dipendono, si usa spesso l'espressione se e solo se, o l'abbreviazione sse, per esprimere l'equivalenza logica di due enunciati, esplicitando che i due enunciati hanno lo stesso valore di verità: se è vero il secondo allora è vero anche il primo, e viceversa.
Vedere Omoschedasticità e Se e solo se
Statistica
La statistica è una scienza che ha come scopo lo studio quantitativo e qualitativo di un particolare fenomeno collettivo in condizioni di incertezza o non determinismo, cioè di non completa conoscenza di esso o di una sua parte.
Vedere Omoschedasticità e Statistica
Teorema di Gauss-Markov
Il teorema di Gauss-Markov, così chiamato in onore dei matematici Carl Friedrich Gauss e Andrej Markov, è un teorema in statistica matematica che afferma che in un modello lineare in cui i disturbi hanno valore atteso nullo, sono incorrelati e omoschedastici, gli stimatori lineari corretti più efficienti sono gli stimatori ottenuti con il metodo dei minimi quadrati.
Vedere Omoschedasticità e Teorema di Gauss-Markov
Test della varianza minima
In statistica, il test della varianza minima è un test utilizzato per la valutazione del rispetto delle condizioni di omoschedasticità. Deve essere eseguito prima di poter confrontare gruppi mediante analisi della varianza.
Vedere Omoschedasticità e Test della varianza minima
Test di Cochran
Il test di Cochran, proposto nel 1967, è un test statistico di tipo non parametrico, utilizzato per la valutazione del rispetto delle condizioni di omoschedasticità.
Vedere Omoschedasticità e Test di Cochran
Test di Hartley
In statistica, il test di Hartley è un test utilizzato per la valutazione del rispetto delle condizioni di omoschedasticità. Deve essere eseguito prima di poter confrontare gruppi mediante analisi della varianza.
Vedere Omoschedasticità e Test di Hartley
Test F
In statistica il test F per il confronto di due varianze è un test di ipotesi basato sulla distribuzione F di Fisher-Snedecor e volto a verificare l'ipotesi che due popolazioni che seguono entrambe distribuzioni normali abbiano la stessa varianza.
Vedere Omoschedasticità e Test F
Validazione di un metodo analitico
In chimica analitica e in generale nelle discipline che si occupano di analisi di fenomeni e/o materiali, la validazione (validation in inglese) del metodo analitico è la " conferma attraverso esame e l'apporto di evidenza oggettiva che i requisiti particolari per l'utilizzazione prevista siano soddisfatti." "La validazione deve essere estesa in modo da soddisfare le esigenze di una data applicazione o di un campo di applicazione." La validazione non riguarda solo il protocollo di analisi, infatti " può comprendere procedure per il campionamento, la manipolazione e il trasporto." Le tecniche utilizzate per la determinazione della prestazione di un metodo dovrebbero essere una combinazione delle seguenti.
Vedere Omoschedasticità e Validazione di un metodo analitico
Valore atteso
In teoria della probabilità il valore atteso (chiamato anche media o speranza matematica) di una variabile casuale X è un numero indicato con mathbb (da expected value o expectation in inglese o dal francese espérance) che formalizza l'idea euristica di valore medio di un fenomeno aleatorio.
Vedere Omoschedasticità e Valore atteso
Variabile casuale
In matematica, e in particolare nella teoria della probabilità, una variabile casuale (detta anche variabile aleatoria o variabile stocastica) è una variabile che può assumere valori diversi in dipendenza da qualche fenomeno aleatorio.
Vedere Omoschedasticità e Variabile casuale
Variabili indipendenti e identicamente distribuite
Nella teoria della probabilità, una sequenza di variabili casuali è detta indipendente e identicamente distribuita (i.i.d.) se.
Vedere Omoschedasticità e Variabili indipendenti e identicamente distribuite
Varianza
In statistica e in teoria della probabilità la varianza di una variabile statistica o di una variabile aleatoria X è una funzione, indicata con sigma^2_X o con mathrm(X) (o semplicemente con sigma^2 se la variabile è sottintesa), che fornisce una misura della variabilità dei valori assunti dalla variabile stessa; nello specifico, la misura di quanto essi si discostino quadraticamente rispettivamente dalla media aritmetica o dal valore atteso mathbb E.
Vedere Omoschedasticità e Varianza
Conosciuto come Omoscedasticità.