14 relazioni: Covarianza (probabilità), Distribuzione chi quadrato, Distribuzione di Fisher-Snedecor, Distribuzione normale, Econometria, Intervallo di confidenza, Matrice, Quantile, Somma dei quadrati residui, Statistica, Stimatore, Test di verifica d'ipotesi, Variabile casuale, Varianza.
Covarianza (probabilità)
In statistica e in teoria della probabilità, la covarianza di due variabili statistiche o variabili aleatorie è un numero che fornisce una misura di quanto le due varino assieme, ovvero della loro dipendenza.
Nuovo!!: Test F e Covarianza (probabilità) · Mostra di più »
Distribuzione chi quadrato
In teoria delle probabilità la distribuzione \chi^2 (chi quadrato o chi-quadro) è la distribuzione di probabilità della somma dei quadrati di variabili aleatorie normali indipendenti.
Nuovo!!: Test F e Distribuzione chi quadrato · Mostra di più »
Distribuzione di Fisher-Snedecor
In teoria delle probabilità la distribuzione di Fisher-Snedecor (o F di Snedecor, o Z di Fisher) è una distribuzione di probabilità continua che regola il rapporto "riscalato" tra due variabili aleatorie che seguono due distribuzioni \chi^2. Viene impiegata nell'analisi della varianza e in generale per l'omonimo test F. Prende il nome dai matematici George W. Snedecor (statunitense) e Ronald Fisher (britannico).
Nuovo!!: Test F e Distribuzione di Fisher-Snedecor · Mostra di più »
Distribuzione normale
Nella teoria della probabilità la distribuzione normale, o di Gauss (o gaussiana) dal nome del matematico tedesco Carl Friederich Gauss, è una distribuzione di probabilità continua che è spesso usata come prima approssimazione per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio.
Nuovo!!: Test F e Distribuzione normale · Mostra di più »
Econometria
In economia l'econometria è l'uso di metodi matematici e statistici per produrre modelli atti a verificare la validità di ipotesi in fatto di politica economica.
Nuovo!!: Test F e Econometria · Mostra di più »
Intervallo di confidenza
In statistica, quando si stima un parametro, la semplice individuazione di un singolo valore è spesso non sufficiente.
Nuovo!!: Test F e Intervallo di confidenza · Mostra di più »
Matrice
In matematica, in particolare in algebra lineare, una matrice è una tabella ordinata di elementi.
Nuovo!!: Test F e Matrice · Mostra di più »
Quantile
In statistica il quantile di ordine α o α-quantili (con α un numero reale nell'intervallo) è un valore qα che divide la popolazione in due parti, proporzionali ad α e (1-α) e caratterizzate da valori rispettivamente minori e maggiori di qα.
Nuovo!!: Test F e Quantile · Mostra di più »
Somma dei quadrati residui
In statistica, la Somma dei quadrati residui (Sum of Squared Residuals - SSR o anche Residual Sum of Squares - RSS) è la somma dei quadrati dei residui semplici dedotti dal modello, ovvero la devianza residua.
Nuovo!!: Test F e Somma dei quadrati residui · Mostra di più »
Statistica
La statistica è una disciplina che ha come fine lo studio quantitativo e qualitativo di un particolare fenomeno in condizioni di incertezza o non determinismo, ovvero di non completa conoscenza di esso o parte di esso.
Nuovo!!: Test F e Statistica · Mostra di più »
Stimatore
In statistica uno stimatore (puntuale) è una funzione che associa ad ogni possibile campione un valore del parametro da stimare.
Nuovo!!: Test F e Stimatore · Mostra di più »
Test di verifica d'ipotesi
Il test di verifica d'ipotesi si utilizza per verificare la bontà di un'ipotesi.
Nuovo!!: Test F e Test di verifica d'ipotesi · Mostra di più »
Variabile casuale
In matematica, e in particolare nella teoria della probabilità, una variabile casuale (detta anche variabile aleatoria o variabile stocastica) è una variabile che può assumere valori diversi in dipendenza da qualche fenomeno aleatorio.
Nuovo!!: Test F e Variabile casuale · Mostra di più »
Varianza
In statistica e in teoria della probabilità la varianza di una variabile statistica o di una variabile aleatoria X è una funzione, indicata con \sigma^2_X o con \mathrm(X) (o semplicemente con \sigma^2 se la variabile è sottintesa), che fornisce una misura della variabilità dei valori assunti dalla variabile stessa; nello specifico, la misura di quanto essi si discostino quadraticamente rispettivamente dalla media aritmetica o dal valore atteso \mathbb E. Il termine di "varianza" venne introdotto nel 1918 da Ronald Fisher e sostituì nel tempo la denominazione di "deviazione standard quadratica" utilizzata da Karl Pearson.
Nuovo!!: Test F e Varianza · Mostra di più »