Indice
14 relazioni: Curtosi, Distribuzione normale, Econometria, Grado di libertà (statistica), Ipotesi nulla, Media (statistica), Regressione lineare, Simmetria (statistica), Test di Breusch-Pagan, Test di Kolmogorov-Smirnov, Test di Shapiro-Wilk, Test di verifica d'ipotesi, Variabile casuale, Varianza.
Curtosi
La curtosi (nota anche come kurtosi, dal greco κυρτός), nel linguaggio della statistica, è un allontanamento dalla normalità distributiva, rispetto alla quale si verifica un maggiore appiattimento (distribuzione platicurtica) o un maggiore allungamento (distribuzione leptocurtica).
Vedere Test di Jarque-Bera e Curtosi
Distribuzione normale
La distribuzione normale (o distribuzione di Gauss dal nome del matematico tedesco Carl Friedrich Gauss, o distribuzione a Campana di Gauss), nella teoria della probabilità, è una distribuzione di probabilità continua che è spesso usata come prima approssimazione per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio.
Vedere Test di Jarque-Bera e Distribuzione normale
Econometria
In economia l'econometria è l'uso di metodi matematici e statistici per produrre modelli atti a verificare la validità di ipotesi in fatto di politica economica.
Vedere Test di Jarque-Bera e Econometria
Grado di libertà (statistica)
I gradi di libertà di una variabile aleatoria o di una statistica in genere esprimono il numero minimo di dati sufficienti a valutare la quantità d'informazione contenuta nella statistica.
Vedere Test di Jarque-Bera e Grado di libertà (statistica)
Ipotesi nulla
Un'ipotesi nulla (in inglese null hypothesis, che significa letteralmente ipotesi zero) è un'affermazione sulla distribuzione di probabilità di una o più variabili casuali.
Vedere Test di Jarque-Bera e Ipotesi nulla
Media (statistica)
In statistica, la media è un singolo valore numerico che descrive sinteticamente un insieme di dati. Esistono diversi tipi di media che possono essere scelte per descrivere un fenomeno: quelle più comunemente impiegate sono le tre cosiddette medie pitagoriche (aritmetica, geometrica e armonica).
Vedere Test di Jarque-Bera e Media (statistica)
Regressione lineare
La regressione formalizza e risolve il problema di una relazione funzionale tra variabili misurate sulla base di dati campionari estratti da un'ipotetica popolazione infinita.
Vedere Test di Jarque-Bera e Regressione lineare
Simmetria (statistica)
In teoria delle probabilità una distribuzione di probabilità è simmetrica quando la sua funzione di probabilità P (nel caso discreto) o la sua funzione di densità di probabilità (nel caso continuo) siano simmetriche rispetto ad un particolare valore x_0: Esempi di distribuzioni simmetriche sono le distribuzioni uniformi (discreta e distribuzione continua uniforme) su insiemi simmetrici, la distribuzione normale e altre distribuzioni derivate da distribuzioni simmetriche (la distribuzione t di Student) oppure definite in maniera simmetrica (la distribuzione di Skellam con parametri uguali).
Vedere Test di Jarque-Bera e Simmetria (statistica)
Test di Breusch-Pagan
Il test di Breusch-Pagan (noto anche come test di Cook-Weisberg) è un test d'ipotesi di eteroschedasticità in un modello di regressione lineare.
Vedere Test di Jarque-Bera e Test di Breusch-Pagan
Test di Kolmogorov-Smirnov
Il test di Kolmogorov-Smirnov è un test non parametrico sviluppato per due campioni da Smirnov nel 1939, sulla base delle considerazioni relative a un solo campione di Kolmogorov del 1933, che verifica la forma delle distribuzioni campionarie; in particolare può essere utilizzato per confrontare un campione con una distribuzione di riferimento oppure per confrontare due campioni.
Vedere Test di Jarque-Bera e Test di Kolmogorov-Smirnov
Test di Shapiro-Wilk
Il test di Shapiro-Wilk è uno dei test più potenti per la verifica della normalità, soprattutto per piccoli campioni. Si tratta di un test per la verifica di ipotesi statistiche.
Vedere Test di Jarque-Bera e Test di Shapiro-Wilk
Test di verifica d'ipotesi
In statistica, il test di verifica d'ipotesi è uno strumento atto a verificare la veridicità di un'ipotesi formulata, che si presta ad essere confermata o smentita dai dati osservati sperimentalmente.
Vedere Test di Jarque-Bera e Test di verifica d'ipotesi
Variabile casuale
In matematica, e in particolare nella teoria della probabilità, una variabile casuale (detta anche variabile aleatoria o variabile stocastica) è una variabile che può assumere valori diversi in dipendenza da qualche fenomeno aleatorio.
Vedere Test di Jarque-Bera e Variabile casuale
Varianza
In statistica e in teoria della probabilità la varianza di una variabile statistica o di una variabile aleatoria X è una funzione, indicata con sigma^2_X o con mathrm(X) (o semplicemente con sigma^2 se la variabile è sottintesa), che fornisce una misura della variabilità dei valori assunti dalla variabile stessa; nello specifico, la misura di quanto essi si discostino quadraticamente rispettivamente dalla media aritmetica o dal valore atteso mathbb E.