Stiamo lavorando per ripristinare l'app di Unionpedia nel Google Play Store
UscenteArrivo
🌟Abbiamo semplificato il nostro design per una migliore navigazione!
Instagram Facebook X LinkedIn

Regressione lineare

Indice Regressione lineare

La regressione formalizza e risolve il problema di una relazione funzionale tra variabili misurate sulla base di dati campionari estratti da un'ipotetica popolazione infinita.

Indice

  1. 112 relazioni: Adrien-Marie Legendre, Analisi numerica, Astronomia, Auguste Bravais, Autocorrelazione, Base di dati, Bias (statistica), Biologia, Biometrika, Bootstrap (statistica), Campionamento statistico, Carl Friedrich Gauss, Causa (filosofia), Charles Darwin, Chimica, Coefficiente, Coefficiente angolare, Coefficiente di determinazione, Combinazione lineare, Consistenza (statistica), Convergenza di variabili casuali, Correlazione (statistica), Correlazione spuria, Covarianza (probabilità), Dati panel, Derivata parziale, Distanza di un punto da un insieme, Distribuzione di Fisher-Snedecor, Distribuzione normale, Distribuzione t di Student, Econometria, Economia, Efficienza (statistica), Errore statistico, Eteroschedasticità, Eulero, Finanza, Fisica, Forma quadratica, Francis Galton, Funzione (matematica), Funzione di ripartizione, Geologia, Geometria, George Udny Yule, Glossario sulle matrici, Idempotenza, Indice di correlazione di Pearson, Indipendenza stocastica, Inferenza bayesiana, ... Espandi índice (62 più) »

Adrien-Marie Legendre

Discepolo di Eulero e Lagrange, ha pubblicato un lavoro ormai classico sulla geometria, Élements de géométrie. Ha anche dato significativi contributi alle equazioni differenziali, all'analisi, alla teoria delle funzioni, alla meccanica e in teoria dei numeri con l'opera Essai sur la théorie des nombres (1797-1798); nel 1782 gli fu concesso il premio offerto dall'Accademia di Berlino per i suoi studi sulla dinamica dei proiettili.

Vedere Regressione lineare e Adrien-Marie Legendre

Analisi numerica

L'analisi numerica è una branca della matematica applicata che risolve i modelli prodotti dall'analisi matematica alle scomposizioni finite normalmente praticabili, coinvolgendo il concetto di approssimazione.

Vedere Regressione lineare e Analisi numerica

Astronomia

Lastronomia è la scienza naturale che si occupa dell'osservazione e della spiegazione degli eventi celesti che si verificano nello spazio. Studia le origini e l'evoluzione, le proprietà fisiche, chimiche e temporali degli oggetti che formano l'universo e che possono essere osservati sulla sfera celeste.

Vedere Regressione lineare e Astronomia

Auguste Bravais

Studiò al Collège Stanislas a Parigi e nel 1829 entrò all'École Polytechnique. Alla fine dei suoi studi divenne un ufficiale di marina. Grande avventuriero, si imbarcò sul Finistère nel 1832, e in seguito sul Loiret; cooperò a lavori di idrografia lungo le coste algerine.

Vedere Regressione lineare e Auguste Bravais

Autocorrelazione

L'autocorrelazione definisce il grado di dipendenza tra i valori assunti da una funzione campionata nel suo dominio in ascissa. Se è dimostrata l'autocorrelazione tra due valori, al cambiare delle peculiarità di uno di essi varierà anche l'altro.

Vedere Regressione lineare e Autocorrelazione

Base di dati

In informatica una base di dati, detta anche, dall'inglese, database o data base, o anche banca dati, è una collezione di dati organizzati immagazzinata e accessibile per via elettronica.

Vedere Regressione lineare e Base di dati

Bias (statistica)

In statistica, i termini bias (etimologia incerta), distorsione o scostamento sono usati con riferimento a due concetti. Un campione distorto è un campione statistico in cui la probabilità di inclusione nel campione di individui appartenenti alla popolazione dipende dalle caratteristiche della popolazione oggetto di studio.

Vedere Regressione lineare e Bias (statistica)

Biologia

La biologia (neologismo scientifico del XVIII secolo, composto dalle parole greche βίος, bìos.

Vedere Regressione lineare e Biologia

Biometrika

La rivista britannica Biometrika venne creata nell'ottobre 1901 per iniziativa di Karl Pearson, Walter Frank Raphael Weldon e Charles Davenport.

Vedere Regressione lineare e Biometrika

Bootstrap (statistica)

Il bootstrap è una tecnica statistica di ricampionamento con reimmissione per approssimare la distribuzione campionaria di una statistica. Permette perciò di approssimare media e varianza di uno stimatore, costruire intervalli di confidenza e calcolare p-value di test quando, in particolare, non si conosce la distribuzione della statistica di interesse.

Vedere Regressione lineare e Bootstrap (statistica)

Campionamento statistico

In statistica il campionamento statistico (che si appoggia alla teoria dei campioni o "teoria del campionamento") sta alla base dell'inferenza statistica, la quale si divide in due grandi capitoli: la teoria della stima e la verifica d'ipotesi.

Vedere Regressione lineare e Campionamento statistico

Carl Friedrich Gauss

Talvolta definito «il Principe dei matematici» (Princeps mathematicorum) come Eulero o «il più grande matematico della modernità» (in opposizione ad Archimede, considerato dallo stesso Gauss come il maggiore fra i matematici dell'antichità), è annoverato fra i più importanti matematici della storia avendo contribuito in modo decisivo all'evoluzione delle scienze matematiche, fisiche e naturali.

Vedere Regressione lineare e Carl Friedrich Gauss

Causa (filosofia)

In filosofia, nelle scienze e nel senso comune, il concetto di causa, assieme a quello connesso di causalità (o relazione causale) indica la relazione tra due fenomeni (o classi di fenomeni), nel caso in cui il primo fenomeno, detto causa, è motivo di esistenza del secondo, detto effetto.

Vedere Regressione lineare e Causa (filosofia)

Charles Darwin

Pubblicò la sua teoria sull'evoluzione delle specie nel libro L'origine delle specie (1859), che è il suo lavoro più noto. Inoltre egli raccolse molti dei dati su cui basò la sua teoria durante un viaggio intorno al mondo sulla nave HMS ''Beagle'', e in particolare durante la sua sosta alle Galápagos.

Vedere Regressione lineare e Charles Darwin

Chimica

La chimica (da kemà, il libro dei segreti dell'arte egizia, da cui l'arabo "al-kimiaa" "الكيمياء") è la scienza naturale che studia la composizione, la struttura e le proprietà della materia, sia essa in forma di elementi, specie, composti, miscele o altre sostanze, e i cambiamenti che questi subiscono durante le reazioni e il loro rapporto con l'energia chimica.

Vedere Regressione lineare e Chimica

Coefficiente

Un coefficiente è un numero puro (rapporto tra due grandezze con la stessa unità di misura) o una quantità che moltiplica una variabile algebrica.

Vedere Regressione lineare e Coefficiente

Coefficiente angolare

In geometria analitica il coefficiente angolare, o informalmente pendenza, di una retta nel piano cartesiano è un numero che descrive la direzione e la "ripidezza" della retta.

Vedere Regressione lineare e Coefficiente angolare

Coefficiente di determinazione

In statistica, il coefficiente di determinazione, più comunemente R2, è un indice che misura il legame tra la variabilità dei dati e la correttezza del modello statistico utilizzato.

Vedere Regressione lineare e Coefficiente di determinazione

Combinazione lineare

In matematica, una combinazione lineare è un'operazione principalmente usata nell'ambito dell'algebra lineare. Una combinazione lineare di alcuni elementi di uno spazio vettoriale è un'espressione del tipo: dove i v_i sono elementi dello spazio vettoriale e gli a_i sono scalari.

Vedere Regressione lineare e Combinazione lineare

Consistenza (statistica)

In statistica, la consistenza è una proprietà di desiderabilità degli stimatori. In sostanza uno stimatore è consistente se, all'aumentare dell'informazione, ossia della numerosità del campione, la sua distribuzione di probabilità si concentra in corrispondenza del valore del parametro da stimare.

Vedere Regressione lineare e Consistenza (statistica)

Convergenza di variabili casuali

In teoria della probabilità e statistica è molto vivo il problema di studiare fenomeni con comportamento incognito ma, nei grandi numeri, riconducibili a fenomeni noti e ben studiati.

Vedere Regressione lineare e Convergenza di variabili casuali

Correlazione (statistica)

In statistica, una correlazione è una relazione tra due variabili tale che a ciascun valore della prima corrisponda un valore della seconda, seguendo una certa regolarità.

Vedere Regressione lineare e Correlazione (statistica)

Correlazione spuria

In statistica la correlazione spuria è un problema che nasce nell'ambito delle analisi che calcolano la correlazione o effettuano una regressione, quando non è rispettata l'assunzione che le osservazioni sono indipendenti e identicamente distribuite.

Vedere Regressione lineare e Correlazione spuria

Covarianza (probabilità)

In statistica e in teoria della probabilità, la covarianza di due variabili statistiche o variabili aleatorie è un valore numerico che fornisce una misura di quanto le due varino assieme.

Vedere Regressione lineare e Covarianza (probabilità)

Dati panel

I dati longitudinali (o dati panel) vengono definiti dati che prevedono l’osservazione di differenti variabili, ciascuna in una serie di periodi di tempo.

Vedere Regressione lineare e Dati panel

Derivata parziale

In analisi matematica, la derivata parziale è una prima generalizzazione del concetto di derivata di una funzione reale alle funzioni di più variabili.

Vedere Regressione lineare e Derivata parziale

Distanza di un punto da un insieme

In geometria, la distanza di un punto è la misura della distanza di un punto da un'altra entità geometrica nel piano o nello spazio. Generalmente, tale distanza è definita come la distanza minima fra il punto ed i vari punti dell'entità geometrica: La distanza può essere semplice da calcolare quanto avviene fra due punti definiti, o più complicata quando l'altro elemento è un insieme di punti; in questo caso bisogna prima individuare su quale traiettoria lineare bisogna misurarla.

Vedere Regressione lineare e Distanza di un punto da un insieme

Distribuzione di Fisher-Snedecor

In teoria delle probabilità la distribuzione di Fisher-Snedecor (o F di Snedecor, o Z di Fisher) è una distribuzione di probabilità continua che regola il rapporto "riscalato" tra due variabili aleatorie che seguono due distribuzioni chi^2. Viene impiegata nell'analisi della varianza e in generale per l'omonimo test F.

Vedere Regressione lineare e Distribuzione di Fisher-Snedecor

Distribuzione normale

La distribuzione normale (o distribuzione di Gauss dal nome del matematico tedesco Carl Friedrich Gauss, o distribuzione a Campana di Gauss), nella teoria della probabilità, è una distribuzione di probabilità continua che è spesso usata come prima approssimazione per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio.

Vedere Regressione lineare e Distribuzione normale

Distribuzione t di Student

Nella teoria delle probabilità la distribuzione di Student, o t di Student, è una distribuzione di probabilità continua che governa il rapporto tra due variabili aleatorie, la prima con distribuzione normale standard e la seconda, al quadrato, segue una distribuzione chi quadrato.

Vedere Regressione lineare e Distribuzione t di Student

Econometria

In economia l'econometria è l'uso di metodi matematici e statistici per produrre modelli atti a verificare la validità di ipotesi in fatto di politica economica.

Vedere Regressione lineare e Econometria

Economia

Leconomia (o sistema economico) è il sistema e l'organizzazione dei mercati, risorse, della produttività e del complesso di scambi, produzioni e commerci di oggetti e servizi, come gli innumerevoli servizi dei sistemi di finanziamenti, investimenti e di fondazione di attività economiche in ogni settore, di ogni dimensione e ad ogni scopo.

Vedere Regressione lineare e Economia

Efficienza (statistica)

In statistica, l'efficienza è una misura di desiderabilità di uno stimatore. L'efficienza di una statistica corretta T per un parametro vartheta è definita come: dove mathcal(vartheta) è l'informazione di Fisher del campione; e(T) è uguale al rapporto tra la minima varianza possibile per uno stimatore di vartheta e la sua varianza effettiva.

Vedere Regressione lineare e Efficienza (statistica)

Errore statistico

L'errore casuale o statistico o indeterminato o accidentale è un errore di misurazione che può incidere con la stessa probabilità in aumento o in diminuzione sul valore misurato.

Vedere Regressione lineare e Errore statistico

Eteroschedasticità

In statistica, un campione di variabili casuali è eteroschedastico (dal Greco antico hetero “differente” e skedasis “dispersione”) se al suo interno esistono sotto-popolazioni che hanno diverse varianze.

Vedere Regressione lineare e Eteroschedasticità

Eulero

È considerato il più importante matematico del Settecento, e uno dei massimi della storia. È noto per essere tra i più prolifici di tutti i tempi e ha fornito contributi storicamente cruciali in svariate aree: analisi infinitesimale, funzioni speciali, meccanica razionale, meccanica celeste, teoria dei numeri, teoria dei grafi.

Vedere Regressione lineare e Eulero

Finanza

La finanza è la disciplina economica che studia i processi e le scelte di investimento e finanziamento, soffermando l'analisi sul lato prettamente tecnico, cioè prezzatura (pricing), copertura (hedging) e valutazione delle attività oggetto dell'investimento o finanziamento.

Vedere Regressione lineare e Finanza

Fisica

La fisica (termine che deriva dal latino physica, "natura" a sua volta derivante pp, nato da, entrambi derivati dall'origine comune indoeuropea) è la scienza della natura che studia la materia, i suoi costituenti fondamentali, il suo movimento e comportamento attraverso lo spazio tempo, e le relative entità di energia e forza.

Vedere Regressione lineare e Fisica

Forma quadratica

In matematica una forma quadratica è un polinomio omogeneo di grado 2 in un certo numero di variabili. Ad esempio la distanza tra due punti di uno spazio euclideo tridimensionale è ottenuta dalla radice quadrata di una forma quadratica in 6 variabili, le tre coordinate cartesiane ortogonali di ciascuno dei due punti.

Vedere Regressione lineare e Forma quadratica

Francis Galton

Oltre a tale parola, ha lasciato alla scienza anche termini come anticiclone – in quanto si interessava anche di meteorologia – e regressione e correlazione.

Vedere Regressione lineare e Francis Galton

Funzione (matematica)

In matematica, una funzione è una relazione tra due insiemi, chiamati dominio e codominio della funzione, che associa a ogni elemento del dominio uno e un solo elemento del codominio.

Vedere Regressione lineare e Funzione (matematica)

Funzione di ripartizione

In statistica e teoria della probabilità, la funzione di ripartizione (o funzione cumulativa) è una funzione di variabile reale che racchiude le informazioni su un fenomeno (un insieme di dati, un evento casuale) riguardanti la sua presenza o la sua distribuzione prima o dopo un certo punto.

Vedere Regressione lineare e Funzione di ripartizione

Geologia

La geologia (dal greco γῆ, gê, "terra" e λόγος, logos, "studio") è la disciplina delle scienze della Terra che studia i processi fisico-chimici che plasmano e trasformano nel tempo la Terra, in riferimento alle rocce di cui è composta (Litosfera).

Vedere Regressione lineare e Geologia

Geometria

La geometria (e questo, composto dal prefisso geo- che rimanda alla parola greca γή.

Vedere Regressione lineare e Geometria

George Udny Yule

Di famiglia di tradizioni letterarie e amministrative, frequenta la scuola di Winchester e a 16 anni si iscrive ai corsi di ingegneria presso l'University College di Londra.

Vedere Regressione lineare e George Udny Yule

Glossario sulle matrici

Questo glossario sulle matrici riporta termini utilizzati per il trattamento di queste entità matematiche, che rivestono grande importanza in svariate branche e applicazioni della scienza.

Vedere Regressione lineare e Glossario sulle matrici

Idempotenza

In informatica, in matematica, e in particolare in algebra, lidempotenza è una proprietà delle funzioni per la quale applicando molteplici volte una funzione data, il risultato ottenuto è uguale a quello derivante dall'applicazione della funzione un'unica volta.

Vedere Regressione lineare e Idempotenza

Indice di correlazione di Pearson

In statistica, lindice di correlazione di Pearson (anche detto coefficiente di correlazione lineare, coefficiente di correlazione di Pearson o coefficiente di correlazione di Bravais-Pearson) tra due variabili statistiche è un indice che esprime un'eventuale relazione di linearità tra esse.

Vedere Regressione lineare e Indice di correlazione di Pearson

Indipendenza stocastica

Nell'ambito del calcolo delle probabilità, l'indipendenza stocastica di due eventi A e B si ha quando il verificarsi di uno non modifica la probabilità di verificarsi dell'altro, ovvero quando la probabilità condizionata mathbb(A|B) oppure mathbb(B|A) è pari rispettivamente a mathbb(A) e mathbb(B) queste due condizioni si possono sintetizzare con la formula.

Vedere Regressione lineare e Indipendenza stocastica

Inferenza bayesiana

L'inferenza bayesiana è un approccio all'inferenza statistica in cui le probabilità non sono interpretate come frequenze, proporzioni o concetti analoghi, ma piuttosto come livelli di fiducia nel verificarsi di un dato evento.

Vedere Regressione lineare e Inferenza bayesiana

Inferenza statistica

L'inferenza statistica (o statistica inferenziale) è il procedimento per cui si inducono le caratteristiche di una popolazione dall'osservazione di una parte di essa (detta "campione"), selezionata solitamente mediante un esperimento casuale (aleatorio).

Vedere Regressione lineare e Inferenza statistica

Ingegneria

Lingegneria è una scienza applicata che utilizza i principi scientifici per progettare e costruire macchine o veicoli, dispositivi o circuiti, edifici o infrastrutture, impianti o sistemi, programmi o algoritmi e altri elementi necessari a raggiungere uno o più obiettivi, come lo sfruttamento delle risorse naturali a disposizione dell'uomo o a risolvere un problema.

Vedere Regressione lineare e Ingegneria

Intercetta

In geometria analitica l'intercetta di una retta nel piano è il valore di una coordinata nel punto di intersezione tra la retta e l'asse relativo alla coordinata stessa.

Vedere Regressione lineare e Intercetta

Interpolazione

In matematica, e in particolare in analisi numerica, per interpolazione si intende un metodo per individuare nuovi punti del piano cartesiano a partire da un insieme finito di punti dati, nell'ipotesi che tutti i punti si possano riferire ad una funzione f(x) di una data famiglia di funzioni di una variabile reale.

Vedere Regressione lineare e Interpolazione

Iperpiano

La nozione di iperpiano è nata in geometria come generalizzazione della nozione di piano e successivamente ha avuto una riformulazione nella combinatoria, più precisamente nella teoria delle matroidi.

Vedere Regressione lineare e Iperpiano

Ipotesi nulla

Un'ipotesi nulla (in inglese null hypothesis, che significa letteralmente ipotesi zero) è un'affermazione sulla distribuzione di probabilità di una o più variabili casuali.

Vedere Regressione lineare e Ipotesi nulla

Italia

LItalia (AFI), ufficialmente Repubblica Italiana, è uno Stato membro dell'Unione europea, situato nell'Europa meridionale e occidentale, il cui territorio coincide in gran parte con l'omonima regione geografica.

Vedere Regressione lineare e Italia

John R. Taylor

Dopo aver conseguito il Bachelor of Arts in matematica all'Università di Cambridge nel 1960, ottenne il Ph.D. in fisica teorica nel 1963, presso l'Università della California a Berkeley, con una tesi dottorale sulla teoria della Matrice S, avendo quale relatore Geoffrey Chew, uno dei pionieri in quel campo.

Vedere Regressione lineare e John R. Taylor

Karl Pearson

Con i suoi lavori influenzò notevolmente la teoria statistica, in particolare è ricordato per l'introduzione dell'indice che porta il suo nome per lo studio della correlazione di dati.

Vedere Regressione lineare e Karl Pearson

Limite (matematica)

In matematica, il concetto di limite serve a descrivere l'andamento di una funzione all'avvicinarsi del suo argomento a un dato valore (limite di una funzione) oppure l'andamento di una successione al crescere illimitato dell'indice (limite di una successione).

Vedere Regressione lineare e Limite (matematica)

Lingua inglese

Linglese (nome nativo: English) è una lingua indoeuropea, parlata da circa 1,452 miliardi di persone al 2022. Secondo Ethnologue 2022 (25ª edizione), è la lingua più parlata al mondo per numero di parlanti totali (nativi e stranieri) ed è la terza per numero di parlanti madrelingua (L1) (la prima è il cinese e la seconda è lo spagnolo).

Vedere Regressione lineare e Lingua inglese

Linguistica

La linguistica è lo studio scientifico del linguaggio verbale umano e delle sue strutture. Essa include lo studio della fonetica, della grammatica, del lessico, della morfologia, della sintassi e della testualità.

Vedere Regressione lineare e Linguistica

Massimo e minimo di una funzione

In matematica, con massimo e minimo di una funzione (noti collettivamente come estremi) sì intendono rispettivamente il valore massimo e il valore minimo che la funzione assume nel suo dominio.

Vedere Regressione lineare e Massimo e minimo di una funzione

Matrice

In matematica, in particolare in algebra lineare, una matrice è una tabella ordinata di elementi. Ad esempio: 1 & 0 & 5 1 & -3 & 0 end.

Vedere Regressione lineare e Matrice

Matrice identità

In matematica, la matrice identità, anche detta matrice identica o matrice unità, è una matrice quadrata in cui tutti gli elementi della diagonale principale sono costituiti dal numero 1, mentre i restanti elementi sono 0.

Vedere Regressione lineare e Matrice identità

Matrice simmetrica

In algebra lineare, una matrice simmetrica è una matrice quadrata che ha la proprietà di essere la trasposta di se stessa.

Vedere Regressione lineare e Matrice simmetrica

Media (statistica)

In statistica, la media è un singolo valore numerico che descrive sinteticamente un insieme di dati. Esistono diversi tipi di media che possono essere scelte per descrivere un fenomeno: quelle più comunemente impiegate sono le tre cosiddette medie pitagoriche (aritmetica, geometrica e armonica).

Vedere Regressione lineare e Media (statistica)

Medicina

La medicina è la scienza che studia le malattie del corpo umano al fine di cercare di garantire la salute delle persone, in particolare riguardo alla definizione, prevenzione e cura delle malattie, oltre alle diverse modalità di alleviare le sofferenze dei malati (anche di coloro che non possono più guarire).

Vedere Regressione lineare e Medicina

Metodo dei minimi quadrati

Il metodo dei minimi quadrati (in inglese OLS: Ordinary Least Squares) è una tecnica di ottimizzazione (o regressione) che permette di trovare una funzione, rappresentata da una curva ottima (o curva di regressione), che si avvicini il più possibile ad un insieme di dati (tipicamente punti del piano).

Vedere Regressione lineare e Metodo dei minimi quadrati

Metodo della massima verosimiglianza

Il metodo della massima verosimiglianza, in statistica, è un procedimento matematico per determinare uno stimatore. Caso particolare della più ampia classe di metodi di stima basata sugli stimatori d'estremo, il metodo consiste nel massimizzare la funzione di verosimiglianza, definita in base alla probabilità di osservare una data realizzazione campionaria, condizionatamente ai valori assunti dai parametri statistici oggetto di stima.

Vedere Regressione lineare e Metodo della massima verosimiglianza

Metodo delta

In statistica ed econometria, il metodo delta è un modo per derivare la distribuzione di probabilità approssimata di una funzione di uno stimatore asintoticamente normalmente distribuito, conoscendo la varianza asintotica di tale stimatore.

Vedere Regressione lineare e Metodo delta

Minimi quadrati generalizzati

Il metodo dei minimi quadrati generalizzati di Aitken consente la stima di un modello lineare, sotto ipotesi più generali di quelle del modello classico di regressione lineare multivariata.

Vedere Regressione lineare e Minimi quadrati generalizzati

Modello matematico

Un modello matematico è una rappresentazione quantitativa di un fenomeno naturale. Come tutti gli altri modelli usati nella scienza, il suo scopo è quello di rappresentare il più incisivamente possibile un determinato oggetto, un fenomeno reale o un insieme di fenomeni (modello matematico di un sistema fisico, sistema chimico o sistema biologico).

Vedere Regressione lineare e Modello matematico

Omoschedasticità

In statistica, l'omoschedasticità è la proprietà di una collezione di variabili aleatorie di avere tutte la stessa varianza finita. In questo caso le variabili si dicono omoschedastiche, altrimenti vengono definite eteroschedastiche.

Vedere Regressione lineare e Omoschedasticità

Operatore (matematica)

In matematica il termine operatore viene usato in vari contesti con significati che presentano alcune diversità, ma che in ogni caso si collegano alla nozione di funzione.

Vedere Regressione lineare e Operatore (matematica)

Parametro (statistica)

In statistica, si definisce parametro un valore che definisce una caratteristica "relativamente" costante di una funzione o di una popolazione, che serve a descriverla.

Vedere Regressione lineare e Parametro (statistica)

Proiezione (geometria)

In algebra lineare e analisi funzionale, una proiezione è una trasformazione lineare P definita da uno spazio vettoriale in sé stesso (endomorfismo) che è idempotente, cioè tale per cui P^2.

Vedere Regressione lineare e Proiezione (geometria)

Psicologia

La psicologia è una scienza che studia gli stati mentali e i processi emotivi, cognitivi, sociali e comportamentali nelle loro componenti consce e inconscecfr..

Vedere Regressione lineare e Psicologia

Punto medio

In geometria, il punto medio è il punto equidistante da due altri punti presi a riferimento e allineato con essi; solitamente lo si associa a un segmento, i cui punti di riferimento sono gli estremi, che divide in due parti congruenti (o isometriche).

Vedere Regressione lineare e Punto medio

Rango (algebra lineare)

In matematica, in particolare in algebra lineare, il rango (o caratteristica) di una matrice A a valori in un certo campo è il massimo numero di righe (o colonne) linearmente indipendenti in A. Il rango di una matrice può essere formulato in numerosi modi equivalenti, ed è una quantità fondamentale in algebra lineare, utile per risolvere i sistemi lineari e studiare le applicazioni lineari.

Vedere Regressione lineare e Rango (algebra lineare)

Regressione nonlineare

In statistica la regressione non lineare è un metodo di stima di una curva interpolante un modello della forma: su un insieme di osservazioni (eventualmente multi-dimensionali), concernenti le variabili X, Y.

Vedere Regressione lineare e Regressione nonlineare

Ronald Fisher

Dal 1919 al 1933 è stato docente presso la stazione sperimentale di Rothamsted, poi, dal 1933 al 1943 a capo del dipartimento di eugenetica allUniversity College di Londra e infine, dal 1943 al 1957 titolare della cattedra di genetica all'Università di Cambridge.

Vedere Regressione lineare e Ronald Fisher

Royal Statistical Society

La Royal Statistical Society, affiliata all'Istituto Internazionale di Statistica, importante istituzione per la statistica britannica e mondiale, è stata fondata nel 1834 come Statistical Society of London su proposta di Lambert-Adolphe-Jacques Quételet e nel 1887 diventa Royal Statistical Society.

Vedere Regressione lineare e Royal Statistical Society

Scarto quadratico medio

Lo scarto quadratico medio (o deviazione standard, o scarto tipo, o scostamento quadratico medio) è un indice di dispersione statistica, vale a dire un indicatore usato per fornire una stima sintetica della variabilità di una popolazione di dati o di una variabile casuale.

Vedere Regressione lineare e Scarto quadratico medio

Scienza applicata

La scienza applicata è l'uso del metodo scientifico e delle conoscenze ottenute attraverso le conclusioni del metodo per raggiungere obiettivi pratici.

Vedere Regressione lineare e Scienza applicata

Scienze sociali

Le scienze sociali o scienze umane sono una branca della scienza, dedicata allo studio delle società e delle relazioni sociali tra gli individui all'interno di tali società attraverso il metodo scientifico.

Vedere Regressione lineare e Scienze sociali

Serie storica

In statistica descrittiva, una serie storica (o temporale) si definisce come un insieme di osservazioni ordinate rispetto al tempo, ed esprime la dinamica di un certo fenomeno nel tempo.

Vedere Regressione lineare e Serie storica

Significatività

In statistica la significatività è la possibilità rilevante che compaia un determinato valore. Ci si riferisce anche a "statisticamente differente da zero", ma ciò non significa che la "significatività" sia rilevante, o vasta, come indurrebbe a pensare la parola.

Vedere Regressione lineare e Significatività

Sociologia

La sociologia è lo studio sistematico delle società, modelli di relazioni sociali, interazione sociale e cultura. I sociologi utilizzano una varietà di metodi di ricerca per studiare il comportamento e le esperienze delle persone nei gruppi sociali.

Vedere Regressione lineare e Sociologia

Spazio (matematica)

In matematica il termine spazio è ampiamente utilizzato e si collega ad un concetto estremamente importante e generale. Il termine spazio compare nei nomi di svariate strutture algebriche e/o topologiche (in genere continue e di interesse per la geometria, ma anche discrete) le quali hanno in comune il fatto di costituire l'ambiente entro il quale si costruiscono o si definiscono strutture più specifiche (figure, forme, politopi, superfici, ecc.).

Vedere Regressione lineare e Spazio (matematica)

Statistica

La statistica è una scienza che ha come scopo lo studio quantitativo e qualitativo di un particolare fenomeno collettivo in condizioni di incertezza o non determinismo, cioè di non completa conoscenza di esso o di una sua parte.

Vedere Regressione lineare e Statistica

Statistica di Durbin-Watson

La statistica di Durbin-Watson è un test statistico utilizzato per rilevare la presenza di autocorrelazione dei residui in un'analisi di regressione.

Vedere Regressione lineare e Statistica di Durbin-Watson

Stima

La stima è una valutazione effettuata dal valutatore finalizzata a stabilire il valore numerico di una grandezza, come ad esempio il valore economico e monetario di un bene mobile o immobile.

Vedere Regressione lineare e Stima

Stimatore

In statistica uno stimatore (puntuale) è una funzione che associa ad ogni possibile campione un valore del parametro da stimare. È una funzione di un campione di dati estratti casualmente da una popolazione.

Vedere Regressione lineare e Stimatore

Teorema di Frisch-Waugh-Lovell

In econometria, il teorema di Frisch, Waugh e Lovell afferma che la determinazione dei coefficienti di un modello di regressione lineare tramite il metodo dei minimi quadrati è equivalente alla loro determinazione tramite un metodo basato su matrici di proiezione.

Vedere Regressione lineare e Teorema di Frisch-Waugh-Lovell

Teorema di Gauss-Markov

Il teorema di Gauss-Markov, così chiamato in onore dei matematici Carl Friedrich Gauss e Andrej Markov, è un teorema in statistica matematica che afferma che in un modello lineare in cui i disturbi hanno valore atteso nullo, sono incorrelati e omoschedastici, gli stimatori lineari corretti più efficienti sono gli stimatori ottenuti con il metodo dei minimi quadrati.

Vedere Regressione lineare e Teorema di Gauss-Markov

Teoremi del limite centrale

I teoremi del limite centrale sono una famiglia di teoremi di convergenza debole nell'ambito della teoria della probabilità. Una delle formulazioni più note del teorema è la seguente: Sia X_j una delle n variabili aleatorie indipendenti e identicamente distribuite, e siano E.

Vedere Regressione lineare e Teoremi del limite centrale

Teoria della stima

La teoria della stima è un ramo della statistica e dell'elaborazione numerica dei segnali che ha come obiettivo la stima di parametri, scalari o vettoriali, a partire da dati misurati/empirici, la cui distribuzione è influenzata dai valori effettivi assunti da tali parametri.

Vedere Regressione lineare e Teoria della stima

Test di verifica d'ipotesi

In statistica, il test di verifica d'ipotesi è uno strumento atto a verificare la veridicità di un'ipotesi formulata, che si presta ad essere confermata o smentita dai dati osservati sperimentalmente.

Vedere Regressione lineare e Test di verifica d'ipotesi

Trasformazione affine

In geometria, si definisce trasformazione affine dello spazio euclideo qualunque composizione di una trasformazione lineare mathbf con una traslazione; in simboli, la più generale trasformazione affine può essere scritta come dove L: R^n to R^n è una trasformazione lineare e T_: R^n to R^n è una traslazione; esplicitamente, l'azione di A è data da dove mathbf è la matrice quadrata che rappresenta L e mathbf il vettore che determina la traslazione.

Vedere Regressione lineare e Trasformazione affine

Trasformazione lineare

In matematica, e più precisamente in algebra lineare, una trasformazione lineare, detta anche applicazione lineare o mappa lineare, è una funzione lineare tra due spazi vettoriali sullo stesso campo, cioè una funzione che conserva le operazioni di somma di vettori e di moltiplicazione per uno scalare.

Vedere Regressione lineare e Trasformazione lineare

Valore assoluto

In matematica, il valore assoluto o modulo di un numero reale x è una funzione che associa a x un numero reale non negativo secondo la seguente definizione: se x è non negativo, il suo valore assoluto è x stesso; se x è negativo, il suo valore assoluto è -x. Ad esempio, il valore assoluto sia di 3 che di -3 è 3.

Vedere Regressione lineare e Valore assoluto

Valore atteso

In teoria della probabilità il valore atteso (chiamato anche media o speranza matematica) di una variabile casuale X è un numero indicato con mathbb (da expected value o expectation in inglese o dal francese espérance) che formalizza l'idea euristica di valore medio di un fenomeno aleatorio.

Vedere Regressione lineare e Valore atteso

Variabile (matematica)

In matematica, una variabile è un carattere alfabetico che rappresenta un numero arbitrario, non completamente specificato o del tutto sconosciuto ovvero incognito.

Vedere Regressione lineare e Variabile (matematica)

Variabile casuale

In matematica, e in particolare nella teoria della probabilità, una variabile casuale (detta anche variabile aleatoria o variabile stocastica) è una variabile che può assumere valori diversi in dipendenza da qualche fenomeno aleatorio.

Vedere Regressione lineare e Variabile casuale

Variabili dipendenti e indipendenti

In matematica e in statistica, una variabile può essere definita dipendente o indipendente, a seconda della relazione esistente tra essa e altre variabili.

Vedere Regressione lineare e Variabili dipendenti e indipendenti

Variabili strumentali

In statistica, la stima con il metodo delle variabili strumentali è utilizzata nell'analisi di regressione lineare. Un'ipotesi standard del modello classico di regressione lineare è che le variabili esplicative non siano correlate con la componente non spiegata, o disturbo; laddove tale ipotesi viene meno, la regressione con il consueto metodo dei minimi quadrati non consentirà di ottenere stime consistenti (cioè asintoticamente corrette e con varianza asintoticamente nulla).

Vedere Regressione lineare e Variabili strumentali

Varianza

In statistica e in teoria della probabilità la varianza di una variabile statistica o di una variabile aleatoria X è una funzione, indicata con sigma^2_X o con mathrm(X) (o semplicemente con sigma^2 se la variabile è sottintesa), che fornisce una misura della variabilità dei valori assunti dalla variabile stessa; nello specifico, la misura di quanto essi si discostino quadraticamente rispettivamente dalla media aritmetica o dal valore atteso mathbb E.

Vedere Regressione lineare e Varianza

Vettore (matematica)

In matematica, un vettore è un elemento di uno spazio vettoriale. I vettori sono quindi elementi che possono essere sommati fra loro e moltiplicati per dei numeri, detti scalari.

Vedere Regressione lineare e Vettore (matematica)

XIX secolo

È il primo secolo dell'età contemporanea, un secolo di grandi trasformazioni sociali, politiche, culturali ed economiche a partire dall'ascesa e dalla caduta di Napoleone Bonaparte e la successiva Restaurazione, i moti rivoluzionari, la costituzione di molti stati moderni tra cui il regno d'Italia e l'impero germanico, la guerra di secessione americana, la seconda rivoluzione industriale fra positivismo, evoluzionismo e decadentismo, l'imperialismo e sul finire la grande depressione e la Belle Époque.

Vedere Regressione lineare e XIX secolo

2000

È stato l'ultimo anno del XX secolo e del II millennio secondo il calendario gregoriano. Nel calendario cinese è l'anno del Dragone e, nel calendario astrologico occidentale, è l'anno del Leone.

Vedere Regressione lineare e 2000

2004

È stato proclamato anno internazionale del riso.

Vedere Regressione lineare e 2004

Conosciuto come Fit lineare, Regressione lineare multipla, Regressioni lineari, Retta dei minimi quadrati.

, Inferenza statistica, Ingegneria, Intercetta, Interpolazione, Iperpiano, Ipotesi nulla, Italia, John R. Taylor, Karl Pearson, Limite (matematica), Lingua inglese, Linguistica, Massimo e minimo di una funzione, Matrice, Matrice identità, Matrice simmetrica, Media (statistica), Medicina, Metodo dei minimi quadrati, Metodo della massima verosimiglianza, Metodo delta, Minimi quadrati generalizzati, Modello matematico, Omoschedasticità, Operatore (matematica), Parametro (statistica), Proiezione (geometria), Psicologia, Punto medio, Rango (algebra lineare), Regressione nonlineare, Ronald Fisher, Royal Statistical Society, Scarto quadratico medio, Scienza applicata, Scienze sociali, Serie storica, Significatività, Sociologia, Spazio (matematica), Statistica, Statistica di Durbin-Watson, Stima, Stimatore, Teorema di Frisch-Waugh-Lovell, Teorema di Gauss-Markov, Teoremi del limite centrale, Teoria della stima, Test di verifica d'ipotesi, Trasformazione affine, Trasformazione lineare, Valore assoluto, Valore atteso, Variabile (matematica), Variabile casuale, Variabili dipendenti e indipendenti, Variabili strumentali, Varianza, Vettore (matematica), XIX secolo, 2000, 2004.