Indice
112 relazioni: Adrien-Marie Legendre, Analisi numerica, Astronomia, Auguste Bravais, Autocorrelazione, Base di dati, Bias (statistica), Biologia, Biometrika, Bootstrap (statistica), Campionamento statistico, Carl Friedrich Gauss, Causa (filosofia), Charles Darwin, Chimica, Coefficiente, Coefficiente angolare, Coefficiente di determinazione, Combinazione lineare, Consistenza (statistica), Convergenza di variabili casuali, Correlazione (statistica), Correlazione spuria, Covarianza (probabilità), Dati panel, Derivata parziale, Distanza di un punto da un insieme, Distribuzione di Fisher-Snedecor, Distribuzione normale, Distribuzione t di Student, Econometria, Economia, Efficienza (statistica), Errore statistico, Eteroschedasticità, Eulero, Finanza, Fisica, Forma quadratica, Francis Galton, Funzione (matematica), Funzione di ripartizione, Geologia, Geometria, George Udny Yule, Glossario sulle matrici, Idempotenza, Indice di correlazione di Pearson, Indipendenza stocastica, Inferenza bayesiana, ... Espandi índice (62 più) »
Adrien-Marie Legendre
Discepolo di Eulero e Lagrange, ha pubblicato un lavoro ormai classico sulla geometria, Élements de géométrie. Ha anche dato significativi contributi alle equazioni differenziali, all'analisi, alla teoria delle funzioni, alla meccanica e in teoria dei numeri con l'opera Essai sur la théorie des nombres (1797-1798); nel 1782 gli fu concesso il premio offerto dall'Accademia di Berlino per i suoi studi sulla dinamica dei proiettili.
Vedere Regressione lineare e Adrien-Marie Legendre
Analisi numerica
L'analisi numerica è una branca della matematica applicata che risolve i modelli prodotti dall'analisi matematica alle scomposizioni finite normalmente praticabili, coinvolgendo il concetto di approssimazione.
Vedere Regressione lineare e Analisi numerica
Astronomia
Lastronomia è la scienza naturale che si occupa dell'osservazione e della spiegazione degli eventi celesti che si verificano nello spazio. Studia le origini e l'evoluzione, le proprietà fisiche, chimiche e temporali degli oggetti che formano l'universo e che possono essere osservati sulla sfera celeste.
Vedere Regressione lineare e Astronomia
Auguste Bravais
Studiò al Collège Stanislas a Parigi e nel 1829 entrò all'École Polytechnique. Alla fine dei suoi studi divenne un ufficiale di marina. Grande avventuriero, si imbarcò sul Finistère nel 1832, e in seguito sul Loiret; cooperò a lavori di idrografia lungo le coste algerine.
Vedere Regressione lineare e Auguste Bravais
Autocorrelazione
L'autocorrelazione definisce il grado di dipendenza tra i valori assunti da una funzione campionata nel suo dominio in ascissa. Se è dimostrata l'autocorrelazione tra due valori, al cambiare delle peculiarità di uno di essi varierà anche l'altro.
Vedere Regressione lineare e Autocorrelazione
Base di dati
In informatica una base di dati, detta anche, dall'inglese, database o data base, o anche banca dati, è una collezione di dati organizzati immagazzinata e accessibile per via elettronica.
Vedere Regressione lineare e Base di dati
Bias (statistica)
In statistica, i termini bias (etimologia incerta), distorsione o scostamento sono usati con riferimento a due concetti. Un campione distorto è un campione statistico in cui la probabilità di inclusione nel campione di individui appartenenti alla popolazione dipende dalle caratteristiche della popolazione oggetto di studio.
Vedere Regressione lineare e Bias (statistica)
Biologia
La biologia (neologismo scientifico del XVIII secolo, composto dalle parole greche βίος, bìos.
Vedere Regressione lineare e Biologia
Biometrika
La rivista britannica Biometrika venne creata nell'ottobre 1901 per iniziativa di Karl Pearson, Walter Frank Raphael Weldon e Charles Davenport.
Vedere Regressione lineare e Biometrika
Bootstrap (statistica)
Il bootstrap è una tecnica statistica di ricampionamento con reimmissione per approssimare la distribuzione campionaria di una statistica. Permette perciò di approssimare media e varianza di uno stimatore, costruire intervalli di confidenza e calcolare p-value di test quando, in particolare, non si conosce la distribuzione della statistica di interesse.
Vedere Regressione lineare e Bootstrap (statistica)
Campionamento statistico
In statistica il campionamento statistico (che si appoggia alla teoria dei campioni o "teoria del campionamento") sta alla base dell'inferenza statistica, la quale si divide in due grandi capitoli: la teoria della stima e la verifica d'ipotesi.
Vedere Regressione lineare e Campionamento statistico
Carl Friedrich Gauss
Talvolta definito «il Principe dei matematici» (Princeps mathematicorum) come Eulero o «il più grande matematico della modernità» (in opposizione ad Archimede, considerato dallo stesso Gauss come il maggiore fra i matematici dell'antichità), è annoverato fra i più importanti matematici della storia avendo contribuito in modo decisivo all'evoluzione delle scienze matematiche, fisiche e naturali.
Vedere Regressione lineare e Carl Friedrich Gauss
Causa (filosofia)
In filosofia, nelle scienze e nel senso comune, il concetto di causa, assieme a quello connesso di causalità (o relazione causale) indica la relazione tra due fenomeni (o classi di fenomeni), nel caso in cui il primo fenomeno, detto causa, è motivo di esistenza del secondo, detto effetto.
Vedere Regressione lineare e Causa (filosofia)
Charles Darwin
Pubblicò la sua teoria sull'evoluzione delle specie nel libro L'origine delle specie (1859), che è il suo lavoro più noto. Inoltre egli raccolse molti dei dati su cui basò la sua teoria durante un viaggio intorno al mondo sulla nave HMS ''Beagle'', e in particolare durante la sua sosta alle Galápagos.
Vedere Regressione lineare e Charles Darwin
Chimica
La chimica (da kemà, il libro dei segreti dell'arte egizia, da cui l'arabo "al-kimiaa" "الكيمياء") è la scienza naturale che studia la composizione, la struttura e le proprietà della materia, sia essa in forma di elementi, specie, composti, miscele o altre sostanze, e i cambiamenti che questi subiscono durante le reazioni e il loro rapporto con l'energia chimica.
Vedere Regressione lineare e Chimica
Coefficiente
Un coefficiente è un numero puro (rapporto tra due grandezze con la stessa unità di misura) o una quantità che moltiplica una variabile algebrica.
Vedere Regressione lineare e Coefficiente
Coefficiente angolare
In geometria analitica il coefficiente angolare, o informalmente pendenza, di una retta nel piano cartesiano è un numero che descrive la direzione e la "ripidezza" della retta.
Vedere Regressione lineare e Coefficiente angolare
Coefficiente di determinazione
In statistica, il coefficiente di determinazione, più comunemente R2, è un indice che misura il legame tra la variabilità dei dati e la correttezza del modello statistico utilizzato.
Vedere Regressione lineare e Coefficiente di determinazione
Combinazione lineare
In matematica, una combinazione lineare è un'operazione principalmente usata nell'ambito dell'algebra lineare. Una combinazione lineare di alcuni elementi di uno spazio vettoriale è un'espressione del tipo: dove i v_i sono elementi dello spazio vettoriale e gli a_i sono scalari.
Vedere Regressione lineare e Combinazione lineare
Consistenza (statistica)
In statistica, la consistenza è una proprietà di desiderabilità degli stimatori. In sostanza uno stimatore è consistente se, all'aumentare dell'informazione, ossia della numerosità del campione, la sua distribuzione di probabilità si concentra in corrispondenza del valore del parametro da stimare.
Vedere Regressione lineare e Consistenza (statistica)
Convergenza di variabili casuali
In teoria della probabilità e statistica è molto vivo il problema di studiare fenomeni con comportamento incognito ma, nei grandi numeri, riconducibili a fenomeni noti e ben studiati.
Vedere Regressione lineare e Convergenza di variabili casuali
Correlazione (statistica)
In statistica, una correlazione è una relazione tra due variabili tale che a ciascun valore della prima corrisponda un valore della seconda, seguendo una certa regolarità.
Vedere Regressione lineare e Correlazione (statistica)
Correlazione spuria
In statistica la correlazione spuria è un problema che nasce nell'ambito delle analisi che calcolano la correlazione o effettuano una regressione, quando non è rispettata l'assunzione che le osservazioni sono indipendenti e identicamente distribuite.
Vedere Regressione lineare e Correlazione spuria
Covarianza (probabilità)
In statistica e in teoria della probabilità, la covarianza di due variabili statistiche o variabili aleatorie è un valore numerico che fornisce una misura di quanto le due varino assieme.
Vedere Regressione lineare e Covarianza (probabilità)
Dati panel
I dati longitudinali (o dati panel) vengono definiti dati che prevedono l’osservazione di differenti variabili, ciascuna in una serie di periodi di tempo.
Vedere Regressione lineare e Dati panel
Derivata parziale
In analisi matematica, la derivata parziale è una prima generalizzazione del concetto di derivata di una funzione reale alle funzioni di più variabili.
Vedere Regressione lineare e Derivata parziale
Distanza di un punto da un insieme
In geometria, la distanza di un punto è la misura della distanza di un punto da un'altra entità geometrica nel piano o nello spazio. Generalmente, tale distanza è definita come la distanza minima fra il punto ed i vari punti dell'entità geometrica: La distanza può essere semplice da calcolare quanto avviene fra due punti definiti, o più complicata quando l'altro elemento è un insieme di punti; in questo caso bisogna prima individuare su quale traiettoria lineare bisogna misurarla.
Vedere Regressione lineare e Distanza di un punto da un insieme
Distribuzione di Fisher-Snedecor
In teoria delle probabilità la distribuzione di Fisher-Snedecor (o F di Snedecor, o Z di Fisher) è una distribuzione di probabilità continua che regola il rapporto "riscalato" tra due variabili aleatorie che seguono due distribuzioni chi^2. Viene impiegata nell'analisi della varianza e in generale per l'omonimo test F.
Vedere Regressione lineare e Distribuzione di Fisher-Snedecor
Distribuzione normale
La distribuzione normale (o distribuzione di Gauss dal nome del matematico tedesco Carl Friedrich Gauss, o distribuzione a Campana di Gauss), nella teoria della probabilità, è una distribuzione di probabilità continua che è spesso usata come prima approssimazione per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio.
Vedere Regressione lineare e Distribuzione normale
Distribuzione t di Student
Nella teoria delle probabilità la distribuzione di Student, o t di Student, è una distribuzione di probabilità continua che governa il rapporto tra due variabili aleatorie, la prima con distribuzione normale standard e la seconda, al quadrato, segue una distribuzione chi quadrato.
Vedere Regressione lineare e Distribuzione t di Student
Econometria
In economia l'econometria è l'uso di metodi matematici e statistici per produrre modelli atti a verificare la validità di ipotesi in fatto di politica economica.
Vedere Regressione lineare e Econometria
Economia
Leconomia (o sistema economico) è il sistema e l'organizzazione dei mercati, risorse, della produttività e del complesso di scambi, produzioni e commerci di oggetti e servizi, come gli innumerevoli servizi dei sistemi di finanziamenti, investimenti e di fondazione di attività economiche in ogni settore, di ogni dimensione e ad ogni scopo.
Vedere Regressione lineare e Economia
Efficienza (statistica)
In statistica, l'efficienza è una misura di desiderabilità di uno stimatore. L'efficienza di una statistica corretta T per un parametro vartheta è definita come: dove mathcal(vartheta) è l'informazione di Fisher del campione; e(T) è uguale al rapporto tra la minima varianza possibile per uno stimatore di vartheta e la sua varianza effettiva.
Vedere Regressione lineare e Efficienza (statistica)
Errore statistico
L'errore casuale o statistico o indeterminato o accidentale è un errore di misurazione che può incidere con la stessa probabilità in aumento o in diminuzione sul valore misurato.
Vedere Regressione lineare e Errore statistico
Eteroschedasticità
In statistica, un campione di variabili casuali è eteroschedastico (dal Greco antico hetero “differente” e skedasis “dispersione”) se al suo interno esistono sotto-popolazioni che hanno diverse varianze.
Vedere Regressione lineare e Eteroschedasticità
Eulero
È considerato il più importante matematico del Settecento, e uno dei massimi della storia. È noto per essere tra i più prolifici di tutti i tempi e ha fornito contributi storicamente cruciali in svariate aree: analisi infinitesimale, funzioni speciali, meccanica razionale, meccanica celeste, teoria dei numeri, teoria dei grafi.
Vedere Regressione lineare e Eulero
Finanza
La finanza è la disciplina economica che studia i processi e le scelte di investimento e finanziamento, soffermando l'analisi sul lato prettamente tecnico, cioè prezzatura (pricing), copertura (hedging) e valutazione delle attività oggetto dell'investimento o finanziamento.
Vedere Regressione lineare e Finanza
Fisica
La fisica (termine che deriva dal latino physica, "natura" a sua volta derivante pp, nato da, entrambi derivati dall'origine comune indoeuropea) è la scienza della natura che studia la materia, i suoi costituenti fondamentali, il suo movimento e comportamento attraverso lo spazio tempo, e le relative entità di energia e forza.
Vedere Regressione lineare e Fisica
Forma quadratica
In matematica una forma quadratica è un polinomio omogeneo di grado 2 in un certo numero di variabili. Ad esempio la distanza tra due punti di uno spazio euclideo tridimensionale è ottenuta dalla radice quadrata di una forma quadratica in 6 variabili, le tre coordinate cartesiane ortogonali di ciascuno dei due punti.
Vedere Regressione lineare e Forma quadratica
Francis Galton
Oltre a tale parola, ha lasciato alla scienza anche termini come anticiclone – in quanto si interessava anche di meteorologia – e regressione e correlazione.
Vedere Regressione lineare e Francis Galton
Funzione (matematica)
In matematica, una funzione è una relazione tra due insiemi, chiamati dominio e codominio della funzione, che associa a ogni elemento del dominio uno e un solo elemento del codominio.
Vedere Regressione lineare e Funzione (matematica)
Funzione di ripartizione
In statistica e teoria della probabilità, la funzione di ripartizione (o funzione cumulativa) è una funzione di variabile reale che racchiude le informazioni su un fenomeno (un insieme di dati, un evento casuale) riguardanti la sua presenza o la sua distribuzione prima o dopo un certo punto.
Vedere Regressione lineare e Funzione di ripartizione
Geologia
La geologia (dal greco γῆ, gê, "terra" e λόγος, logos, "studio") è la disciplina delle scienze della Terra che studia i processi fisico-chimici che plasmano e trasformano nel tempo la Terra, in riferimento alle rocce di cui è composta (Litosfera).
Vedere Regressione lineare e Geologia
Geometria
La geometria (e questo, composto dal prefisso geo- che rimanda alla parola greca γή.
Vedere Regressione lineare e Geometria
George Udny Yule
Di famiglia di tradizioni letterarie e amministrative, frequenta la scuola di Winchester e a 16 anni si iscrive ai corsi di ingegneria presso l'University College di Londra.
Vedere Regressione lineare e George Udny Yule
Glossario sulle matrici
Questo glossario sulle matrici riporta termini utilizzati per il trattamento di queste entità matematiche, che rivestono grande importanza in svariate branche e applicazioni della scienza.
Vedere Regressione lineare e Glossario sulle matrici
Idempotenza
In informatica, in matematica, e in particolare in algebra, lidempotenza è una proprietà delle funzioni per la quale applicando molteplici volte una funzione data, il risultato ottenuto è uguale a quello derivante dall'applicazione della funzione un'unica volta.
Vedere Regressione lineare e Idempotenza
Indice di correlazione di Pearson
In statistica, lindice di correlazione di Pearson (anche detto coefficiente di correlazione lineare, coefficiente di correlazione di Pearson o coefficiente di correlazione di Bravais-Pearson) tra due variabili statistiche è un indice che esprime un'eventuale relazione di linearità tra esse.
Vedere Regressione lineare e Indice di correlazione di Pearson
Indipendenza stocastica
Nell'ambito del calcolo delle probabilità, l'indipendenza stocastica di due eventi A e B si ha quando il verificarsi di uno non modifica la probabilità di verificarsi dell'altro, ovvero quando la probabilità condizionata mathbb(A|B) oppure mathbb(B|A) è pari rispettivamente a mathbb(A) e mathbb(B) queste due condizioni si possono sintetizzare con la formula.
Vedere Regressione lineare e Indipendenza stocastica
Inferenza bayesiana
L'inferenza bayesiana è un approccio all'inferenza statistica in cui le probabilità non sono interpretate come frequenze, proporzioni o concetti analoghi, ma piuttosto come livelli di fiducia nel verificarsi di un dato evento.
Vedere Regressione lineare e Inferenza bayesiana
Inferenza statistica
L'inferenza statistica (o statistica inferenziale) è il procedimento per cui si inducono le caratteristiche di una popolazione dall'osservazione di una parte di essa (detta "campione"), selezionata solitamente mediante un esperimento casuale (aleatorio).
Vedere Regressione lineare e Inferenza statistica
Ingegneria
Lingegneria è una scienza applicata che utilizza i principi scientifici per progettare e costruire macchine o veicoli, dispositivi o circuiti, edifici o infrastrutture, impianti o sistemi, programmi o algoritmi e altri elementi necessari a raggiungere uno o più obiettivi, come lo sfruttamento delle risorse naturali a disposizione dell'uomo o a risolvere un problema.
Vedere Regressione lineare e Ingegneria
Intercetta
In geometria analitica l'intercetta di una retta nel piano è il valore di una coordinata nel punto di intersezione tra la retta e l'asse relativo alla coordinata stessa.
Vedere Regressione lineare e Intercetta
Interpolazione
In matematica, e in particolare in analisi numerica, per interpolazione si intende un metodo per individuare nuovi punti del piano cartesiano a partire da un insieme finito di punti dati, nell'ipotesi che tutti i punti si possano riferire ad una funzione f(x) di una data famiglia di funzioni di una variabile reale.
Vedere Regressione lineare e Interpolazione
Iperpiano
La nozione di iperpiano è nata in geometria come generalizzazione della nozione di piano e successivamente ha avuto una riformulazione nella combinatoria, più precisamente nella teoria delle matroidi.
Vedere Regressione lineare e Iperpiano
Ipotesi nulla
Un'ipotesi nulla (in inglese null hypothesis, che significa letteralmente ipotesi zero) è un'affermazione sulla distribuzione di probabilità di una o più variabili casuali.
Vedere Regressione lineare e Ipotesi nulla
Italia
LItalia (AFI), ufficialmente Repubblica Italiana, è uno Stato membro dell'Unione europea, situato nell'Europa meridionale e occidentale, il cui territorio coincide in gran parte con l'omonima regione geografica.
Vedere Regressione lineare e Italia
John R. Taylor
Dopo aver conseguito il Bachelor of Arts in matematica all'Università di Cambridge nel 1960, ottenne il Ph.D. in fisica teorica nel 1963, presso l'Università della California a Berkeley, con una tesi dottorale sulla teoria della Matrice S, avendo quale relatore Geoffrey Chew, uno dei pionieri in quel campo.
Vedere Regressione lineare e John R. Taylor
Karl Pearson
Con i suoi lavori influenzò notevolmente la teoria statistica, in particolare è ricordato per l'introduzione dell'indice che porta il suo nome per lo studio della correlazione di dati.
Vedere Regressione lineare e Karl Pearson
Limite (matematica)
In matematica, il concetto di limite serve a descrivere l'andamento di una funzione all'avvicinarsi del suo argomento a un dato valore (limite di una funzione) oppure l'andamento di una successione al crescere illimitato dell'indice (limite di una successione).
Vedere Regressione lineare e Limite (matematica)
Lingua inglese
Linglese (nome nativo: English) è una lingua indoeuropea, parlata da circa 1,452 miliardi di persone al 2022. Secondo Ethnologue 2022 (25ª edizione), è la lingua più parlata al mondo per numero di parlanti totali (nativi e stranieri) ed è la terza per numero di parlanti madrelingua (L1) (la prima è il cinese e la seconda è lo spagnolo).
Vedere Regressione lineare e Lingua inglese
Linguistica
La linguistica è lo studio scientifico del linguaggio verbale umano e delle sue strutture. Essa include lo studio della fonetica, della grammatica, del lessico, della morfologia, della sintassi e della testualità.
Vedere Regressione lineare e Linguistica
Massimo e minimo di una funzione
In matematica, con massimo e minimo di una funzione (noti collettivamente come estremi) sì intendono rispettivamente il valore massimo e il valore minimo che la funzione assume nel suo dominio.
Vedere Regressione lineare e Massimo e minimo di una funzione
Matrice
In matematica, in particolare in algebra lineare, una matrice è una tabella ordinata di elementi. Ad esempio: 1 & 0 & 5 1 & -3 & 0 end.
Vedere Regressione lineare e Matrice
Matrice identità
In matematica, la matrice identità, anche detta matrice identica o matrice unità, è una matrice quadrata in cui tutti gli elementi della diagonale principale sono costituiti dal numero 1, mentre i restanti elementi sono 0.
Vedere Regressione lineare e Matrice identità
Matrice simmetrica
In algebra lineare, una matrice simmetrica è una matrice quadrata che ha la proprietà di essere la trasposta di se stessa.
Vedere Regressione lineare e Matrice simmetrica
Media (statistica)
In statistica, la media è un singolo valore numerico che descrive sinteticamente un insieme di dati. Esistono diversi tipi di media che possono essere scelte per descrivere un fenomeno: quelle più comunemente impiegate sono le tre cosiddette medie pitagoriche (aritmetica, geometrica e armonica).
Vedere Regressione lineare e Media (statistica)
Medicina
La medicina è la scienza che studia le malattie del corpo umano al fine di cercare di garantire la salute delle persone, in particolare riguardo alla definizione, prevenzione e cura delle malattie, oltre alle diverse modalità di alleviare le sofferenze dei malati (anche di coloro che non possono più guarire).
Vedere Regressione lineare e Medicina
Metodo dei minimi quadrati
Il metodo dei minimi quadrati (in inglese OLS: Ordinary Least Squares) è una tecnica di ottimizzazione (o regressione) che permette di trovare una funzione, rappresentata da una curva ottima (o curva di regressione), che si avvicini il più possibile ad un insieme di dati (tipicamente punti del piano).
Vedere Regressione lineare e Metodo dei minimi quadrati
Metodo della massima verosimiglianza
Il metodo della massima verosimiglianza, in statistica, è un procedimento matematico per determinare uno stimatore. Caso particolare della più ampia classe di metodi di stima basata sugli stimatori d'estremo, il metodo consiste nel massimizzare la funzione di verosimiglianza, definita in base alla probabilità di osservare una data realizzazione campionaria, condizionatamente ai valori assunti dai parametri statistici oggetto di stima.
Vedere Regressione lineare e Metodo della massima verosimiglianza
Metodo delta
In statistica ed econometria, il metodo delta è un modo per derivare la distribuzione di probabilità approssimata di una funzione di uno stimatore asintoticamente normalmente distribuito, conoscendo la varianza asintotica di tale stimatore.
Vedere Regressione lineare e Metodo delta
Minimi quadrati generalizzati
Il metodo dei minimi quadrati generalizzati di Aitken consente la stima di un modello lineare, sotto ipotesi più generali di quelle del modello classico di regressione lineare multivariata.
Vedere Regressione lineare e Minimi quadrati generalizzati
Modello matematico
Un modello matematico è una rappresentazione quantitativa di un fenomeno naturale. Come tutti gli altri modelli usati nella scienza, il suo scopo è quello di rappresentare il più incisivamente possibile un determinato oggetto, un fenomeno reale o un insieme di fenomeni (modello matematico di un sistema fisico, sistema chimico o sistema biologico).
Vedere Regressione lineare e Modello matematico
Omoschedasticità
In statistica, l'omoschedasticità è la proprietà di una collezione di variabili aleatorie di avere tutte la stessa varianza finita. In questo caso le variabili si dicono omoschedastiche, altrimenti vengono definite eteroschedastiche.
Vedere Regressione lineare e Omoschedasticità
Operatore (matematica)
In matematica il termine operatore viene usato in vari contesti con significati che presentano alcune diversità, ma che in ogni caso si collegano alla nozione di funzione.
Vedere Regressione lineare e Operatore (matematica)
Parametro (statistica)
In statistica, si definisce parametro un valore che definisce una caratteristica "relativamente" costante di una funzione o di una popolazione, che serve a descriverla.
Vedere Regressione lineare e Parametro (statistica)
Proiezione (geometria)
In algebra lineare e analisi funzionale, una proiezione è una trasformazione lineare P definita da uno spazio vettoriale in sé stesso (endomorfismo) che è idempotente, cioè tale per cui P^2.
Vedere Regressione lineare e Proiezione (geometria)
Psicologia
La psicologia è una scienza che studia gli stati mentali e i processi emotivi, cognitivi, sociali e comportamentali nelle loro componenti consce e inconscecfr..
Vedere Regressione lineare e Psicologia
Punto medio
In geometria, il punto medio è il punto equidistante da due altri punti presi a riferimento e allineato con essi; solitamente lo si associa a un segmento, i cui punti di riferimento sono gli estremi, che divide in due parti congruenti (o isometriche).
Vedere Regressione lineare e Punto medio
Rango (algebra lineare)
In matematica, in particolare in algebra lineare, il rango (o caratteristica) di una matrice A a valori in un certo campo è il massimo numero di righe (o colonne) linearmente indipendenti in A. Il rango di una matrice può essere formulato in numerosi modi equivalenti, ed è una quantità fondamentale in algebra lineare, utile per risolvere i sistemi lineari e studiare le applicazioni lineari.
Vedere Regressione lineare e Rango (algebra lineare)
Regressione nonlineare
In statistica la regressione non lineare è un metodo di stima di una curva interpolante un modello della forma: su un insieme di osservazioni (eventualmente multi-dimensionali), concernenti le variabili X, Y.
Vedere Regressione lineare e Regressione nonlineare
Ronald Fisher
Dal 1919 al 1933 è stato docente presso la stazione sperimentale di Rothamsted, poi, dal 1933 al 1943 a capo del dipartimento di eugenetica allUniversity College di Londra e infine, dal 1943 al 1957 titolare della cattedra di genetica all'Università di Cambridge.
Vedere Regressione lineare e Ronald Fisher
Royal Statistical Society
La Royal Statistical Society, affiliata all'Istituto Internazionale di Statistica, importante istituzione per la statistica britannica e mondiale, è stata fondata nel 1834 come Statistical Society of London su proposta di Lambert-Adolphe-Jacques Quételet e nel 1887 diventa Royal Statistical Society.
Vedere Regressione lineare e Royal Statistical Society
Scarto quadratico medio
Lo scarto quadratico medio (o deviazione standard, o scarto tipo, o scostamento quadratico medio) è un indice di dispersione statistica, vale a dire un indicatore usato per fornire una stima sintetica della variabilità di una popolazione di dati o di una variabile casuale.
Vedere Regressione lineare e Scarto quadratico medio
Scienza applicata
La scienza applicata è l'uso del metodo scientifico e delle conoscenze ottenute attraverso le conclusioni del metodo per raggiungere obiettivi pratici.
Vedere Regressione lineare e Scienza applicata
Scienze sociali
Le scienze sociali o scienze umane sono una branca della scienza, dedicata allo studio delle società e delle relazioni sociali tra gli individui all'interno di tali società attraverso il metodo scientifico.
Vedere Regressione lineare e Scienze sociali
Serie storica
In statistica descrittiva, una serie storica (o temporale) si definisce come un insieme di osservazioni ordinate rispetto al tempo, ed esprime la dinamica di un certo fenomeno nel tempo.
Vedere Regressione lineare e Serie storica
Significatività
In statistica la significatività è la possibilità rilevante che compaia un determinato valore. Ci si riferisce anche a "statisticamente differente da zero", ma ciò non significa che la "significatività" sia rilevante, o vasta, come indurrebbe a pensare la parola.
Vedere Regressione lineare e Significatività
Sociologia
La sociologia è lo studio sistematico delle società, modelli di relazioni sociali, interazione sociale e cultura. I sociologi utilizzano una varietà di metodi di ricerca per studiare il comportamento e le esperienze delle persone nei gruppi sociali.
Vedere Regressione lineare e Sociologia
Spazio (matematica)
In matematica il termine spazio è ampiamente utilizzato e si collega ad un concetto estremamente importante e generale. Il termine spazio compare nei nomi di svariate strutture algebriche e/o topologiche (in genere continue e di interesse per la geometria, ma anche discrete) le quali hanno in comune il fatto di costituire l'ambiente entro il quale si costruiscono o si definiscono strutture più specifiche (figure, forme, politopi, superfici, ecc.).
Vedere Regressione lineare e Spazio (matematica)
Statistica
La statistica è una scienza che ha come scopo lo studio quantitativo e qualitativo di un particolare fenomeno collettivo in condizioni di incertezza o non determinismo, cioè di non completa conoscenza di esso o di una sua parte.
Vedere Regressione lineare e Statistica
Statistica di Durbin-Watson
La statistica di Durbin-Watson è un test statistico utilizzato per rilevare la presenza di autocorrelazione dei residui in un'analisi di regressione.
Vedere Regressione lineare e Statistica di Durbin-Watson
Stima
La stima è una valutazione effettuata dal valutatore finalizzata a stabilire il valore numerico di una grandezza, come ad esempio il valore economico e monetario di un bene mobile o immobile.
Vedere Regressione lineare e Stima
Stimatore
In statistica uno stimatore (puntuale) è una funzione che associa ad ogni possibile campione un valore del parametro da stimare. È una funzione di un campione di dati estratti casualmente da una popolazione.
Vedere Regressione lineare e Stimatore
Teorema di Frisch-Waugh-Lovell
In econometria, il teorema di Frisch, Waugh e Lovell afferma che la determinazione dei coefficienti di un modello di regressione lineare tramite il metodo dei minimi quadrati è equivalente alla loro determinazione tramite un metodo basato su matrici di proiezione.
Vedere Regressione lineare e Teorema di Frisch-Waugh-Lovell
Teorema di Gauss-Markov
Il teorema di Gauss-Markov, così chiamato in onore dei matematici Carl Friedrich Gauss e Andrej Markov, è un teorema in statistica matematica che afferma che in un modello lineare in cui i disturbi hanno valore atteso nullo, sono incorrelati e omoschedastici, gli stimatori lineari corretti più efficienti sono gli stimatori ottenuti con il metodo dei minimi quadrati.
Vedere Regressione lineare e Teorema di Gauss-Markov
Teoremi del limite centrale
I teoremi del limite centrale sono una famiglia di teoremi di convergenza debole nell'ambito della teoria della probabilità. Una delle formulazioni più note del teorema è la seguente: Sia X_j una delle n variabili aleatorie indipendenti e identicamente distribuite, e siano E.
Vedere Regressione lineare e Teoremi del limite centrale
Teoria della stima
La teoria della stima è un ramo della statistica e dell'elaborazione numerica dei segnali che ha come obiettivo la stima di parametri, scalari o vettoriali, a partire da dati misurati/empirici, la cui distribuzione è influenzata dai valori effettivi assunti da tali parametri.
Vedere Regressione lineare e Teoria della stima
Test di verifica d'ipotesi
In statistica, il test di verifica d'ipotesi è uno strumento atto a verificare la veridicità di un'ipotesi formulata, che si presta ad essere confermata o smentita dai dati osservati sperimentalmente.
Vedere Regressione lineare e Test di verifica d'ipotesi
Trasformazione affine
In geometria, si definisce trasformazione affine dello spazio euclideo qualunque composizione di una trasformazione lineare mathbf con una traslazione; in simboli, la più generale trasformazione affine può essere scritta come dove L: R^n to R^n è una trasformazione lineare e T_: R^n to R^n è una traslazione; esplicitamente, l'azione di A è data da dove mathbf è la matrice quadrata che rappresenta L e mathbf il vettore che determina la traslazione.
Vedere Regressione lineare e Trasformazione affine
Trasformazione lineare
In matematica, e più precisamente in algebra lineare, una trasformazione lineare, detta anche applicazione lineare o mappa lineare, è una funzione lineare tra due spazi vettoriali sullo stesso campo, cioè una funzione che conserva le operazioni di somma di vettori e di moltiplicazione per uno scalare.
Vedere Regressione lineare e Trasformazione lineare
Valore assoluto
In matematica, il valore assoluto o modulo di un numero reale x è una funzione che associa a x un numero reale non negativo secondo la seguente definizione: se x è non negativo, il suo valore assoluto è x stesso; se x è negativo, il suo valore assoluto è -x. Ad esempio, il valore assoluto sia di 3 che di -3 è 3.
Vedere Regressione lineare e Valore assoluto
Valore atteso
In teoria della probabilità il valore atteso (chiamato anche media o speranza matematica) di una variabile casuale X è un numero indicato con mathbb (da expected value o expectation in inglese o dal francese espérance) che formalizza l'idea euristica di valore medio di un fenomeno aleatorio.
Vedere Regressione lineare e Valore atteso
Variabile (matematica)
In matematica, una variabile è un carattere alfabetico che rappresenta un numero arbitrario, non completamente specificato o del tutto sconosciuto ovvero incognito.
Vedere Regressione lineare e Variabile (matematica)
Variabile casuale
In matematica, e in particolare nella teoria della probabilità, una variabile casuale (detta anche variabile aleatoria o variabile stocastica) è una variabile che può assumere valori diversi in dipendenza da qualche fenomeno aleatorio.
Vedere Regressione lineare e Variabile casuale
Variabili dipendenti e indipendenti
In matematica e in statistica, una variabile può essere definita dipendente o indipendente, a seconda della relazione esistente tra essa e altre variabili.
Vedere Regressione lineare e Variabili dipendenti e indipendenti
Variabili strumentali
In statistica, la stima con il metodo delle variabili strumentali è utilizzata nell'analisi di regressione lineare. Un'ipotesi standard del modello classico di regressione lineare è che le variabili esplicative non siano correlate con la componente non spiegata, o disturbo; laddove tale ipotesi viene meno, la regressione con il consueto metodo dei minimi quadrati non consentirà di ottenere stime consistenti (cioè asintoticamente corrette e con varianza asintoticamente nulla).
Vedere Regressione lineare e Variabili strumentali
Varianza
In statistica e in teoria della probabilità la varianza di una variabile statistica o di una variabile aleatoria X è una funzione, indicata con sigma^2_X o con mathrm(X) (o semplicemente con sigma^2 se la variabile è sottintesa), che fornisce una misura della variabilità dei valori assunti dalla variabile stessa; nello specifico, la misura di quanto essi si discostino quadraticamente rispettivamente dalla media aritmetica o dal valore atteso mathbb E.
Vedere Regressione lineare e Varianza
Vettore (matematica)
In matematica, un vettore è un elemento di uno spazio vettoriale. I vettori sono quindi elementi che possono essere sommati fra loro e moltiplicati per dei numeri, detti scalari.
Vedere Regressione lineare e Vettore (matematica)
XIX secolo
È il primo secolo dell'età contemporanea, un secolo di grandi trasformazioni sociali, politiche, culturali ed economiche a partire dall'ascesa e dalla caduta di Napoleone Bonaparte e la successiva Restaurazione, i moti rivoluzionari, la costituzione di molti stati moderni tra cui il regno d'Italia e l'impero germanico, la guerra di secessione americana, la seconda rivoluzione industriale fra positivismo, evoluzionismo e decadentismo, l'imperialismo e sul finire la grande depressione e la Belle Époque.
Vedere Regressione lineare e XIX secolo
2000
È stato l'ultimo anno del XX secolo e del II millennio secondo il calendario gregoriano. Nel calendario cinese è l'anno del Dragone e, nel calendario astrologico occidentale, è l'anno del Leone.
Vedere Regressione lineare e 2000
2004
È stato proclamato anno internazionale del riso.
Vedere Regressione lineare e 2004
Conosciuto come Fit lineare, Regressione lineare multipla, Regressioni lineari, Retta dei minimi quadrati.