7 relazioni: Apprendimento automatico, Discesa del gradiente, Distribuzione t di Student, Divergenza di Kullback-Leibler, Grafico di dispersione, Probabilità condizionata, Variabile casuale.
Apprendimento automatico
L’apprendimento automatico, nota anche come machine learning, rappresenta un insieme di metodi sviluppati a partire dagli ultimi decenni del 1900 in varie comunità scientifiche con diversi nomi come: statistica computazionale, riconoscimento di pattern, reti neurali artificiali, filtraggio adattivo, teoria dei sistemi dinamici, elaborazione delle immagini, data mining, algoritmi adattivi, ecc; che utilizza metodi statistici per migliorare progressivamente la performance di un algoritmo nell'identificare pattern nei dati.
Nuovo!!: T-distributed stochastic neighbor embedding e Apprendimento automatico · Mostra di più »
Discesa del gradiente
In ottimizzazione e analisi numerica il metodo di discesa del gradiente (detto anche metodo del gradiente, metodo steepest descent o metodo di discesa più ripida) è una tecnica che consente di determinare i punti di massimo e minimo di una funzione di più variabili.
Nuovo!!: T-distributed stochastic neighbor embedding e Discesa del gradiente · Mostra di più »
Distribuzione t di Student
In teoria delle probabilità la distribuzione di Student, o t di Student, è una distribuzione di probabilità continua che governa il rapporto tra due variabili aleatorie, la prima con distribuzione normale e la seconda, al quadrato, segue una distribuzione chi quadrato.
Nuovo!!: T-distributed stochastic neighbor embedding e Distribuzione t di Student · Mostra di più »
Divergenza di Kullback-Leibler
In teoria della probabilità e in teoria dell'informazione, la divergenza di Kullback–Leibler (anche detta divergenza di informazione, entropia relativa, o KLIC) è una misura non simmetrica della differenza tra due distribuzioni di probabilità P e Q. Specificamente, la divergenza di Kullback–Leibler di Q da P, indicata con DKL(P||Q), è la misura dell'informazione persa quando Q è usata per approssimare P: KL misura il numero atteso di bit extra richiesti per la Codifica di Huffman di campioni P quando si utilizza un codice basato su Q, piuttosto che utilizzare un codice basato su P. Tipicamente P rappresenta la "vera" distribuzione di dati, osservazioni, o una distribuzione teorica calcolata con precisione.
Nuovo!!: T-distributed stochastic neighbor embedding e Divergenza di Kullback-Leibler · Mostra di più »
Grafico di dispersione
Il grafico di dispersione o grafico a dispersione o scatter plot o scatter graph è un tipo di grafico in cui due variabili di un set di dati sono riportate su uno spazio cartesiano.
Nuovo!!: T-distributed stochastic neighbor embedding e Grafico di dispersione · Mostra di più »
Probabilità condizionata
In teoria della probabilità la probabilità condizionata di un evento A rispetto a un evento B è la probabilità che si verifichi A, sapendo che B è verificato.
Nuovo!!: T-distributed stochastic neighbor embedding e Probabilità condizionata · Mostra di più »
Variabile casuale
In matematica, e in particolare nella teoria della probabilità, una variabile casuale (detta anche variabile aleatoria o variabile stocastica) è una variabile che può assumere valori diversi in dipendenza da qualche fenomeno aleatorio.
Nuovo!!: T-distributed stochastic neighbor embedding e Variabile casuale · Mostra di più »