Logo
Unionpedia
Comunicazione
Disponibile su Google Play
Nuovo! Scarica Unionpedia sul tuo dispositivo Android™!
Gratuito
l'accesso più veloce di browser!
 

Divergenza di Kullback-Leibler e T-distributed stochastic neighbor embedding

Scorciatoie: Differenze, Analogie, Jaccard somiglianza Coefficiente, Riferimenti.

Differenza tra Divergenza di Kullback-Leibler e T-distributed stochastic neighbor embedding

Divergenza di Kullback-Leibler vs. T-distributed stochastic neighbor embedding

In teoria della probabilità e in teoria dell'informazione, la divergenza di Kullback–Leibler (anche detta divergenza di informazione, entropia relativa, o KLIC) è una misura non simmetrica della differenza tra due distribuzioni di probabilità P e Q. Specificamente, la divergenza di Kullback–Leibler di Q da P, indicata con DKL(P||Q), è la misura dell'informazione persa quando Q è usata per approssimare P: KL misura il numero atteso di bit extra richiesti per la Codifica di Huffman di campioni P quando si utilizza un codice basato su Q, piuttosto che utilizzare un codice basato su P. Tipicamente P rappresenta la "vera" distribuzione di dati, osservazioni, o una distribuzione teorica calcolata con precisione. t-distributed stochastic neighbor embedding (t-SNE) è un algoritmo di riduzione della dimensionalità sviluppato da Geoffrey Hinton e Laurens van der Maaten, ampiamente utilizzato come strumento di machine learning in molti ambiti di ricerca.

Analogie tra Divergenza di Kullback-Leibler e T-distributed stochastic neighbor embedding

Divergenza di Kullback-Leibler e T-distributed stochastic neighbor embedding hanno 0 punti in comune (in Unionpedia).

La lista di cui sopra risponde alle seguenti domande

Confronto tra Divergenza di Kullback-Leibler e T-distributed stochastic neighbor embedding

Divergenza di Kullback-Leibler ha 7 relazioni, mentre T-distributed stochastic neighbor embedding ha 7. Come hanno in comune 0, l'indice di Jaccard è 0.00% = 0 / (7 + 7).

Riferimenti

Questo articolo mostra la relazione tra Divergenza di Kullback-Leibler e T-distributed stochastic neighbor embedding. Per accedere a ogni articolo dal quale è stato estratto informazioni, visitare:

Ehi! Siamo su Facebook ora! »