Divergenza di Kullback-Leibler e T-distributed stochastic neighbor embedding
Scorciatoie: Differenze, Analogie, Jaccard somiglianza Coefficiente, Riferimenti.
Differenza tra Divergenza di Kullback-Leibler e T-distributed stochastic neighbor embedding
Divergenza di Kullback-Leibler vs. T-distributed stochastic neighbor embedding
In teoria della probabilità e in teoria dell'informazione, la divergenza di Kullback–Leibler (anche detta divergenza di informazione, entropia relativa, o KLIC) è una misura non simmetrica della differenza tra due distribuzioni di probabilità P e Q. Specificamente, la divergenza di Kullback–Leibler di Q da P, indicata con DKL(P||Q), è la misura dell'informazione persa quando Q è usata per approssimare P: KL misura il numero atteso di bit extra richiesti per la Codifica di Huffman di campioni P quando si utilizza un codice basato su Q, piuttosto che utilizzare un codice basato su P. Tipicamente P rappresenta la "vera" distribuzione di dati, osservazioni, o una distribuzione teorica calcolata con precisione. t-distributed stochastic neighbor embedding (t-SNE) è un algoritmo di riduzione della dimensionalità sviluppato da Geoffrey Hinton e Laurens van der Maaten, ampiamente utilizzato come strumento di machine learning in molti ambiti di ricerca.
Analogie tra Divergenza di Kullback-Leibler e T-distributed stochastic neighbor embedding
Divergenza di Kullback-Leibler e T-distributed stochastic neighbor embedding hanno 0 punti in comune (in Unionpedia).
La lista di cui sopra risponde alle seguenti domande
- In quello che appare come Divergenza di Kullback-Leibler e T-distributed stochastic neighbor embedding
- Che cosa ha in comune Divergenza di Kullback-Leibler e T-distributed stochastic neighbor embedding
- Analogie tra Divergenza di Kullback-Leibler e T-distributed stochastic neighbor embedding
Confronto tra Divergenza di Kullback-Leibler e T-distributed stochastic neighbor embedding
Divergenza di Kullback-Leibler ha 7 relazioni, mentre T-distributed stochastic neighbor embedding ha 7. Come hanno in comune 0, l'indice di Jaccard è 0.00% = 0 / (7 + 7).
Riferimenti
Questo articolo mostra la relazione tra Divergenza di Kullback-Leibler e T-distributed stochastic neighbor embedding. Per accedere a ogni articolo dal quale è stato estratto informazioni, visitare: