Logo
Unionpedia
Comunicazione
Disponibile su Google Play
Nuovo! Scarica Unionpedia sul tuo dispositivo Android™!
Gratuito
l'accesso più veloce di browser!
 

Divergenza di Kullback-Leibler e Matrice hessiana

Scorciatoie: Differenze, Analogie, Jaccard somiglianza Coefficiente, Riferimenti.

Differenza tra Divergenza di Kullback-Leibler e Matrice hessiana

Divergenza di Kullback-Leibler vs. Matrice hessiana

In teoria della probabilità e in teoria dell'informazione, la divergenza di Kullback–Leibler (anche detta divergenza di informazione, entropia relativa, o KLIC) è una misura non simmetrica della differenza tra due distribuzioni di probabilità P e Q. Specificamente, la divergenza di Kullback–Leibler di Q da P, indicata con DKL(P||Q), è la misura dell'informazione persa quando Q è usata per approssimare P: KL misura il numero atteso di bit extra richiesti per la Codifica di Huffman di campioni P quando si utilizza un codice basato su Q, piuttosto che utilizzare un codice basato su P. Tipicamente P rappresenta la "vera" distribuzione di dati, osservazioni, o una distribuzione teorica calcolata con precisione. In matematica, la matrice hessiana di una funzione di n variabili a valori in un campo di scalari, anche detta matrice di Hesse o semplicemente hessiana, è la matrice quadrata n × n delle derivate parziali seconde della funzione.

Analogie tra Divergenza di Kullback-Leibler e Matrice hessiana

Divergenza di Kullback-Leibler e Matrice hessiana hanno 0 punti in comune (in Unionpedia).

La lista di cui sopra risponde alle seguenti domande

Confronto tra Divergenza di Kullback-Leibler e Matrice hessiana

Divergenza di Kullback-Leibler ha 7 relazioni, mentre Matrice hessiana ha 28. Come hanno in comune 0, l'indice di Jaccard è 0.00% = 0 / (7 + 28).

Riferimenti

Questo articolo mostra la relazione tra Divergenza di Kullback-Leibler e Matrice hessiana. Per accedere a ogni articolo dal quale è stato estratto informazioni, visitare:

Ehi! Siamo su Facebook ora! »