Logo
Unionpedia
Comunicazione
Disponibile su Google Play
Nuovo! Scarica Unionpedia sul tuo dispositivo Android™!
Gratuito
l'accesso più veloce di browser!
 

Entropia congiunta

Indice Entropia congiunta

L'entropia congiunta è una misura dell'incertezza associata ad un insieme di variabili casuali.

7 relazioni: Entropia (teoria dell'informazione), Entropia condizionale, Funzione subadditiva, Indipendenza stocastica, Informatica quantistica, Informazione mutua, Variabile casuale.

Entropia (teoria dell'informazione)

Nella teoria dell'informazione l'entropia di una sorgente di messaggi è l'informazione media contenuta in ogni messaggio emesso.

Nuovo!!: Entropia congiunta e Entropia (teoria dell'informazione) · Mostra di più »

Entropia condizionale

Nella teoria dell'informazione l'entropia condizionale è una misura della quantità di informazione necessaria per descrivere il valore di una variabile aleatoria \Chi noto il valore di un'altra variabile aleatoria Y. Nella trasmissione attraverso un canale di comunicazione rappresenta la quantità rimanente di incertezza del valore all'ingresso al canale dopo che è stato osservato il valore di uscita.

Nuovo!!: Entropia congiunta e Entropia condizionale · Mostra di più »

Funzione subadditiva

In matematica, una funzione subadditiva è una funzione f: A \to B, con dominio A e codominio B chiusi rispetto all'addizione tale che valga la seguente proprietà: La definizione può essere data in generale per A e B semigruppi, con l'ipotesi che B sia un insieme ordinato.

Nuovo!!: Entropia congiunta e Funzione subadditiva · Mostra di più »

Indipendenza stocastica

Nell'ambito del calcolo delle probabilità, l'indipendenza stocastica di due eventi A e B si ha quando il verificarsi di uno non modifica la probabilità di verificarsi dell'altro, ovvero quando la probabilità condizionata \mathbb(A|B) oppure \mathbb(B|A) è pari rispettivamente a \mathbb(A) e \mathbb(B) queste due condizioni si possono sintetizzare con la formula.

Nuovo!!: Entropia congiunta e Indipendenza stocastica · Mostra di più »

Informatica quantistica

L'informatica quantistica è l'insieme delle tecniche di calcolo e del loro studio che utilizzano i quanti per memorizzare ed elaborare le informazioni.

Nuovo!!: Entropia congiunta e Informatica quantistica · Mostra di più »

Informazione mutua

Nella teoria della probabilità e nella teoria dell'informazione, l'informazione mutua o mutua informazione (talvolta nota con il termine arcaico di transinformazione) di due variabili casuali è una quantità che misura la mutua dipendenza delle due variabili.

Nuovo!!: Entropia congiunta e Informazione mutua · Mostra di più »

Variabile casuale

In matematica, e in particolare nella teoria della probabilità, una variabile casuale (detta anche variabile aleatoria o variabile stocastica) è una variabile che può assumere valori diversi in dipendenza da qualche fenomeno aleatorio.

Nuovo!!: Entropia congiunta e Variabile casuale · Mostra di più »

UscenteArrivo
Ehi! Siamo su Facebook ora! »