Logo
Unionpedia
Comunicazione
Disponibile su Google Play
Nuovo! Scarica Unionpedia sul tuo dispositivo Android™!
Scaricare
l'accesso più veloce di browser!
 

Primo teorema di Shannon

Indice Primo teorema di Shannon

Nella teoria dell'informazione, il primo teorema di Shannon (o teorema della codifica di sorgente), stabilisce dei limiti alla massima compressione possibile di un insieme di dati e definisce il significato operativo dell'entropia.

13 relazioni: Bit, Claude Shannon, Codifica di canale, Compressione dei dati, Entropia (teoria dell'informazione), Informazione, Neghentropia, Secondo teorema di Shannon, Serie, Teoria dell'informazione, Variabile casuale, Variabili indipendenti e identicamente distribuite, 1948.

Bit

La parola bit, in informatica e in teoria dell'informazione, ha due significati molto diversi, a seconda del contesto in cui rispettivamente la si usi.

Nuovo!!: Primo teorema di Shannon e Bit · Mostra di più »

Claude Shannon

Claude Shannon, lontano parente di Thomas Edison, nacque a Petoskey, una piccola città del Michigan.

Nuovo!!: Primo teorema di Shannon e Claude Shannon · Mostra di più »

Codifica di canale

In telecomunicazioni il termine codifica di canale designa, in una trasmissione digitale, l'insieme di tecniche di elaborazione del segnale informativo volte a garantire il più possibile la trasmissione ottimale di un messaggio, ossia l'integrità dei dati attraverso un canale rumoroso che introduce errori nella trasmissione dei dati.

Nuovo!!: Primo teorema di Shannon e Codifica di canale · Mostra di più »

Compressione dei dati

In informatica e telecomunicazioni con il termine compressione dati si indica la tecnica di elaborazione dati che, attuata a mezzo di opportuni algoritmi, permette la riduzione della quantità di bit necessari alla rappresentazione in forma digitale di un'informazione.

Nuovo!!: Primo teorema di Shannon e Compressione dei dati · Mostra di più »

Entropia (teoria dell'informazione)

Nella teoria dell'informazione l'entropia di una sorgente di messaggi è l'informazione media contenuta in ogni messaggio emesso.

Nuovo!!: Primo teorema di Shannon e Entropia (teoria dell'informazione) · Mostra di più »

Informazione

L'informazione l'insieme di dati, correlati tra loro, con cui un'idea (o un fatto) prende forma ed è comunicata.

Nuovo!!: Primo teorema di Shannon e Informazione · Mostra di più »

Neghentropia

Con neghentropia (adattamento dell'inglese negentropy, AFI:, abbreviazione di negative entropy, "entropia negativa"), chiamata anche entropia negativa, o sintropia, o niroentropia, o sintaxia si indica l'organizzazione degli elementi fisici o umani e sociali che si oppone alla tendenza naturale al disordine, ossia all'entropia.

Nuovo!!: Primo teorema di Shannon e Neghentropia · Mostra di più »

Secondo teorema di Shannon

In teoria dell'informazione, il secondo teorema di Shannon, o teorema della codifica di canale, stabilisce che per quanto un canale di comunicazione sia affetto da rumore, è possibile trasmettere dati (informazione) attraverso il canale stesso con probabilità di errore Pe piccola a piacere fino ad una frequenza massima.

Nuovo!!: Primo teorema di Shannon e Secondo teorema di Shannon · Mostra di più »

Serie

In matematica, una serie è la somma degli elementi di una successione, appartenenti in generale ad uno spazio vettoriale topologico.

Nuovo!!: Primo teorema di Shannon e Serie · Mostra di più »

Teoria dell'informazione

La teoria dell'informazione è una disciplina dell'informatica e delle telecomunicazioni il cui oggetto è l'analisi e l'elaborazione su base matematica dei fenomeni relativi alla misurazione e alla trasmissione di informazioni su un canale fisico di comunicazione.

Nuovo!!: Primo teorema di Shannon e Teoria dell'informazione · Mostra di più »

Variabile casuale

In matematica, e in particolare nella teoria della probabilità, una variabile casuale (detta anche variabile aleatoria o variabile stocastica) è una variabile che può assumere valori diversi in dipendenza da qualche fenomeno aleatorio.

Nuovo!!: Primo teorema di Shannon e Variabile casuale · Mostra di più »

Variabili indipendenti e identicamente distribuite

Nella teoria della probabilità, una sequenza di variabili casuali è detta indipendente e identicamente distribuita (i.i.d.) se.

Nuovo!!: Primo teorema di Shannon e Variabili indipendenti e identicamente distribuite · Mostra di più »

1948

Nessuna descrizione.

Nuovo!!: Primo teorema di Shannon e 1948 · Mostra di più »

Riorienta qui:

Teorema della codifica di sorgente.

UscenteArrivo
Ehi! Siamo su Facebook ora! »