Logo
Unionpedia
Comunicazione
Disponibile su Google Play
Nuovo! Scarica Unionpedia sul tuo dispositivo Android™!
Gratuito
l'accesso più veloce di browser!
 

Capacità di canale

Indice Capacità di canale

In informatica e teoria dell'informazione, la capacità di canale è "il più piccolo limite superiore" alla quantità di informazione che può essere trasmessa in maniera affidabile su un canale.

26 relazioni: AWGN, Banda (informatica), Banda radio, Bit per secondo, Canale (telecomunicazioni), Claude Shannon, Codice (teoria dell'informazione), Codifica di canale, Decibel, Disuguaglianza di Fano, Entropia (teoria dell'informazione), Informatica, Informazione, Informazione mutua, Logaritmo, Logaritmo naturale, Nat (unità di misura), Probabilità condizionata, Rapporto segnale/rumore, Roberto Mario Fano, Rumore (elettronica), Seconda guerra mondiale, Secondo teorema di Shannon, Segnale elettrico, Teoria dell'informazione, Una teoria matematica della comunicazione.

AWGN

AWGN è l'acronimo inglese di Rumore Gaussiano Bianco Additivo (Additive White Gaussian Noise).

Nuovo!!: Capacità di canale e AWGN · Mostra di più »

Banda (informatica)

In informatica e in telecomunicazioni, il termine banda indica la quantità di dati informativi che possono essere trasferiti, attraverso una connessione, in un dato periodo di tempo, e la cui ampiezza è in analogia con l'ampiezza di banda in campo fisico.

Nuovo!!: Capacità di canale e Banda (informatica) · Mostra di più »

Banda radio

Nelle telecomunicazioni con il termine banda radio (o spettro radio) si indica la sezione dello spettro elettromagnetico delle onde radio e microonde deputata alle radiocomunicazioni.

Nuovo!!: Capacità di canale e Banda radio · Mostra di più »

Bit per secondo

Il bit per secondo (simbolo bit/s, talvolta anche bps o b/s) è un'unità di misura della capacità di un canale di comunicazione (bitrate).

Nuovo!!: Capacità di canale e Bit per secondo · Mostra di più »

Canale (telecomunicazioni)

Un canale di telecomunicazione (chiamato anche semplicemente canale se è chiaro il riferimento alle telecomunicazioni) è in generale una via di comunicazione o propagazione di un segnale.

Nuovo!!: Capacità di canale e Canale (telecomunicazioni) · Mostra di più »

Claude Shannon

Claude Shannon, lontano parente di Thomas Edison, nacque a Petoskey, una piccola città del Michigan.

Nuovo!!: Capacità di canale e Claude Shannon · Mostra di più »

Codice (teoria dell'informazione)

Nella teoria dell'informazione, e conseguentemente nelle telecomunicazioni, nell'elettronica e nell'informatica, un codice è un sistema di segnali, segni o simboli convenzionalmente designati per rappresentare un'informazione.

Nuovo!!: Capacità di canale e Codice (teoria dell'informazione) · Mostra di più »

Codifica di canale

In telecomunicazioni il termine codifica di canale designa, in una trasmissione digitale, l'insieme di tecniche di elaborazione del segnale informativo volte a garantire il più possibile la trasmissione ottimale di un messaggio, ossia l'integrità dei dati attraverso un canale rumoroso che introduce errori nella trasmissione dei dati.

Nuovo!!: Capacità di canale e Codifica di canale · Mostra di più »

Decibel

Il decibel (simbolo ㏈) è la decima parte del bel (simbolo B): 10 ㏈.

Nuovo!!: Capacità di canale e Decibel · Mostra di più »

Disuguaglianza di Fano

Nella teoria dell'informazione, la Disuguaglianza di Fano mette in relazione l'equivocazione di un canale rumoroso con la probabilità d'errore nella decodifica di un simbolo ricevuto.

Nuovo!!: Capacità di canale e Disuguaglianza di Fano · Mostra di più »

Entropia (teoria dell'informazione)

Nella teoria dell'informazione l'entropia di una sorgente di messaggi è l'informazione media contenuta in ogni messaggio emesso.

Nuovo!!: Capacità di canale e Entropia (teoria dell'informazione) · Mostra di più »

Informatica

L'informatica è la scienza applicata che si occupa del trattamento dell'informazione mediante procedure automatizzate.

Nuovo!!: Capacità di canale e Informatica · Mostra di più »

Informazione

L'informazione l'insieme di dati, correlati tra loro, con cui un'idea (o un fatto) prende forma ed è comunicata.

Nuovo!!: Capacità di canale e Informazione · Mostra di più »

Informazione mutua

Nella teoria della probabilità e nella teoria dell'informazione, l'informazione mutua o mutua informazione (talvolta nota con il termine arcaico di transinformazione) di due variabili casuali è una quantità che misura la mutua dipendenza delle due variabili.

Nuovo!!: Capacità di canale e Informazione mutua · Mostra di più »

Logaritmo

In matematica, il logaritmo di un numero in una data base è l'esponente al quale la base deve essere elevata per ottenere il numero stesso.

Nuovo!!: Capacità di canale e Logaritmo · Mostra di più »

Logaritmo naturale

Il logaritmo naturale, descritto per la prima volta da Nepero, è il logaritmo in base e, dove e è uguale a 2,71828\ldots Il logaritmo naturale è definito per tutte le x reali e positive, ma anche per i numeri complessi diversi da zero.

Nuovo!!: Capacità di canale e Logaritmo naturale · Mostra di più »

Nat (unità di misura)

Un nat (a volte detto anche nit o nepit) è un'unità logaritmica di informazione o entropia, basata su logaritmi naturali e potenze di e, invece che su potenze di 2 e logaritmi in base 2 che definiscono il bit.

Nuovo!!: Capacità di canale e Nat (unità di misura) · Mostra di più »

Probabilità condizionata

In teoria della probabilità la probabilità condizionata di un evento A rispetto a un evento B è la probabilità che si verifichi A, sapendo che B è verificato.

Nuovo!!: Capacità di canale e Probabilità condizionata · Mostra di più »

Rapporto segnale/rumore

In telecomunicazioni ed elettronica il rapporto segnale/rumore, spesso abbreviato con la sigla inglese SNR (Signal to Noise Ratio) o S/N anche nell'uso italiano, è una grandezza numerica che mette in relazione la potenza del segnale utile rispetto a quella del rumore in un qualsiasi sistema di acquisizione, elaborazione o trasmissione dell'informazione.

Nuovo!!: Capacità di canale e Rapporto segnale/rumore · Mostra di più »

Roberto Mario Fano

Figlio del matematico Gino Fano, fratello del fisico italo-statunitense Ugo Fano e cugino del matematico Giulio Racah, studiò ingegneria al Politecnico di Torino e nel 1939, all'età di 22 anni, si trasferì negli Stati Uniti a causa delle leggi razziali volute da Mussolini e promulgate dal regime fascista.

Nuovo!!: Capacità di canale e Roberto Mario Fano · Mostra di più »

Rumore (elettronica)

In elettronica il rumore è l'insieme di segnali, in tensione o corrente elettrica, imprevisti e indesiderati che si sovrappongono al segnale utile, trasmesso o da elaborare, tipicamente presente sul canale di comunicazione tra due o più utenti (o apparati elettronici) e sui dispositivi di ricezione/elaborazione.

Nuovo!!: Capacità di canale e Rumore (elettronica) · Mostra di più »

Seconda guerra mondiale

La seconda guerra mondiale fu il conflitto armato che tra il 1939 e il 1945 vide contrapporsi da un lato le potenze dell'Asse e dall'altro i Paesi Alleati.

Nuovo!!: Capacità di canale e Seconda guerra mondiale · Mostra di più »

Secondo teorema di Shannon

In teoria dell'informazione, il secondo teorema di Shannon, o teorema della codifica di canale, stabilisce che per quanto un canale di comunicazione sia affetto da rumore, è possibile trasmettere dati (informazione) attraverso il canale stesso con probabilità di errore Pe piccola a piacere fino ad una frequenza massima.

Nuovo!!: Capacità di canale e Secondo teorema di Shannon · Mostra di più »

Segnale elettrico

Un segnale elettrico è un particolare tipo di segnale caratterizzato da una variazione di corrente elettrica o di tensione all'interno di un conduttore o in un punto di un circuito elettrico o elettronico.

Nuovo!!: Capacità di canale e Segnale elettrico · Mostra di più »

Teoria dell'informazione

La teoria dell'informazione è una disciplina dell'informatica e delle telecomunicazioni il cui oggetto è l'analisi e l'elaborazione su base matematica dei fenomeni relativi alla misurazione e alla trasmissione di informazioni su un canale fisico di comunicazione.

Nuovo!!: Capacità di canale e Teoria dell'informazione · Mostra di più »

Una teoria matematica della comunicazione

A Mathematical Theory of Communication è un articolo pubblicato da Claude Shannon nel Bell System Technical Journal nel 1948.

Nuovo!!: Capacità di canale e Una teoria matematica della comunicazione · Mostra di più »

Riorienta qui:

Capacità di canale (teoria dell'informazione), Capacità di informazione.

UscenteArrivo
Ehi! Siamo su Facebook ora! »