Logo
Unionpedia
Comunicazione
Disponibile su Google Play
Nuovo! Scarica Unionpedia sul tuo dispositivo Android™!
Gratuito
l'accesso più veloce di browser!
 

Teoria dell'informazione

Indice Teoria dell'informazione

La teoria dell'informazione è una disciplina dell'informatica e delle telecomunicazioni il cui oggetto è l'analisi e l'elaborazione su base matematica dei fenomeni relativi alla misurazione e alla trasmissione di informazioni su un canale fisico di comunicazione.

87 relazioni: Alan Turing, Apprendimento automatico, Autoinformazione, Bell Laboratories, Bioinformatica, Bit, Canale (telecomunicazioni), Capacità di canale, Cibernetica, Claude Shannon, Codice (teoria dell'informazione), Codifica di canale, Codifica di sorgente, Compact disc, Complessità di Kolmogorov, Composizione (musica), Compressione dei dati, Crittoanalisi, Crittografia, Distanza (matematica), Distanza di unicità, Divergenza di Kullback-Leibler, Enigma (crittografia), Entropia (teoria dell'informazione), Entropia condizionale, Entropia congiunta, Entropia incrociata, Ergodicità, Esplorazione spaziale, Ethernet, Fisica applicata, Gioco d'azzardo, Harry Nyquist, Indipendenza stocastica, Informatica, Informazione, Informazione di Fisher, Informazione mutua, Integrale, Intelligenza artificiale, Internet, Linguistica, Logaritmo naturale, Ludwig Boltzmann, Matematica applicata, Mercato azionario, Misurazione, MP3, Musica, Nat (unità di misura), ..., Neghentropia, Primo teorema di Shannon, Probabilità a posteriori, Probabilità condizionata, Processo stazionario, Processo stocastico, Ralph Hartley, Ricevitore (teoria dell'informazione), Ridondanza (ingegneria), Rolf Landauer, Rumore (elettronica), Scacchi, Seconda guerra mondiale, Secondo teorema di Shannon, Sistema complesso, Sistema di posizionamento globale, Spread spectrum, Statistica, Steganografia, Telecomunicazione, Telefonia mobile, Teoria dei giochi, Teoria della detezione del segnale, Teoria della probabilità, Teoria della stima, Termodinamica, Trasmissione (telecomunicazioni), Turbo codici, Una teoria matematica della comunicazione, Variabile casuale, Velocità di trasmissione, Willard Gibbs, ZIP (formato di file), 1924, 1928, 1940, 1948. Espandi índice (37 più) »

Alan Turing

Il suo lavoro ebbe vasta influenza sullo sviluppo dell'informatica, grazie alla sua formalizzazione dei concetti di algoritmo e calcolo mediante la macchina di Turing, che a sua volta ha svolto un ruolo significativo nella creazione del moderno computer.

Nuovo!!: Teoria dell'informazione e Alan Turing · Mostra di più »

Apprendimento automatico

L’apprendimento automatico, nota anche come machine learning, rappresenta un insieme di metodi sviluppati a partire dagli ultimi decenni del 1900 in varie comunità scientifiche con diversi nomi come: statistica computazionale, riconoscimento di pattern, reti neurali artificiali, filtraggio adattivo, teoria dei sistemi dinamici, elaborazione delle immagini, data mining, algoritmi adattivi, ecc; che utilizza metodi statistici per migliorare progressivamente la performance di un algoritmo nell'identificare pattern nei dati.

Nuovo!!: Teoria dell'informazione e Apprendimento automatico · Mostra di più »

Autoinformazione

L'autoinformazione di un evento è la quantità d'incertezza associata all'evento, ovvero l'informazione che si ottiene affermando innanzitutto che tale evento si sia realizzato, e rimuovendo quindi l'incertezza associata.

Nuovo!!: Teoria dell'informazione e Autoinformazione · Mostra di più »

Bell Laboratories

I Bell Laboratories (noti anche come Bell Labs, Bell, Laboratori Bell, in precedenza denominati AT&T Bell Laboratory e Bell Telephone Laboratories) sono un centro di ricerca e sviluppo, attualmente di proprietà di Nokia.

Nuovo!!: Teoria dell'informazione e Bell Laboratories · Mostra di più »

Bioinformatica

La bioinformatica è una disciplina scientifica dedicata alla risoluzione di problemi biologici a livello molecolare con metodi informatici.

Nuovo!!: Teoria dell'informazione e Bioinformatica · Mostra di più »

Bit

La parola bit, in informatica e in teoria dell'informazione, ha due significati molto diversi, a seconda del contesto in cui rispettivamente la si usi.

Nuovo!!: Teoria dell'informazione e Bit · Mostra di più »

Canale (telecomunicazioni)

Un canale di telecomunicazione (chiamato anche semplicemente canale se è chiaro il riferimento alle telecomunicazioni) è in generale una via di comunicazione o propagazione di un segnale.

Nuovo!!: Teoria dell'informazione e Canale (telecomunicazioni) · Mostra di più »

Capacità di canale

In informatica e teoria dell'informazione, la capacità di canale è "il più piccolo limite superiore" alla quantità di informazione che può essere trasmessa in maniera affidabile su un canale.

Nuovo!!: Teoria dell'informazione e Capacità di canale · Mostra di più »

Cibernetica

Il termine cibernetica indica un vasto programma di ricerca interdisciplinare, rivolto allo studio matematico unitario degli organismi viventi e, più in generale, di sistemi, sia naturali che artificiali.

Nuovo!!: Teoria dell'informazione e Cibernetica · Mostra di più »

Claude Shannon

Claude Shannon, lontano parente di Thomas Edison, nacque a Petoskey, una piccola città del Michigan.

Nuovo!!: Teoria dell'informazione e Claude Shannon · Mostra di più »

Codice (teoria dell'informazione)

Nella teoria dell'informazione, e conseguentemente nelle telecomunicazioni, nell'elettronica e nell'informatica, un codice è un sistema di segnali, segni o simboli convenzionalmente designati per rappresentare un'informazione.

Nuovo!!: Teoria dell'informazione e Codice (teoria dell'informazione) · Mostra di più »

Codifica di canale

In telecomunicazioni il termine codifica di canale designa, in una trasmissione digitale, l'insieme di tecniche di elaborazione del segnale informativo volte a garantire il più possibile la trasmissione ottimale di un messaggio, ossia l'integrità dei dati attraverso un canale rumoroso che introduce errori nella trasmissione dei dati.

Nuovo!!: Teoria dell'informazione e Codifica di canale · Mostra di più »

Codifica di sorgente

In elettronica e telecomunicazioni con il termine codifica di sorgente si indica l'insieme delle tecniche di elaborazione digitale dell'informazione volte alla compressione dell'informazione audio, video e dati digitali di una sorgente informativa che le genera, prima della memorizzazione su supporto di memorizzazione permettendo un risparmio sullo spazio di memorizzazione oppure prima di una trasmissione digitale consentendo una liberazione di banda necessaria su canale trasmissivo a parità di velocità di trasmissione.

Nuovo!!: Teoria dell'informazione e Codifica di sorgente · Mostra di più »

Compact disc

Il compact disc (nome inglese che tradotto letteralmente significa "disco compatto", abbreviato CD o cd; anche, meno utilizzato, compact disk) è un tipo standardizzato di disco ottico utilizzato in vari ambiti per la memorizzazione di informazioni in formato digitale.

Nuovo!!: Teoria dell'informazione e Compact disc · Mostra di più »

Complessità di Kolmogorov

Nella teoria algoritmica dell'informazione, la complessità di Kolmogorov di un oggetto (assumendo che possa essere rappresentato come una sequenza di bit, per esempio un pezzo di testo), è la lunghezza del più breve programma informatico (in un dato linguaggio di programmazione) che produca l'oggetto come output.

Nuovo!!: Teoria dell'informazione e Complessità di Kolmogorov · Mostra di più »

Composizione (musica)

In musica, la composizione è il processo creativo che concepisce un'opera d'arte e il prodotto stesso dell'atto.

Nuovo!!: Teoria dell'informazione e Composizione (musica) · Mostra di più »

Compressione dei dati

In informatica e telecomunicazioni con il termine compressione dati si indica la tecnica di elaborazione dati che, attuata a mezzo di opportuni algoritmi, permette la riduzione della quantità di bit necessari alla rappresentazione in forma digitale di un'informazione.

Nuovo!!: Teoria dell'informazione e Compressione dei dati · Mostra di più »

Crittoanalisi

Per crittoanalisi (dal greco kryptós, "nascosto", e analýein, "scomporre"), o crittanalisi, si intende lo studio dei metodi per ottenere il significato di informazioni cifrate senza avere accesso all'informazione segreta che è di solito richiesta per effettuare l'operazione.

Nuovo!!: Teoria dell'informazione e Crittoanalisi · Mostra di più »

Crittografia

La crittografia (dall'unione di due parole greche: κρυπτóς che significa "nascosto", e γραφία che significa "scrittura") è la branca della crittologia che tratta delle "scritture nascoste", ovvero dei metodi per rendere un messaggio "offuscato" in modo da non essere comprensibile/intelligibile a persone non autorizzate a leggerlo.

Nuovo!!: Teoria dell'informazione e Crittografia · Mostra di più »

Distanza (matematica)

L'accezione matematica del termine distanza ha un significato analogo a quello dell'uso comune, cioè quello della misura della "lontananza" tra due punti di un insieme al quale si possa attribuire qualche carattere spaziale.

Nuovo!!: Teoria dell'informazione e Distanza (matematica) · Mostra di più »

Distanza di unicità

Con distanza di unicità ci si riferisce, in crittografia, alla lunghezza minima necessaria che un testo cifrato deve avere affinché sia possibile violare il cifrario con un attacco a forza bruta riducendo a zero il numero di possili chiavi spurie.

Nuovo!!: Teoria dell'informazione e Distanza di unicità · Mostra di più »

Divergenza di Kullback-Leibler

In teoria della probabilità e in teoria dell'informazione, la divergenza di Kullback–Leibler (anche detta divergenza di informazione, entropia relativa, o KLIC) è una misura non simmetrica della differenza tra due distribuzioni di probabilità P e Q. Specificamente, la divergenza di Kullback–Leibler di Q da P, indicata con DKL(P||Q), è la misura dell'informazione persa quando Q è usata per approssimare P: KL misura il numero atteso di bit extra richiesti per la Codifica di Huffman di campioni P quando si utilizza un codice basato su Q, piuttosto che utilizzare un codice basato su P. Tipicamente P rappresenta la "vera" distribuzione di dati, osservazioni, o una distribuzione teorica calcolata con precisione.

Nuovo!!: Teoria dell'informazione e Divergenza di Kullback-Leibler · Mostra di più »

Enigma (crittografia)

Enigma fu una macchina elettro-meccanica per cifrare e decifrare messaggi.

Nuovo!!: Teoria dell'informazione e Enigma (crittografia) · Mostra di più »

Entropia (teoria dell'informazione)

Nella teoria dell'informazione l'entropia di una sorgente di messaggi è l'informazione media contenuta in ogni messaggio emesso.

Nuovo!!: Teoria dell'informazione e Entropia (teoria dell'informazione) · Mostra di più »

Entropia condizionale

Nella teoria dell'informazione l'entropia condizionale è una misura della quantità di informazione necessaria per descrivere il valore di una variabile aleatoria \Chi noto il valore di un'altra variabile aleatoria Y. Nella trasmissione attraverso un canale di comunicazione rappresenta la quantità rimanente di incertezza del valore all'ingresso al canale dopo che è stato osservato il valore di uscita.

Nuovo!!: Teoria dell'informazione e Entropia condizionale · Mostra di più »

Entropia congiunta

L'entropia congiunta è una misura dell'incertezza associata ad un insieme di variabili casuali.

Nuovo!!: Teoria dell'informazione e Entropia congiunta · Mostra di più »

Entropia incrociata

Nella teoria dell'informazione, l'entropia incrociata fra due distribuzioni di probabilità p e q relative allo stesso insieme di eventi misura il numero medio di bit necessari per identificare un evento estratto dall'insieme, nel caso sia utilizzato uno schema ottimizzato per una distribuzione di probabilità "innaturale" q, piuttosto che per la distribuzione "vera" p.

Nuovo!!: Teoria dell'informazione e Entropia incrociata · Mostra di più »

Ergodicità

Si definisce ergodico un processo statistico che passa per tutti i punti possibili di lavoro.

Nuovo!!: Teoria dell'informazione e Ergodicità · Mostra di più »

Esplorazione spaziale

L'esplorazione spaziale è l'esplorazione materiale dello spazio eseguita mediante veicoli spaziali, con o senza equipaggio a bordo.

Nuovo!!: Teoria dell'informazione e Esplorazione spaziale · Mostra di più »

Ethernet

Ethernet è una famiglia di tecnologie standardizzate per reti locali, sviluppato a livello sperimentale da Robert Metcalfe e David Boggs (suo assistente) allo Xerox PARC, che ne definisce le specifiche tecniche a livello fisico (connettori, cavi, tipo di trasmissione, etc.) e a livello MAC del modello architetturale di rete ISO/OSI.

Nuovo!!: Teoria dell'informazione e Ethernet · Mostra di più »

Fisica applicata

Fisica applicata è un termine generico che indica la parte della fisica che si interessa di particolari utilizzi tecnologici.

Nuovo!!: Teoria dell'informazione e Fisica applicata · Mostra di più »

Gioco d'azzardo

Il gioco d'azzardo consiste nello scommettere beni, per esempio denaro, sull'esito di un evento futuro: per tradizione le quote si pagano in contanti.

Nuovo!!: Teoria dell'informazione e Gioco d'azzardo · Mostra di più »

Harry Nyquist

Nato in Svezia a Nilsby, nel Värmland, quarto di sette fratelli, emigrò negli Stati Uniti a 18 anni nel 1907; ricercatore presso i Bell Laboratories, diede un grande contributo alla tecnologia delle telecomunicazioni e dei controlli automatici, che oggi è stato esteso e generalizzato alla branca della matematica della teoria dei sistemi dinamici e quindi alle sue applicazioni fisiche.

Nuovo!!: Teoria dell'informazione e Harry Nyquist · Mostra di più »

Indipendenza stocastica

Nell'ambito del calcolo delle probabilità, l'indipendenza stocastica di due eventi A e B si ha quando il verificarsi di uno non modifica la probabilità di verificarsi dell'altro, ovvero quando la probabilità condizionata \mathbb(A|B) oppure \mathbb(B|A) è pari rispettivamente a \mathbb(A) e \mathbb(B) queste due condizioni si possono sintetizzare con la formula.

Nuovo!!: Teoria dell'informazione e Indipendenza stocastica · Mostra di più »

Informatica

L'informatica è la scienza applicata che si occupa del trattamento dell'informazione mediante procedure automatizzate.

Nuovo!!: Teoria dell'informazione e Informatica · Mostra di più »

Informazione

L'informazione l'insieme di dati, correlati tra loro, con cui un'idea (o un fatto) prende forma ed è comunicata.

Nuovo!!: Teoria dell'informazione e Informazione · Mostra di più »

Informazione di Fisher

In statistica e teoria dell'informazione, l'informazione di Fisher è la varianza dello score (derivata logaritmica) associato a una data funzione di verosimiglianza.

Nuovo!!: Teoria dell'informazione e Informazione di Fisher · Mostra di più »

Informazione mutua

Nella teoria della probabilità e nella teoria dell'informazione, l'informazione mutua o mutua informazione (talvolta nota con il termine arcaico di transinformazione) di due variabili casuali è una quantità che misura la mutua dipendenza delle due variabili.

Nuovo!!: Teoria dell'informazione e Informazione mutua · Mostra di più »

Integrale

In analisi matematica, l'integrale è un operatore che, nel caso di una funzione di una sola variabile, associa alla funzione l'area sottesa dal suo grafico entro un dato intervallo \left nel dominio.

Nuovo!!: Teoria dell'informazione e Integrale · Mostra di più »

Intelligenza artificiale

Definizioni specifiche possono essere date focalizzandosi o sui processi interni di ragionamento o sul comportamento esterno del sistema intelligente ed utilizzando come misura di efficacia o la somiglianza con il comportamento umano o con un comportamento ideale, detto razionale.

Nuovo!!: Teoria dell'informazione e Intelligenza artificiale · Mostra di più »

Internet

Internet è una rete ad accesso pubblico che connette vari dispositivi o terminali in tutto il mondo.

Nuovo!!: Teoria dell'informazione e Internet · Mostra di più »

Linguistica

La linguistica è la disciplina scientifica che studia il linguaggio umano (inteso come la capacità dell'uomo di comunicare) e le sue manifestazioni (le lingue parlate nel mondo).

Nuovo!!: Teoria dell'informazione e Linguistica · Mostra di più »

Logaritmo naturale

Il logaritmo naturale, descritto per la prima volta da Nepero, è il logaritmo in base e, dove e è uguale a 2,71828\ldots Il logaritmo naturale è definito per tutte le x reali e positive, ma anche per i numeri complessi diversi da zero.

Nuovo!!: Teoria dell'informazione e Logaritmo naturale · Mostra di più »

Ludwig Boltzmann

Boltzmann è stato uno dei più grandi fisici teorici di tutti i tempi.

Nuovo!!: Teoria dell'informazione e Ludwig Boltzmann · Mostra di più »

Matematica applicata

La matematica applicata è un ramo della matematica che si occupa dello studio delle tecniche matematiche usate nell'applicare le conoscenze matematiche ad altri campi scientifici e tecnici.

Nuovo!!: Teoria dell'informazione e Matematica applicata · Mostra di più »

Mercato azionario

In finanza il mercato azionario è il luogo, non necessariamente fisico, dove sono negoziati i titoli azionari.

Nuovo!!: Teoria dell'informazione e Mercato azionario · Mostra di più »

Misurazione

La misurazione è l'assegnazione di un intervallo di valori (misura) ad una particolare proprietà fisica chiamata misurando.

Nuovo!!: Teoria dell'informazione e Misurazione · Mostra di più »

MP3

MP3 (per esteso Moving Picture Expert Group-1/2 Audio Layer 3, noto anche come MPEG-1 Audio Layer III o MPEG-2 Audio Layer III) è un algoritmo di compressione audio di tipo lossy, sviluppato dal gruppo MPEG, in grado di ridurre drasticamente la quantità di dati richiesti per memorizzare un suono, mantenendo comunque una riproduzione accettabilmente fedele del file originale non compresso.

Nuovo!!: Teoria dell'informazione e MP3 · Mostra di più »

Musica

La musica (dal sostantivo greco μουσική) è l'arte e la scienza dell'organizzazione dei suoni, dei rumori e dei silenzi nel corso del tempo e nello spazio.

Nuovo!!: Teoria dell'informazione e Musica · Mostra di più »

Nat (unità di misura)

Un nat (a volte detto anche nit o nepit) è un'unità logaritmica di informazione o entropia, basata su logaritmi naturali e potenze di e, invece che su potenze di 2 e logaritmi in base 2 che definiscono il bit.

Nuovo!!: Teoria dell'informazione e Nat (unità di misura) · Mostra di più »

Neghentropia

Con neghentropia (adattamento dell'inglese negentropy, AFI:, abbreviazione di negative entropy, "entropia negativa"), chiamata anche entropia negativa, o sintropia, o niroentropia, o sintaxia si indica l'organizzazione degli elementi fisici o umani e sociali che si oppone alla tendenza naturale al disordine, ossia all'entropia.

Nuovo!!: Teoria dell'informazione e Neghentropia · Mostra di più »

Primo teorema di Shannon

Nella teoria dell'informazione, il primo teorema di Shannon (o teorema della codifica di sorgente), stabilisce dei limiti alla massima compressione possibile di un insieme di dati e definisce il significato operativo dell'entropia.

Nuovo!!: Teoria dell'informazione e Primo teorema di Shannon · Mostra di più »

Probabilità a posteriori

In statistica bayesiana, la probabilità a posteriori di un evento aleatorio o di una proposizione incerta è la probabilità condizionata che è assegnata dopo che dell'informazione rilevante posta in evidenza è tenuta da conto.

Nuovo!!: Teoria dell'informazione e Probabilità a posteriori · Mostra di più »

Probabilità condizionata

In teoria della probabilità la probabilità condizionata di un evento A rispetto a un evento B è la probabilità che si verifichi A, sapendo che B è verificato.

Nuovo!!: Teoria dell'informazione e Probabilità condizionata · Mostra di più »

Processo stazionario

In matematica e statistica, un processo stazionario (o processo fortemente stazionario) è un processo stocastico la cui distribuzione di probabilità congiunta non cambia se viene traslata nel tempo.

Nuovo!!: Teoria dell'informazione e Processo stazionario · Mostra di più »

Processo stocastico

In matematica, più precisamente in teoria della probabilità, un processo stocastico (o processo aleatorio) è la versione probabilistica del concetto di sistema dinamico.

Nuovo!!: Teoria dell'informazione e Processo stocastico · Mostra di più »

Ralph Hartley

A lui si deve l'invenzione dell'oscillatore di Hartley e della trasformata di Hartley ed ha contribuito alla fondazione della teoria dell'informazione.

Nuovo!!: Teoria dell'informazione e Ralph Hartley · Mostra di più »

Ricevitore (teoria dell'informazione)

In telecomunicazioni il ricevitore è quell'apparato o sottosistema elettronico terminale che fa parte di un sistema di telecomunicazioni, adibito a ricevere i segnali informativi ad esso in input provenienti dal canale di comunicazione, rappresentato dal mezzo trasmissivo, e trasmessi a monte dal trasmettitore.

Nuovo!!: Teoria dell'informazione e Ricevitore (teoria dell'informazione) · Mostra di più »

Ridondanza (ingegneria)

La ridondanza, nell'ingegneria dell'affidabilità, è definita come l'esistenza di più mezzi per svolgere una determinata funzione, disposti in modo tale che un guasto di un sistema possa verificarsi solo in conseguenza del guasto contemporaneo di tutti questi mezzi.

Nuovo!!: Teoria dell'informazione e Ridondanza (ingegneria) · Mostra di più »

Rolf Landauer

Nel 1961, presso l'IBM, dimostrò come l'informazione cancellata possa diventare entropia e la quantità di energia associata si trasformi in calore, ovvero che l'eliminazione di bit di informazione produca una quantità di calore che non possa essere diminuita oltre un determinato limite.

Nuovo!!: Teoria dell'informazione e Rolf Landauer · Mostra di più »

Rumore (elettronica)

In elettronica il rumore è l'insieme di segnali, in tensione o corrente elettrica, imprevisti e indesiderati che si sovrappongono al segnale utile, trasmesso o da elaborare, tipicamente presente sul canale di comunicazione tra due o più utenti (o apparati elettronici) e sui dispositivi di ricezione/elaborazione.

Nuovo!!: Teoria dell'informazione e Rumore (elettronica) · Mostra di più »

Scacchi

Gli scacchi sono un gioco da tavolo di strategia che vede opposti due avversari, detti Bianco o Nero secondo il colore dei pezzi che muovono.

Nuovo!!: Teoria dell'informazione e Scacchi · Mostra di più »

Seconda guerra mondiale

La seconda guerra mondiale fu il conflitto armato che tra il 1939 e il 1945 vide contrapporsi da un lato le potenze dell'Asse e dall'altro i Paesi Alleati.

Nuovo!!: Teoria dell'informazione e Seconda guerra mondiale · Mostra di più »

Secondo teorema di Shannon

In teoria dell'informazione, il secondo teorema di Shannon, o teorema della codifica di canale, stabilisce che per quanto un canale di comunicazione sia affetto da rumore, è possibile trasmettere dati (informazione) attraverso il canale stesso con probabilità di errore Pe piccola a piacere fino ad una frequenza massima.

Nuovo!!: Teoria dell'informazione e Secondo teorema di Shannon · Mostra di più »

Sistema complesso

Un sistema complesso è un sistema composto da diverse componenti o sottosistemi che possono interagire tra loro.

Nuovo!!: Teoria dell'informazione e Sistema complesso · Mostra di più »

Sistema di posizionamento globale

Il sistema di posizionamento globale (in inglese: Global Positioning System, in acronimo: GPS, a sua volta abbreviazione di NAVSTAR GPS, acronimo di NAVigation Satellite Timing And Ranging Global Positioning System o di NAVigation Signal Timing And Ranging Global Position System) è un sistema di posizionamento e navigazione satellitare civile che, attraverso una rete dedicata di satelliti artificiali in orbita, fornisce ad un terminale mobile o ricevitore GPS informazioni sulle sue coordinate geografiche ed orario, in ogni condizione meteorologica, ovunque sulla Terra o nelle sue immediate vicinanze ove vi sia un contatto privo di ostacoli con almeno quattro satelliti del sistema.

Nuovo!!: Teoria dell'informazione e Sistema di posizionamento globale · Mostra di più »

Spread spectrum

In telecomunicazioni con il termine spread-spectrum, in italiano spettro espanso, si indica una tecnica di trasmissione in cui il segnale informativo viene trasmesso su una banda di frequenze che è considerevolmente più ampia di quella effettivamente necessaria alla trasmissione dell'informazione contenuta nel segnale originario stesso (v. trasmissioni in banda larga).

Nuovo!!: Teoria dell'informazione e Spread spectrum · Mostra di più »

Statistica

La statistica è una disciplina che ha come fine lo studio quantitativo e qualitativo di un particolare fenomeno in condizioni di incertezza o non determinismo, ovvero di non completa conoscenza di esso o parte di esso.

Nuovo!!: Teoria dell'informazione e Statistica · Mostra di più »

Steganografia

La steganografia è una tecnica che si prefigge di nascondere la comunicazione tra due interlocutori.

Nuovo!!: Teoria dell'informazione e Steganografia · Mostra di più »

Telecomunicazione

La telecomunicazione, abbreviazione TLC, è l'attività di trasmissione a lunga distanza (tele) di segnali, parole e immagini tra due o più soggetti mediante dispositivi elettronici attraverso un canale fisico di comunicazione.

Nuovo!!: Teoria dell'informazione e Telecomunicazione · Mostra di più »

Telefonia mobile

La telefonia mobile è una tipologia di accesso ad una rete telefonica, in particolare una tipologia di accesso destinata all'utente finale.

Nuovo!!: Teoria dell'informazione e Telefonia mobile · Mostra di più »

Teoria dei giochi

La teoria dei giochi è la scienza matematica che studia e analizza le decisioni individuali di un soggetto in situazioni di conflitto o interazione strategica con altri soggetti rivali (due o più) finalizzate al massimo guadagno di ciascun soggetto.

Nuovo!!: Teoria dell'informazione e Teoria dei giochi · Mostra di più »

Teoria della detezione del segnale

La teoria della detezione del segnale o teoria della rilevazione è un metodo per quantificare l'abilità di distinguere, in un segnale, il segnale vero e proprio portatore di informazioni dal rumore.

Nuovo!!: Teoria dell'informazione e Teoria della detezione del segnale · Mostra di più »

Teoria della probabilità

La teoria della probabilità è lo studio matematico della probabilità.

Nuovo!!: Teoria dell'informazione e Teoria della probabilità · Mostra di più »

Teoria della stima

La teoria della stima è un ramo della statistica e dell'elaborazione numerica dei segnali che ha come obiettivo la stima di parametri, scalari o vettoriali, a partire da dati misurati/empirici, la cui distribuzione è influenzata dai valori effettivi assunti da tali parametri.

Nuovo!!: Teoria dell'informazione e Teoria della stima · Mostra di più »

Termodinamica

La termodinamica è la branca della fisica classica che studia e descrive le trasformazioni termodinamiche indotte dal calore e dal lavoro in un sistema termodinamico, in seguito a processi che coinvolgono cambiamenti delle variabili di stato temperatura ed energia.

Nuovo!!: Teoria dell'informazione e Termodinamica · Mostra di più »

Trasmissione (telecomunicazioni)

Il termine trasmissione, nel campo delle telecomunicazioni e dell'informatica, indica il processo e le modalità/tecniche finalizzate all'invio di informazione, tramite impulsi elettrici e segnali codificati, su un canale fisico di comunicazione da un mittente ad uno o più destinatari.

Nuovo!!: Teoria dell'informazione e Trasmissione (telecomunicazioni) · Mostra di più »

Turbo codici

I turbo codici sono una classe di codici di correzione degli errori ad alte prestazioni, che trovano impiego nelle comunicazioni satellitari nello spazio profondo ed in altre applicazioni in cui i progettisti puntano ad avere il massimo trasferimento di informazione su una banda limitata in presenza di un segnale ricevuto affetto da rumore.

Nuovo!!: Teoria dell'informazione e Turbo codici · Mostra di più »

Una teoria matematica della comunicazione

A Mathematical Theory of Communication è un articolo pubblicato da Claude Shannon nel Bell System Technical Journal nel 1948.

Nuovo!!: Teoria dell'informazione e Una teoria matematica della comunicazione · Mostra di più »

Variabile casuale

In matematica, e in particolare nella teoria della probabilità, una variabile casuale (detta anche variabile aleatoria o variabile stocastica) è una variabile che può assumere valori diversi in dipendenza da qualche fenomeno aleatorio.

Nuovo!!: Teoria dell'informazione e Variabile casuale · Mostra di più »

Velocità di trasmissione

In informatica e telecomunicazioni, la velocità di trasmissione (o di trasferimento detta anche frequenza di cifra o bit-rate) indica la quantità di dati digitali che possono essere trasferiti, attraverso una connessione/trasmissione, su un canale di comunicazione in un dato intervallo di tempo, ovvero: R.

Nuovo!!: Teoria dell'informazione e Velocità di trasmissione · Mostra di più »

Willard Gibbs

Contribuì allo sviluppo dei fondamenti teorici della termodinamica e fu uno dei tanti fondatori dell'analisi vettoriale.

Nuovo!!: Teoria dell'informazione e Willard Gibbs · Mostra di più »

ZIP (formato di file)

Lo ZIP è un formato libero di compressione dei dati molto diffuso nei computer IBM-PC con sistemi operativi Microsoft e supportato di default nei computer Apple con sistema operativo macOS.

Nuovo!!: Teoria dell'informazione e ZIP (formato di file) · Mostra di più »

1924

Nessuna descrizione.

Nuovo!!: Teoria dell'informazione e 1924 · Mostra di più »

1928

Nessuna descrizione.

Nuovo!!: Teoria dell'informazione e 1928 · Mostra di più »

1940

Nessuna descrizione.

Nuovo!!: Teoria dell'informazione e 1940 · Mostra di più »

1948

Nessuna descrizione.

Nuovo!!: Teoria dell'informazione e 1948 · Mostra di più »

Riorienta qui:

Teoria dell'Informazione.

UscenteArrivo
Ehi! Siamo su Facebook ora! »