Logo
Unionpedia
Comunicazione
Disponibile su Google Play
Nuovo! Scarica Unionpedia sul tuo dispositivo Android™!
Installa
l'accesso più veloce di browser!
 

Teoria dell'informazione

Indice Teoria dell'informazione

La teoria dell'informazione è una disciplina dell'informatica e delle telecomunicazioni il cui oggetto è l'analisi e l'elaborazione su base matematica dei fenomeni relativi alla misurazione e alla trasmissione di informazioni su un canale fisico di comunicazione.

136 relazioni: Albero di decisione, Aleksandr Jakovlevič Chinčin, Algoritmo (semiotica), Andrew Viterbi, Apprendimento automatico, Autoinformazione, Basilio Catania, Bell Laboratories, Bionica, Bit, BIT, Capacità, Capacità di canale, Centro Internazionale di Scienze Meccaniche, Cibernetica, Cifrario, Classificazione delle ricerche matematiche, Claude Berrou, Claude Shannon, Codice, Codice (teoria dell'informazione), Codice binario, Codice genetico, Codice lineare, Codici nella Bibbia, Codici random, Codifica di Huffman, Codificazione entropica, Colorazione dei grafi, Complessità di Kolmogorov, Complessità specificata, Comunicazioni in fibra ottica, Consorzio nazionale interuniversitario per le telecomunicazioni, Crittografia, Cronologia della teoria dell'informazione, Decibel, Descrittore molecolare, Dimostrazione probabilistica, Dirty paper coding, Distanza di Hamming, Distanza di Levenshtein, Distanza di unicità, Distribuzione di probabilità a priori, Disturbo, Disuguaglianza di Fano, Divergenza di Kullback-Leibler, Dynamic Spectrum Management, Econofisica, Edgar Morin, Edward Kofler, ..., Entropia, Entropia (disambigua), Entropia (teoria dell'informazione), Entropia condizionale, Entropia incrociata, Episodi di Numb3rs (seconda stagione), Epistemologia, Era dell'informazione, Ernst Mach, Filologia cognitiva, Filosofia dell'informazione, Francesco Alberoni, Franco Malerba, Funzione sinc, Gerarchia, Giuseppe O. Longo, Glossario sulle matrici, Incertezza, Indice di Shannon-Wiener, Informatica, Informatica teorica, Information geometry, Informazione, Informazione di Fisher, Informazione mutua, Informazione mutua puntuale, Informazione parziale linearizzata, Ingegneria delle telecomunicazioni, Interferenza (telecomunicazioni), Istituto dei sistemi complessi, Jacob Ziv, James Tenney, John von Neumann, La teoria della comunicazione nei sistemi crittografici, Laurea in Informatica, Legge di Zipf, Lubomír Doležel, Luciano Floridi, Ludwig Wittgenstein, Massachusetts Institute of Technology, Matematica discreta, Meccanica statistica, Minima lunghezza di descrizione, Nathaniel Rochester, Norbert Wiener, Paesaggio, Paradosso di Gibbs, Premio Nevanlinna, Primo teorema di Shannon, Problema di Monty Hall, Psicologia cognitiva, Ralph Hartley, Rapporto segnale/rumore, Rasoio di Occam, Reservoir computing, Ricevitore, Ridondanza (teoria dell'informazione), Rilevazione e correzione d'errore, Rivoluzione digitale, Roberto Mario Fano, Scienze formali, Scuola di Ulm, Secondo teorema di Shannon, Sneakernet, Soft-decision decoder, Storia dell'informatica, Storia della crittografia, Storia della matematica, Telecomunicazione, Teorema di Shannon, Teoria dei codici, Teoria della comunicazione, Terza rivoluzione industriale, Trasformata di Fourier, Trasmissione seriale, Turbo codici, Una teoria matematica della comunicazione, Unità di informazione, Valentino von Braitenberg, Valerij Borisovič Brajnin, Valore dell'informazione, Werner Meyer-Eppler, William Dembski, XX secolo, 1948, 94-XX. Espandi índice (86 più) »

Albero di decisione

Nella teoria delle decisioni (per esempio nella gestione dei rischi), un albero di decisione è un grafo di decisioni e delle loro possibili conseguenze, (incluso i relativi costi, risorse e rischi) utilizzato per creare un 'piano di azioni' (plan) mirato ad uno scopo (goal).

Nuovo!!: Teoria dell'informazione e Albero di decisione · Mostra di più »

Aleksandr Jakovlevič Chinčin

Fu uno dei principali autori della scuola probabilista sovietica.

Nuovo!!: Teoria dell'informazione e Aleksandr Jakovlevič Chinčin · Mostra di più »

Algoritmo (semiotica)

Algirdas J. Greimas e Courtés definiscono "algoritmo" la prescrizione di un determinato ordine nell'esecuzione di un insieme di istruzioni in vista della soluzione di un problema.

Nuovo!!: Teoria dell'informazione e Algoritmo (semiotica) · Mostra di più »

Andrew Viterbi

Nato in una famiglia ebraica, suo padre Achille era oftalmologo e cugino da parte di madre della moglie di Primo Levi.

Nuovo!!: Teoria dell'informazione e Andrew Viterbi · Mostra di più »

Apprendimento automatico

L’apprendimento automatico, nota anche come machine learning, rappresenta un insieme di metodi sviluppati a partire dagli ultimi decenni del 1900 in varie comunità scientifiche con diversi nomi come: statistica computazionale, riconoscimento di pattern, reti neurali artificiali, filtraggio adattivo, teoria dei sistemi dinamici, elaborazione delle immagini, data mining, algoritmi adattivi, ecc; che utilizza metodi statistici per migliorare progressivamente la performance di un algoritmo nell'identificare pattern nei dati.

Nuovo!!: Teoria dell'informazione e Apprendimento automatico · Mostra di più »

Autoinformazione

L'autoinformazione di un evento è la quantità d'incertezza associata all'evento, ovvero l'informazione che si ottiene affermando innanzitutto che tale evento si sia realizzato, e rimuovendo quindi l'incertezza associata.

Nuovo!!: Teoria dell'informazione e Autoinformazione · Mostra di più »

Basilio Catania

Nato a Maletto, in Sicilia nel 1926, si trasferì all'età di tre anni a Milano, dove, nel 1952, si laureò al Politecnico in ingegneria elettronica.

Nuovo!!: Teoria dell'informazione e Basilio Catania · Mostra di più »

Bell Laboratories

I Bell Laboratories (noti anche come Bell Labs, Bell, Laboratori Bell, in precedenza denominati AT&T Bell Laboratory e Bell Telephone Laboratories) sono un centro di ricerca e sviluppo, attualmente di proprietà di Nokia.

Nuovo!!: Teoria dell'informazione e Bell Laboratories · Mostra di più »

Bionica

La bionica (conosciuta anche come biomimetica, mimetica biologica) è l'applicazione di metodi e sistemi biologici trovati in natura nello studio e nel design di sistemi ingegneristici e della moderna tecnologia.

Nuovo!!: Teoria dell'informazione e Bionica · Mostra di più »

Bit

La parola bit, in informatica e in teoria dell'informazione, ha due significati molto diversi, a seconda del contesto in cui rispettivamente la si usi.

Nuovo!!: Teoria dell'informazione e Bit · Mostra di più »

BIT

Nessuna descrizione.

Nuovo!!: Teoria dell'informazione e BIT · Mostra di più »

Capacità

Nessuna descrizione.

Nuovo!!: Teoria dell'informazione e Capacità · Mostra di più »

Capacità di canale

In informatica e teoria dell'informazione, la capacità di canale è "il più piccolo limite superiore" alla quantità di informazione che può essere trasmessa in maniera affidabile su un canale.

Nuovo!!: Teoria dell'informazione e Capacità di canale · Mostra di più »

Centro Internazionale di Scienze Meccaniche

Il Centro Internazionale di Scienze Meccaniche (CISM o International Centre for Mechanical Sciences) è una organizzazione senza scopo di lucro fondata nel 1968 da scienziati europei per favorire lo scambio e l'applicazione delle conoscenze più avanzate nelle scienze meccaniche e in altri campi (matematica, teoria dei sistemi, teoria dell'informazione, ricerca operativa, informatica, intelligenza artificiale).

Nuovo!!: Teoria dell'informazione e Centro Internazionale di Scienze Meccaniche · Mostra di più »

Cibernetica

Il termine cibernetica indica un vasto programma di ricerca interdisciplinare, rivolto allo studio matematico unitario degli organismi viventi e, più in generale, di sistemi, sia naturali che artificiali.

Nuovo!!: Teoria dell'informazione e Cibernetica · Mostra di più »

Cifrario

In crittografia un cifrario, o cifra, è un algoritmo utilizzato per eseguire operazioni di cifratura e decifratura, vale a dire una serie di passaggi ben definiti che possono essere seguiti come una procedura.

Nuovo!!: Teoria dell'informazione e Cifrario · Mostra di più »

Classificazione delle ricerche matematiche

La classificazione più autorevole degli argomenti della ricerca matematica è costituita dallo schema di classificazione chiamato Mathematics Subject Classification.

Nuovo!!: Teoria dell'informazione e Classificazione delle ricerche matematiche · Mostra di più »

Claude Berrou

Claude Berrou nacque a Penmarc'h, Finistère, Francia.

Nuovo!!: Teoria dell'informazione e Claude Berrou · Mostra di più »

Claude Shannon

Claude Shannon, lontano parente di Thomas Edison, nacque a Petoskey, una piccola città del Michigan.

Nuovo!!: Teoria dell'informazione e Claude Shannon · Mostra di più »

Codice

* Codice – in filologia, libro manoscritto.

Nuovo!!: Teoria dell'informazione e Codice · Mostra di più »

Codice (teoria dell'informazione)

Nella teoria dell'informazione, e conseguentemente nelle telecomunicazioni, nell'elettronica e nell'informatica, un codice è un sistema di segnali, segni o simboli convenzionalmente designati per rappresentare un'informazione.

Nuovo!!: Teoria dell'informazione e Codice (teoria dell'informazione) · Mostra di più »

Codice binario

In informatica e discipline affini, l'espressione codice binario si riferisce, in generale, a notazioni che utilizzano simboli binari o bit.

Nuovo!!: Teoria dell'informazione e Codice binario · Mostra di più »

Codice genetico

Il codice genetico è l'insieme dei meccanismi attraverso i quali viene tradotta l'informazione codificata negli acidi nucleici costituenti i geni per la sintesi di proteine nelle cellule.

Nuovo!!: Teoria dell'informazione e Codice genetico · Mostra di più »

Codice lineare

In matematica ed in teoria dell'informazione un codice lineare è un'importante tipologia di codice a blocchi usato negli schemi per la correzione e la rivelazione d'errore.

Nuovo!!: Teoria dell'informazione e Codice lineare · Mostra di più »

Codici nella Bibbia

I codici nella Bibbia, noti anche come codici nella Torah, sono parole e frasi estratti con metodi crittografici saltatori e loro raggruppamenti ed "incroci semantici" con altre parole e frasi in chiaro nel testo della Bibbia che alcune persone credono siano pieni di significato, degne di attenzione, dal momento che esisterebbero intenzionalmente in forma crittografata nel testo originale in ebraico della Torah.

Nuovo!!: Teoria dell'informazione e Codici nella Bibbia · Mostra di più »

Codici random

I codici random sono stati definiti da Claude Shannon e sono attualmente di grande interesse nel campo della teoria dell'informazione grazie alle loro proprietà.

Nuovo!!: Teoria dell'informazione e Codici random · Mostra di più »

Codifica di Huffman

In informatica, per Codifica di Huffman si intende un algoritmo di codifica dei simboli, tale da massimizzare l'entropia, usato per la compressione di dati, basato sul principio di trovare il sistema ottimale per codificare stringhe basato sulla frequenza relativa di ciascun carattere.

Nuovo!!: Teoria dell'informazione e Codifica di Huffman · Mostra di più »

Codificazione entropica

Nella teoria dell'informazione una codificazione entropica (in inglese entropy encoding) è uno schema di compressione dati lossless (cioè senza perdita d'informazione) che è indipendente dalle specifiche caratteristiche del mezzo.

Nuovo!!: Teoria dell'informazione e Codificazione entropica · Mostra di più »

Colorazione dei grafi

Nella teoria dei grafi, la colorazione dei grafi è un caso speciale di etichettamento dei grafi; è un'assegnazione di etichette, tradizionalmente chiamate "colori", agli elementi di un grafo soggetta a determinati vincoli.

Nuovo!!: Teoria dell'informazione e Colorazione dei grafi · Mostra di più »

Complessità di Kolmogorov

Nella teoria algoritmica dell'informazione, la complessità di Kolmogorov di un oggetto (assumendo che possa essere rappresentato come una sequenza di bit, per esempio un pezzo di testo), è la lunghezza del più breve programma informatico (in un dato linguaggio di programmazione) che produca l'oggetto come output.

Nuovo!!: Teoria dell'informazione e Complessità di Kolmogorov · Mostra di più »

Complessità specificata

La complessità specificata (specified complexity) è un controverso argomento proposto da William Dembski, e da lui utilizzato nei suoi lavori a sostegno del Disegno intelligente.

Nuovo!!: Teoria dell'informazione e Complessità specificata · Mostra di più »

Comunicazioni in fibra ottica

In telecomunicazioni con il termine comunicazioni in fibra ottica si designa una parte delle comunicazioni ottiche ovvero l'insieme delle tecniche finalizzate a trasmettere informazione da un luogo ad un altro attraverso la propagazione di segnali ottici (luce) in una fibra ottica come mezzo trasmissivo: la luce forma una portante elettromagnetica che viene modulata per trasportare informazione.

Nuovo!!: Teoria dell'informazione e Comunicazioni in fibra ottica · Mostra di più »

Consorzio nazionale interuniversitario per le telecomunicazioni

Il Consorzio nazionale interuniversitario per le telecomunicazioni, in acronimo CNIT, è un'organizzazione senza fini di lucro che raggruppa 36 università italiane con lo scopo di promuovere attività di ricerca, formazione e sperimentazione nel campo delle telecomunicazioni.

Nuovo!!: Teoria dell'informazione e Consorzio nazionale interuniversitario per le telecomunicazioni · Mostra di più »

Crittografia

La crittografia (dall'unione di due parole greche: κρυπτóς che significa "nascosto", e γραφία che significa "scrittura") è la branca della crittologia che tratta delle "scritture nascoste", ovvero dei metodi per rendere un messaggio "offuscato" in modo da non essere comprensibile/intelligibile a persone non autorizzate a leggerlo.

Nuovo!!: Teoria dell'informazione e Crittografia · Mostra di più »

Cronologia della teoria dell'informazione

Questa voce contiene una cronologia di eventi legati alla teoria dell'informazione, alla informazione quantistica, alla compressione dei dati, ai codici di correzione degli errori e argomenti correlati.

Nuovo!!: Teoria dell'informazione e Cronologia della teoria dell'informazione · Mostra di più »

Decibel

Il decibel (simbolo ㏈) è la decima parte del bel (simbolo B): 10 ㏈.

Nuovo!!: Teoria dell'informazione e Decibel · Mostra di più »

Descrittore molecolare

Un descrittore molecolare in chimica è un sistema per caratterizzare una molecola che permette di comparare molecole diverse e cercare molecole affini in una banca dati.

Nuovo!!: Teoria dell'informazione e Descrittore molecolare · Mostra di più »

Dimostrazione probabilistica

Una dimostrazione probabilistica, o metodo probabilistico, è una tecnica di dimostrazione matematica non costruttiva dell'esistenza certa di un oggetto matematico tramite considerazioni probabilistiche.

Nuovo!!: Teoria dell'informazione e Dimostrazione probabilistica · Mostra di più »

Dirty paper coding

Nel campo delle telecomunicazioni, il dirty paper coding (DPC) è una tecnica per la trasmissioni efficiente di dati digitali attraverso un canale di comunicazione che è soggetto a qualche interferenza nota al trasmittente.

Nuovo!!: Teoria dell'informazione e Dirty paper coding · Mostra di più »

Distanza di Hamming

Nella teoria dell'informazione, la distanza di Hamming tra due stringhe di ugual lunghezza è il numero di posizioni nelle quali i simboli corrispondenti sono diversi.

Nuovo!!: Teoria dell'informazione e Distanza di Hamming · Mostra di più »

Distanza di Levenshtein

Nella teoria dell'informazione e nella teoria dei linguaggi, la distanza di Levenshtein, o distanza di edit, è una misura per la differenza fra due stringhe.

Nuovo!!: Teoria dell'informazione e Distanza di Levenshtein · Mostra di più »

Distanza di unicità

Con distanza di unicità ci si riferisce, in crittografia, alla lunghezza minima necessaria che un testo cifrato deve avere affinché sia possibile violare il cifrario con un attacco a forza bruta riducendo a zero il numero di possili chiavi spurie.

Nuovo!!: Teoria dell'informazione e Distanza di unicità · Mostra di più »

Distribuzione di probabilità a priori

Nell'ambito dell'inferenza statistica bayesiana, una distribuzione di probabilità a priori, detta spesso anche distribuzione a priori, di una quantità incognita p (per esempio, supponiamo p essere la proporzione di votanti che voteranno per il politico Rossi in un'elezione futura) è la distribuzione di probabilità che esprimerebbe l'incertezza di p prima che i "dati" (per esempio, un sondaggio di opinione) siano presi in considerazione.

Nuovo!!: Teoria dell'informazione e Distribuzione di probabilità a priori · Mostra di più »

Disturbo

Disturbo, come termine scientifico, è spesso utilizzato come sinonimo di.

Nuovo!!: Teoria dell'informazione e Disturbo · Mostra di più »

Disuguaglianza di Fano

Nella teoria dell'informazione, la Disuguaglianza di Fano mette in relazione l'equivocazione di un canale rumoroso con la probabilità d'errore nella decodifica di un simbolo ricevuto.

Nuovo!!: Teoria dell'informazione e Disuguaglianza di Fano · Mostra di più »

Divergenza di Kullback-Leibler

In teoria della probabilità e in teoria dell'informazione, la divergenza di Kullback–Leibler (anche detta divergenza di informazione, entropia relativa, o KLIC) è una misura non simmetrica della differenza tra due distribuzioni di probabilità P e Q. Specificamente, la divergenza di Kullback–Leibler di Q da P, indicata con DKL(P||Q), è la misura dell'informazione persa quando Q è usata per approssimare P: KL misura il numero atteso di bit extra richiesti per la Codifica di Huffman di campioni P quando si utilizza un codice basato su Q, piuttosto che utilizzare un codice basato su P. Tipicamente P rappresenta la "vera" distribuzione di dati, osservazioni, o una distribuzione teorica calcolata con precisione.

Nuovo!!: Teoria dell'informazione e Divergenza di Kullback-Leibler · Mostra di più »

Dynamic Spectrum Management

Dynamic Spectrum Management (DSM) è un insieme di tecniche basate su concetti teorici di teoria dell'informazione e teoria dei giochi che si sta studiando e sviluppando per migliorare le prestazioni delle comunicazione di rete.

Nuovo!!: Teoria dell'informazione e Dynamic Spectrum Management · Mostra di più »

Econofisica

Il termine econofisica designa un ambito di ricerca interdisciplinare caratterizzato dal ricorso a tecniche e metodi sviluppati, in origine, nel campo della fisica, ma applicati a problemi propri dell'economia: tali metodi, in genere, comprendono aspetti stocastici, statistici e di dinamica non lineare.

Nuovo!!: Teoria dell'informazione e Econofisica · Mostra di più »

Edgar Morin

È noto per l'approccio transdisciplinare con il quale ha trattato un'ampia gamma di argomenti, fra cui l'epistemologia.

Nuovo!!: Teoria dell'informazione e Edgar Morin · Mostra di più »

Edward Kofler

Nato il 16 novembre 1911 a Brzezany, Russia (oggi Ucraina) ha studiato matematica presso l'università di Lwów e con l'Università Jagellonica di Cracovia come, assistente di Hugo Steinhause e di Stefan Banach con i quali ha studiato la teoria dei giochi.

Nuovo!!: Teoria dell'informazione e Edward Kofler · Mostra di più »

Entropia

In meccanica statistica l'entropia (dal greco antico ἐν en, "dentro", e τροπή tropé, "trasformazione") è una grandezza (più in particolare una coordinata generalizzata) che viene interpretata come una misura del disordine presente in un sistema fisico qualsiasi, incluso, come caso limite, l'universo.

Nuovo!!: Teoria dell'informazione e Entropia · Mostra di più »

Entropia (disambigua)

Il termine Entropia è stato coniato nello studio della chimica-fisica ed è strettamente legato al secondo principio della termodinamica.

Nuovo!!: Teoria dell'informazione e Entropia (disambigua) · Mostra di più »

Entropia (teoria dell'informazione)

Nella teoria dell'informazione l'entropia di una sorgente di messaggi è l'informazione media contenuta in ogni messaggio emesso.

Nuovo!!: Teoria dell'informazione e Entropia (teoria dell'informazione) · Mostra di più »

Entropia condizionale

Nella teoria dell'informazione l'entropia condizionale è una misura della quantità di informazione necessaria per descrivere il valore di una variabile aleatoria \Chi noto il valore di un'altra variabile aleatoria Y. Nella trasmissione attraverso un canale di comunicazione rappresenta la quantità rimanente di incertezza del valore all'ingresso al canale dopo che è stato osservato il valore di uscita.

Nuovo!!: Teoria dell'informazione e Entropia condizionale · Mostra di più »

Entropia incrociata

Nella teoria dell'informazione, l'entropia incrociata fra due distribuzioni di probabilità p e q relative allo stesso insieme di eventi misura il numero medio di bit necessari per identificare un evento estratto dall'insieme, nel caso sia utilizzato uno schema ottimizzato per una distribuzione di probabilità "innaturale" q, piuttosto che per la distribuzione "vera" p.

Nuovo!!: Teoria dell'informazione e Entropia incrociata · Mostra di più »

Episodi di Numb3rs (seconda stagione)

* Trasmessa in USA - CBS: 2005/2006.

Nuovo!!: Teoria dell'informazione e Episodi di Numb3rs (seconda stagione) · Mostra di più »

Epistemologia

L'epistemologia (termine, coniato dal filosofo scozzese James Frederick Ferrier, dal greco ἐπιστήμη, epistème, "conoscenza certa" ossia "scienza", e λόγος, logos, "discorso") è quella branca della filosofia contemporanea che si occupa delle condizioni sotto le quali si può avere conoscenza certa o scientifica ovvero dei metodi per raggiungere tale conoscenza.

Nuovo!!: Teoria dell'informazione e Epistemologia · Mostra di più »

Era dell'informazione

Era dell'informazione è un nome dato ad un periodo successivo all'Era industriale e precedente a quello dell'Economia della conoscenza.

Nuovo!!: Teoria dell'informazione e Era dell'informazione · Mostra di più »

Ernst Mach

Mach nacque a Chrlice, oggi quartiere di Brno in Moravia e morì a Haar in Germania.

Nuovo!!: Teoria dell'informazione e Ernst Mach · Mostra di più »

Filologia cognitiva

La filologia cognitiva è la scienza che studia i testi scritti e orali, considerandoli come prodotti dei processi mentali umani.

Nuovo!!: Teoria dell'informazione e Filologia cognitiva · Mostra di più »

Filosofia dell'informazione

La filosofia dell'informazione (FI) è una nuova disciplina filosofica che riguarda.

Nuovo!!: Teoria dell'informazione e Filosofia dell'informazione · Mostra di più »

Francesco Alberoni

Dopo aver studiato al Liceo Scientifico di Piacenza si trasferì a Pavia, dove fu allievo del Collegio Cairoli e si laureò in Medicina nel 1953.

Nuovo!!: Teoria dell'informazione e Francesco Alberoni · Mostra di più »

Franco Malerba

Ufficiale di complemento per la Marina Militare, è stato il primo astronauta italiano della storia, avendo fatto parte dell'equipaggio portato in orbita dallo Space Shuttle Atlantis il 31 luglio 1992 nel corso della missione STS-46.

Nuovo!!: Teoria dell'informazione e Franco Malerba · Mostra di più »

Funzione sinc

La funzione sinc normalizzata (blu) e quella non normalizzata (rosso). In matematica la funzione sinc (o seno cardinale), indicata come \mathrm(x) o, più raramente, con \mathrm(x), può essere definita in due modi.

Nuovo!!: Teoria dell'informazione e Funzione sinc · Mostra di più »

Gerarchia

Una gerarchia (dal tardo greco ἱεραρχία, ierarchia, derivato di hierárkhēs, composito di hieros "sacro" e árkhō "presiedere" o "essere capo") è un sistema, asimmetrico, di graduazione e organizzazione delle cose, rapporto implicante un reciproco rapporto di supremazia e subordinazione di tipo piramidale.

Nuovo!!: Teoria dell'informazione e Gerarchia · Mostra di più »

Giuseppe O. Longo

Cibernetico, teorico dell'informazione, epistemologo, divulgatore scientifico, scrittore, attore e traduttore.

Nuovo!!: Teoria dell'informazione e Giuseppe O. Longo · Mostra di più »

Glossario sulle matrici

Questo glossario sulle matrici riporta termini utilizzati per il trattamento di queste entità matematiche, che rivestono grande importanza in svariate branche e applicazioni della scienza.

Nuovo!!: Teoria dell'informazione e Glossario sulle matrici · Mostra di più »

Incertezza

L'incertezza è il termine utilizzato in diversi significati in un certo numero di ambiti, tra cui filosofia, fisica, statistica, economia, finanza, assicurazione, psicologia, sociologia, ingegneria e scienza.

Nuovo!!: Teoria dell'informazione e Incertezza · Mostra di più »

Indice di Shannon-Wiener

L'indice di Shannon-Wiener H' è un indice di diversità usato in statistica nel caso di popolazioni con un numero infinito di elementi.

Nuovo!!: Teoria dell'informazione e Indice di Shannon-Wiener · Mostra di più »

Informatica

L'informatica è la scienza applicata che si occupa del trattamento dell'informazione mediante procedure automatizzate.

Nuovo!!: Teoria dell'informazione e Informatica · Mostra di più »

Informatica teorica

L'informatica teorica è una branca dell'informatica che riguarda gli aspetti più astratti e matematici della computazione, come la teoria della computazione, la semantica della programmazione e la teoria della complessità computazionale.

Nuovo!!: Teoria dell'informazione e Informatica teorica · Mostra di più »

Information geometry

In matematica, e specialmente in statistica inferenziale, l'information geometry è lo studio della probabilità e dell'informazione attraverso gli strumenti della geometria differenziale.

Nuovo!!: Teoria dell'informazione e Information geometry · Mostra di più »

Informazione

L'informazione l'insieme di dati, correlati tra loro, con cui un'idea (o un fatto) prende forma ed è comunicata.

Nuovo!!: Teoria dell'informazione e Informazione · Mostra di più »

Informazione di Fisher

In statistica e teoria dell'informazione, l'informazione di Fisher è la varianza dello score (derivata logaritmica) associato a una data funzione di verosimiglianza.

Nuovo!!: Teoria dell'informazione e Informazione di Fisher · Mostra di più »

Informazione mutua

Nella teoria della probabilità e nella teoria dell'informazione, l'informazione mutua o mutua informazione (talvolta nota con il termine arcaico di transinformazione) di due variabili casuali è una quantità che misura la mutua dipendenza delle due variabili.

Nuovo!!: Teoria dell'informazione e Informazione mutua · Mostra di più »

Informazione mutua puntuale

L'informazione mutua puntuale (IMP) (pointwise mutual information, PMI) (o informazione mutua specifica) è una misura di associazione usata nella teoria dell'informazione e nella statistica.

Nuovo!!: Teoria dell'informazione e Informazione mutua puntuale · Mostra di più »

Informazione parziale linearizzata

L'informazione parziale linearizzata (LPI) è un metodo per prendere decisioni basate su informazioni insufficienti, sfumate o incerte (fuzzy - in lingua inglese).

Nuovo!!: Teoria dell'informazione e Informazione parziale linearizzata · Mostra di più »

Ingegneria delle telecomunicazioni

L'ingegneria delle telecomunicazioni è un ramo dell'ingegneria, derivato in parte dall'ingegneria elettronica, che applica principi di quest'ultima e di informatica pura alla progettazione di sistemi e soluzioni per comunicare a distanza.

Nuovo!!: Teoria dell'informazione e Ingegneria delle telecomunicazioni · Mostra di più »

Interferenza (telecomunicazioni)

Nei sistemi di telecomunicazioni, si chiama interferenza la sovrapposizione di un segnale indesiderato nella ricezione di un segnale informativo trasmesso, con effetto finale della distorsione del contenuto informativo presente sul segnale utile.

Nuovo!!: Teoria dell'informazione e Interferenza (telecomunicazioni) · Mostra di più »

Istituto dei sistemi complessi

L'Istituto dei sistemi complessi (ISC) è un istituto del Consiglio Nazionale delle Ricerche che si occupa di studi sulla complessità.

Nuovo!!: Teoria dell'informazione e Istituto dei sistemi complessi · Mostra di più »

Jacob Ziv

Rispettivamente nel 1954 e nel 1957 ottiene laurea e master in ingegneria elettronica presso il Technion (Israel Institute of Technology di Haifa), per poi conseguire il dottorato presso il Massachusetts Institute of Technology di Cambridge (Stati uniti) nel 1962.

Nuovo!!: Teoria dell'informazione e Jacob Ziv · Mostra di più »

James Tenney

Diede alcuni dei primi importanti contributi a vari modelli compositivi quali la composizione algoritmica, la musica spettrale e quella microtonale.

Nuovo!!: Teoria dell'informazione e James Tenney · Mostra di più »

John von Neumann

Generalmente considerato come uno dei più grandi matematici della storia moderna oltre ad essere una delle personalità scientifiche preminenti del XX secolo, a lui si devono contributi fondamentali in numerosi campi come la teoria degli insiemi, analisi funzionale, topologia, fisica quantistica, economia, informatica, teoria dei giochi, fluidodinamica e in molti altri settori della matematica.

Nuovo!!: Teoria dell'informazione e John von Neumann · Mostra di più »

La teoria della comunicazione nei sistemi crittografici

Communication Theory of Secrecy Systems (traducibile come La teoria della comunicazione nei sistemi crittografici) è un articolo pubblicato da Claude Shannon nel 1949.

Nuovo!!: Teoria dell'informazione e La teoria della comunicazione nei sistemi crittografici · Mostra di più »

Laurea in Informatica

La Laurea in Informatica è un titolo di studio rilasciato tipicamente da un istituto di istruzione terziaria.

Nuovo!!: Teoria dell'informazione e Laurea in Informatica · Mostra di più »

Legge di Zipf

Viene detta legge di Zipf una legge empirica che descrive la frequenza di un evento P_i facente parte di un insieme, in funzione della posizione i (detta rango) nell'ordinamento decrescente rispetto alla frequenza stessa di tale evento.

Nuovo!!: Teoria dell'informazione e Legge di Zipf · Mostra di più »

Lubomír Doležel

Teorico della letteratura, noto in Italia soprattutto per gli studi di letteratura come finzione di mondi possibili.

Nuovo!!: Teoria dell'informazione e Lubomír Doležel · Mostra di più »

Luciano Floridi

Floridi è principalmente conosciuto per il suo lavoro in due aree di ricerca filosofica: la filosofia dell'informazione e l'etica informatica.

Nuovo!!: Teoria dell'informazione e Luciano Floridi · Mostra di più »

Ludwig Wittgenstein

Unico libro pubblicato in vita da Wittgenstein fu il Tractatus logico-philosophicus, dedicato alla memoria del suo amico David Hume Pinsent, la cui prefazione venne curata dal filosofo e matematico Bertrand Russell.

Nuovo!!: Teoria dell'informazione e Ludwig Wittgenstein · Mostra di più »

Massachusetts Institute of Technology

L'Istituto di tecnologia del Massachusetts (in inglese: Massachusetts Institute of Technology, MIT) è una delle più importanti università di ricerca del mondo con sede a Cambridge, nel Massachusetts (Stati Uniti).

Nuovo!!: Teoria dell'informazione e Massachusetts Institute of Technology · Mostra di più »

Matematica discreta

La matematica discreta, alle volte chiamata matematica finita (che è propriamente solo una sua parte), è lo studio di strutture matematiche che sono fondamentalmente discrete, nel senso che non supportano o richiedono il concetto di continuità.

Nuovo!!: Teoria dell'informazione e Matematica discreta · Mostra di più »

Meccanica statistica

In fisica, la meccanica statistica è l'applicazione della teoria della probabilità, che include strumenti matematici per gestire insiemi formati da numerosi elementi, al comportamento termodinamico di sistemi composti da un grande numero di particelle.

Nuovo!!: Teoria dell'informazione e Meccanica statistica · Mostra di più »

Minima lunghezza di descrizione

Il principio della minima lunghezza di descrizione (MLD) (in inglese minimum description length principle) è una formalizzazione del Rasoio di Occam nella quale la migliore ipotesi per un determinato insieme di dati è quella che conduce alla migliore compressione dei dati.

Nuovo!!: Teoria dell'informazione e Minima lunghezza di descrizione · Mostra di più »

Nathaniel Rochester

Lavorando per l'IBM, ha progettato l'IBM 701, il primo computer commerciale della storia, oltre al primo linguaggio assembly simbolico.

Nuovo!!: Teoria dell'informazione e Nathaniel Rochester · Mostra di più »

Norbert Wiener

Famoso per ricerche sul calcolo delle probabilità, ma soprattutto per gli sviluppi dati, insieme a Claude Shannon, alla teoria dell'informazione essendo riconosciuto come il padre della cibernetica moderna.

Nuovo!!: Teoria dell'informazione e Norbert Wiener · Mostra di più »

Paesaggio

Il paesaggio è la particolare fisionomia di un territorio determinata dalle sue caratteristiche fisiche, antropiche, biologiche ed etniche.

Nuovo!!: Teoria dell'informazione e Paesaggio · Mostra di più »

Paradosso di Gibbs

In termodinamica il paradosso di Gibbs coinvolge la natura discontinua dell'entropia configurazionale.

Nuovo!!: Teoria dell'informazione e Paradosso di Gibbs · Mostra di più »

Premio Nevanlinna

Il premio Nevanlinna, intitolato al matematico finlandese Rolf Nevanlinna (1895 - 1980), è assegnato ogni quattro anni a chi ha dato rilevanti contributi agli aspetti matematici della scienza dell'informazione.

Nuovo!!: Teoria dell'informazione e Premio Nevanlinna · Mostra di più »

Primo teorema di Shannon

Nella teoria dell'informazione, il primo teorema di Shannon (o teorema della codifica di sorgente), stabilisce dei limiti alla massima compressione possibile di un insieme di dati e definisce il significato operativo dell'entropia.

Nuovo!!: Teoria dell'informazione e Primo teorema di Shannon · Mostra di più »

Problema di Monty Hall

Il problema di Monty Hall (o paradosso di Monty Hall) è un famoso problema di teoria della probabilità, legato al gioco a premi statunitense Let's Make a Deal.

Nuovo!!: Teoria dell'informazione e Problema di Monty Hall · Mostra di più »

Psicologia cognitiva

La psicologia cognitiva, anche detta cognitivismo, è una branca della psicologia applicata allo studio dei processi cognitivi, teorizzata intorno al 1967 dallo psicologo statunitense Ulric Neisser.

Nuovo!!: Teoria dell'informazione e Psicologia cognitiva · Mostra di più »

Ralph Hartley

A lui si deve l'invenzione dell'oscillatore di Hartley e della trasformata di Hartley ed ha contribuito alla fondazione della teoria dell'informazione.

Nuovo!!: Teoria dell'informazione e Ralph Hartley · Mostra di più »

Rapporto segnale/rumore

In telecomunicazioni ed elettronica il rapporto segnale/rumore, spesso abbreviato con la sigla inglese SNR (Signal to Noise Ratio) o S/N anche nell'uso italiano, è una grandezza numerica che mette in relazione la potenza del segnale utile rispetto a quella del rumore in un qualsiasi sistema di acquisizione, elaborazione o trasmissione dell'informazione.

Nuovo!!: Teoria dell'informazione e Rapporto segnale/rumore · Mostra di più »

Rasoio di Occam

Rasoio di Occam (Novacula Occami in latino) è il nome con cui viene contraddistinto un principio metodologico espresso nel XIV secolo dal filosofo e frate francescano inglese William of Ockham, noto in italiano come Guglielmo di Occam.

Nuovo!!: Teoria dell'informazione e Rasoio di Occam · Mostra di più »

Reservoir computing

Con Reservoir Computing ci si riferisce all'insieme di tre famiglie per l'allenamento delle reti neurali ricorrenti: le Echo State Networks, le Liquid State Machines, e l'algoritmo Backpropagation-Decorrelation.

Nuovo!!: Teoria dell'informazione e Reservoir computing · Mostra di più »

Ricevitore

Nessuna descrizione.

Nuovo!!: Teoria dell'informazione e Ricevitore · Mostra di più »

Ridondanza (teoria dell'informazione)

In teoria dell'informazione la ridondanza è la differenza tra l'entropia H(X) di un insieme X e il suo massimo valore possibile.

Nuovo!!: Teoria dell'informazione e Ridondanza (teoria dell'informazione) · Mostra di più »

Rilevazione e correzione d'errore

La rilevazione e correzione dell'errore, in matematica, informatica, telecomunicazioni, e teoria dell'informazione, ha grande importanza pratica nel mantenimento dell'integrità dell'informazione nei sistemi con un canale rumoroso, o nei dispositivi per l'immagazzinamento dei dati caratterizzati da una scarsa affidabilità.

Nuovo!!: Teoria dell'informazione e Rilevazione e correzione d'errore · Mostra di più »

Rivoluzione digitale

La rivoluzione digitale è il passaggio dalla tecnologia meccanica ed elettronica analogica a quella elettronica digitale che, iniziato nei paesi industrializzati del mondo durante i tardi anni Cinquanta con l'adozione e la proliferazione di computer e memorie digitali, è proseguito fino ai giorni nostri, all'interno della cosiddetta terza rivoluzione industriale.

Nuovo!!: Teoria dell'informazione e Rivoluzione digitale · Mostra di più »

Roberto Mario Fano

Figlio del matematico Gino Fano, fratello del fisico italo-statunitense Ugo Fano e cugino del matematico Giulio Racah, studiò ingegneria al Politecnico di Torino e nel 1939, all'età di 22 anni, si trasferì negli Stati Uniti a causa delle leggi razziali volute da Mussolini e promulgate dal regime fascista.

Nuovo!!: Teoria dell'informazione e Roberto Mario Fano · Mostra di più »

Scienze formali

Le scienze formali o astratte sono quelle discipline che fanno uso di concetti astratti e schemi logici, prescindendo dall'esperienza e dalla realtà empirica.

Nuovo!!: Teoria dell'informazione e Scienze formali · Mostra di più »

Scuola di Ulm

La scuola di Ulm ("Hochschule für Gestaltung", ossia "scuola superiore di progettazione", di Ulm) è stata una scuola di progettazione grafica e di disegno industriale che ha raccolto nel secondo dopoguerra l'eredità delle scuole tedesche (Bauhaus) e sovietiche (Vchutemas), nate negli anni venti, con l'esigenza di dare un carattere scientifico e accademico alla professione di progettista.

Nuovo!!: Teoria dell'informazione e Scuola di Ulm · Mostra di più »

Secondo teorema di Shannon

In teoria dell'informazione, il secondo teorema di Shannon, o teorema della codifica di canale, stabilisce che per quanto un canale di comunicazione sia affetto da rumore, è possibile trasmettere dati (informazione) attraverso il canale stesso con probabilità di errore Pe piccola a piacere fino ad una frequenza massima.

Nuovo!!: Teoria dell'informazione e Secondo teorema di Shannon · Mostra di più »

Sneakernet

Sneakernet è il termine usato scherzosamente per descrivere il trasferimento elettronico di informazioni, specialmente file di computer, effettuato spostando dei dispositivi rimovibili come nastri magnetici, floppy disk, compact disc, Chiave USB, o dischi fissi esterni da un computer ad un altro.

Nuovo!!: Teoria dell'informazione e Sneakernet · Mostra di più »

Soft-decision decoder

In teoria dell'informazione, un soft-decision decoder (decodificatore a decisione morbida) è un tipo di metodo di decodifica o classe di algoritmo utilizzata per decodificare i dati che sono stati codificati con un codice di correzione degli errori.

Nuovo!!: Teoria dell'informazione e Soft-decision decoder · Mostra di più »

Storia dell'informatica

La storia dell'informatica è la storia della ominima scienza applicata.

Nuovo!!: Teoria dell'informazione e Storia dell'informatica · Mostra di più »

Storia della crittografia

La storia della crittografia ha origini remote ed inizia con la crittografia classica, con metodi di cifratura che utilizzavano carta e penna o, al massimo, semplici supporti meccanici; agli inizi del XX secolo l'invenzione di dispositivi elettromeccanici, come ad esempio la macchina Enigma a rotori, elevò a più sofisticati ed efficienti livelli la cifratura; la successiva introduzione dell'elettronica e dei computer ha permesso l'utilizzo di schemi di cifratura sempre più complessi, molti dei quali non ottenibili con carta e penna.

Nuovo!!: Teoria dell'informazione e Storia della crittografia · Mostra di più »

Storia della matematica

La storia della matematica ha origine con le scoperte matematiche e prosegue attraverso l'evoluzione nel corso dei secoli dei propri metodi e delle notazioni matematiche il cui uso si sussegue nel tempo.

Nuovo!!: Teoria dell'informazione e Storia della matematica · Mostra di più »

Telecomunicazione

La telecomunicazione, abbreviazione TLC, è l'attività di trasmissione a lunga distanza (tele) di segnali, parole e immagini tra due o più soggetti mediante dispositivi elettronici attraverso un canale fisico di comunicazione.

Nuovo!!: Teoria dell'informazione e Telecomunicazione · Mostra di più »

Teorema di Shannon

Il termine Teorema di Shannon può identificare tre diverse teorie del padre della Teoria dell'informazione.

Nuovo!!: Teoria dell'informazione e Teorema di Shannon · Mostra di più »

Teoria dei codici

In telecomunicazioni la teoria dei codici è un ramo della teoria dell'informazione, o più in generale della matematica e dell'informatica, che studia i codici per la trasmissione di dati.

Nuovo!!: Teoria dell'informazione e Teoria dei codici · Mostra di più »

Teoria della comunicazione

La teoria della comunicazione è lo studio teorico sui fondamenti della trasmissione di segnali tra un sistema e un altro di uguale o diversa natura.

Nuovo!!: Teoria dell'informazione e Teoria della comunicazione · Mostra di più »

Terza rivoluzione industriale

Con l'espressione terza rivoluzione industriale, si indica tutta quella serie di processi di trasformazione della struttura produttiva, e più in generale del tessuto socio-economico, avvenuti nei paesi sviluppati occidentali del primo mondo nella seconda metà del Novecento a partire dal secondo dopoguerra, e caratterizzati da una forte spinta all'innovazione tecnologica e al conseguente sviluppo economico/progresso della società.

Nuovo!!: Teoria dell'informazione e Terza rivoluzione industriale · Mostra di più »

Trasformata di Fourier

In analisi matematica, la trasformata di Fourier, abbreviata spesso in F-trasformata, è una trasformata integrale con numerose applicazioni nella fisica e nell'ingegneria.

Nuovo!!: Teoria dell'informazione e Trasformata di Fourier · Mostra di più »

Trasmissione seriale

La trasmissione seriale è una modalità di comunicazione tra dispositivi digitali nella quale i bit sono trasferiti lungo un canale di comunicazione uno di seguito all'altro e giungono sequenzialmente al ricevente nello stesso ordine in cui li ha trasmessi il mittente.

Nuovo!!: Teoria dell'informazione e Trasmissione seriale · Mostra di più »

Turbo codici

I turbo codici sono una classe di codici di correzione degli errori ad alte prestazioni, che trovano impiego nelle comunicazioni satellitari nello spazio profondo ed in altre applicazioni in cui i progettisti puntano ad avere il massimo trasferimento di informazione su una banda limitata in presenza di un segnale ricevuto affetto da rumore.

Nuovo!!: Teoria dell'informazione e Turbo codici · Mostra di più »

Una teoria matematica della comunicazione

A Mathematical Theory of Communication è un articolo pubblicato da Claude Shannon nel Bell System Technical Journal nel 1948.

Nuovo!!: Teoria dell'informazione e Una teoria matematica della comunicazione · Mostra di più »

Unità di informazione

In informatica e telecomunicazioni, per unità di informazione si intende la capacità di un dato sistema di memorizzazione o canale di comunicazione, usato come termine di paragone per misurare la capacità di altri sistemi di memorizzazione o canali di comunicazione.

Nuovo!!: Teoria dell'informazione e Unità di informazione · Mostra di più »

Valentino von Braitenberg

Figlio di Carl von Braitenberg, senatore della Südtiroler Volkspartei, si è laureato in Medicina e specializzato in neuropsichiatria e ha intrapreso studi sulle strutture cerebrali e sulla teoria dell'informazione, divenendo uno dei fondatori dell'Istituto di Biologia Cibernetica del Max-Planck-Institut di Tubinga, di cui è stato direttore dal 1968 al 1994.

Nuovo!!: Teoria dell'informazione e Valentino von Braitenberg · Mostra di più »

Valerij Borisovič Brajnin

Brainin vive al momento (2015) sia a Hannover sia a Mosca.

Nuovo!!: Teoria dell'informazione e Valerij Borisovič Brajnin · Mostra di più »

Valore dell'informazione

Il valore dell'informazione (VDI o VdI) è l'ammontare che un decisore sarebbe disposto a pagare per l'informazione prima di prendere una decisione.

Nuovo!!: Teoria dell'informazione e Valore dell'informazione · Mostra di più »

Werner Meyer-Eppler

È noto anche per le sue teorie sulla alea in musica espresse durante le sue lezioni durante i corsi di Corsi estivi di Darmstadt per la Nuova Musica.

Nuovo!!: Teoria dell'informazione e Werner Meyer-Eppler · Mostra di più »

William Dembski

Secondo Dembski, lo studio scientifico della natura rivela prove di un progetto; per questo motivo egli si oppone a quello che definisce la fedeltà della scienza al materialismo "ateo" o al naturalismo, che ritiene escluda il disegno intelligente a priori.

Nuovo!!: Teoria dell'informazione e William Dembski · Mostra di più »

XX secolo

È il secondo secolo dell'età contemporanea, un secolo caratterizzato dalla rivoluzione russa, dalle due guerre mondiali e dai regimi totalitari, intervallate dalla grande depressione del 29 nella prima metà del secolo e dalla terza rivoluzione industriale fino all'era della globalizzazione nella seconda metà.

Nuovo!!: Teoria dell'informazione e XX secolo · Mostra di più »

1948

Nessuna descrizione.

Nuovo!!: Teoria dell'informazione e 1948 · Mostra di più »

94-XX

94-XX è la sigla della sezione primaria dello schema di classificazione MSC dedicata alla matematica dell'informazione e della comunicazione e alla teoria dei circuiti.

Nuovo!!: Teoria dell'informazione e 94-XX · Mostra di più »

Riorienta qui:

Teoria dell'Informazione.

UscenteArrivo
Ehi! Siamo su Facebook ora! »