Logo
Unionpedia
Comunicazione
Disponibile su Google Play
Nuovo! Scarica Unionpedia sul tuo dispositivo Android™!
Scaricare
l'accesso più veloce di browser!
 

Nat (unità di misura)

Indice Nat (unità di misura)

Un nat (a volte detto anche nit o nepit) è un'unità logaritmica di informazione o entropia, basata su logaritmi naturali e potenze di e, invece che su potenze di 2 e logaritmi in base 2 che definiscono il bit.

12 relazioni: Alan Turing, Bit, Costante di Boltzmann, E (costante matematica), Entropia, Entropia (teoria dell'informazione), Informazione, Logaritmo, Logaritmo naturale, Luminanza, Scala logaritmica, Unità naturali.

Alan Turing

Il suo lavoro ebbe vasta influenza sullo sviluppo dell'informatica, grazie alla sua formalizzazione dei concetti di algoritmo e calcolo mediante la macchina di Turing, che a sua volta ha svolto un ruolo significativo nella creazione del moderno computer.

Nuovo!!: Nat (unità di misura) e Alan Turing · Mostra di più »

Bit

La parola bit, in informatica e in teoria dell'informazione, ha due significati molto diversi, a seconda del contesto in cui rispettivamente la si usi.

Nuovo!!: Nat (unità di misura) e Bit · Mostra di più »

Costante di Boltzmann

In meccanica statistica la costante di Boltzmann, kB (anche indicata con κ) è una costante dimensionale che stabilisce la corrispondenza tra grandezze della meccanica statistica e grandezze della termodinamica, per esempio tra temperatura ed energia termica o tra probabilità di uno stato ed entropia (teorema &Eta).

Nuovo!!: Nat (unità di misura) e Costante di Boltzmann · Mostra di più »

E (costante matematica)

In matematica il numero e è una costante matematica il cui valore è approssimativamente 2.7182818284\dots.

Nuovo!!: Nat (unità di misura) e E (costante matematica) · Mostra di più »

Entropia

In meccanica statistica l'entropia (dal greco antico ἐν en, "dentro", e τροπή tropé, "trasformazione") è una grandezza (più in particolare una coordinata generalizzata) che viene interpretata come una misura del disordine presente in un sistema fisico qualsiasi, incluso, come caso limite, l'universo.

Nuovo!!: Nat (unità di misura) e Entropia · Mostra di più »

Entropia (teoria dell'informazione)

Nella teoria dell'informazione l'entropia di una sorgente di messaggi è l'informazione media contenuta in ogni messaggio emesso.

Nuovo!!: Nat (unità di misura) e Entropia (teoria dell'informazione) · Mostra di più »

Informazione

L'informazione l'insieme di dati, correlati tra loro, con cui un'idea (o un fatto) prende forma ed è comunicata.

Nuovo!!: Nat (unità di misura) e Informazione · Mostra di più »

Logaritmo

In matematica, il logaritmo di un numero in una data base è l'esponente al quale la base deve essere elevata per ottenere il numero stesso.

Nuovo!!: Nat (unità di misura) e Logaritmo · Mostra di più »

Logaritmo naturale

Il logaritmo naturale, descritto per la prima volta da Nepero, è il logaritmo in base e, dove e è uguale a 2,71828\ldots Il logaritmo naturale è definito per tutte le x reali e positive, ma anche per i numeri complessi diversi da zero.

Nuovo!!: Nat (unità di misura) e Logaritmo naturale · Mostra di più »

Luminanza

La parola luminanza può avere alcuni significati.

Nuovo!!: Nat (unità di misura) e Luminanza · Mostra di più »

Scala logaritmica

In matematica, la scala logaritmica è una rappresentazione grafica dei numeri reali positivi.

Nuovo!!: Nat (unità di misura) e Scala logaritmica · Mostra di più »

Unità naturali

In fisica, le unità naturali sono unità di misura definite in termini delle costanti fisiche universali in modo tale che alcune costanti fisiche scelte prendano il valore di 1 quando espresse in termini di un particolare insieme di unità naturali.

Nuovo!!: Nat (unità di misura) e Unità naturali · Mostra di più »

Riorienta qui:

Nat (informazione).

UscenteArrivo
Ehi! Siamo su Facebook ora! »