Cari amici, oggi voglio parlarvi di un concetto affascinante che abbraccia sia la termodinamica che la teoria dell’informazione: l’entropia. Questo termine, spesso frainteso, riveste un ruolo cruciale in entrambe le discipline, anche se con sfumature diverse. Permettetemi di guidarvi attraverso una spiegazione che spero renda chiaro il legame tra queste due interpretazioni, fornendo anche una definizione generale e accademica di entropia.
Iniziamo con la termodinamica. L’entropia non è una misura della densità di energia. È invece una misura della “degenerazione dei microstati di un sistema”. Ma cosa significa esattamente? Cerchiamo di chiarire con un esempio semplice.
Immaginate un sistema termodinamico come una scatola piena di particelle. Ogni particella ha delle variabili microscopiche, come posizione e momento, che definiscono i “microstati” del sistema. Quando le particelle sono tante, il numero di microstati è enorme. Tuttavia, non abbiamo bisogno di conoscere ogni singolo microstato per capire come si comporta il sistema nel suo complesso. Ci bastano alcune variabili macroscopiche come temperatura e densità, che rappresentano le proprietà aggregate del sistema, e queste definiscono gli “stati macroscopici”.
Ogni stato macroscopico può corrispondere a molti microstati diversi. L’entropia, quindi, è una misura di quanti microstati corrispondono a un dato stato macroscopico. Maggiore è il numero di microstati che corrispondono a uno stato macroscopico, maggiore è l’entropia di quello stato. Matematicamente, l’entropia S può essere espressa tramite la formula di Boltzmann:
dove kB è la costante di Boltzmann e Ω rappresenta il numero di microstati.
Consideriamo un esempio con i dadi. Se lanciamo due dadi, i possibili microstati sono le combinazioni dei valori delle facce, per un totale di 36 microstati (ad esempio, {1, 1}, {1, 2}, {2, 1}, {3, 1}, {3, 2}, … {6, 6}). Tuttavia, in un gioco, spesso ci interessa solo la somma dei due dadi, non i singoli valori, che definiscono gli stati macroscopici, con possibili somme che vanno da 2 a 12. Alcuni stati macroscopici avranno più microstati corrispondenti (ad esempio, la somma 7 può essere ottenuta in 6 modi diversi), mentre altri meno (le somme 2 e 12 solo in un modo ciascuna).
Ora, passiamo all’entropia nell’informazione. Anche qui, non parliamo di densità di informazione, ma di “informazione mancante” necessaria per ricostruire un microstato da uno stato macroscopico. L’entropia dell’informazione, o entropia di Shannon, è definita come:
dove X è una variabile casuale con n possibili stati, e p(xi) è la probabilità di occorrenza dello stato xi. Questa formula misura l’incertezza associata a una distribuzione di probabilità.
Riprendendo l’esempio dei dadi, se la somma è 2, sappiamo che i valori sono {1, 1} e non manca nessuna informazione. Se la somma è 7, invece, ci sono sei microstati possibili e ci servirebbero circa 2,58 bit di informazione per identificarne uno esatto. Questa quantità di informazione mancante è ciò che intendiamo per entropia nell’informazione.
In sintesi, mentre l’entropia termodinamica misura la degenerazione dei microstati in uno stato macroscopico, l’entropia nell’informazione misura l’informazione mancante per distinguere i microstati di uno stato macroscopico. Entrambi i concetti utilizzano una relazione logaritmica per quantificare questa complessità.
Definizione generale e accademica di entropia:
L’entropia è una misura della quantità di disordine o casualità in un sistema. In termini generali, l’entropia quantifica l’incertezza associata a un sistema fisico o a un insieme di dati. Nel contesto della termodinamica, essa rappresenta il numero di configurazioni microscopiche che un sistema può assumere, corrispondenti a uno stato macroscopico osservabile. Nella teoria dell’informazione, l’entropia misura la quantità di informazione mancante necessaria per determinare l’intero insieme di dati o la distribuzione di probabilità di un evento.
Spero che questa spiegazione vi abbia aiutato a comprendere meglio il concetto di entropia e il suo significato sia nella termodinamica che nella teoria dell’informazione.