1. In termodinamica, funzione di stato di un sistema la cui variazione, in una trasformazione che porti il sistema da uno stato iniziale A ad uno finale B, viene calcolata sommando le quantità di calore scambiate dal sistema in una qualsiasi trasformazione reversibile che vada da A a B, divise rispettivamente per le temperature assolute delle sorgenti con cui si scambia calore; si misura in joule per grado Kelvin. In tutti i processi fisici reali (quindi irreversibili) di un sistema isolato, l’entropia aumenta sempre e tende ad un valore massimo; secondo l’interpretazione data dalla meccanica statistica, l’entropia è una funzione crescente della probabilità che un sistema si trovi in un determinato stato macroscopico, per cui i sistemi isolati evolvono spontaneamente verso le configurazioni a entropia maggiore, che sono quelle con un grado minore di ordine.

Nella teoria dell’informazione, quanto è d’impedimento alla chiarezza e univocità del messaggio; maggiore è l’entropia, minore è la quantità di informazione.

Articoli simili