dettaglio

Voglio inanzitutto salutare tutte le persone che hanno aderito al mio gruppo che sono sono già
tantissime e mi auguro che diventeranno ancora più numerose.

 

Le due facce dell'entropia

Una macchina a funzionamento termodinamico e' formata da una caldaia che scalda dell'acqua.
Attraverso dei meccanismi tra cui un refrigeratore, questa macchina può compiere un lavoro
utile. Supponiamo ora che l'entropia non aumenti.Tutto rimarrebbe ordinato, la caldaia da una
parte, l'acqua fredda dall'altra e nonostante vi sia energia utile la macchina non si muove.
Questo perchè il sistema non riesce uniformarsi e rimane ordinato nelle sue parti.
E' venuta cioè a mancare l'entropia necessaria alla gestione delle risorse del sistema.
Se invece l'entropia aumenta vengono a mancare le risorse a causa del decadimento 
dell'energia. Termodinamicamente ciò e impossibile perche l'entropia aumenta sempre.
Quindi l'entropia che aumenti o diminuisca, aumenta sempre.
Però in altri tipi di sistemi l'entropia può essere vista in modi diversi:

Esistono almeno tre distinte interpretazioni del concetto di entropia:
1. Interpretazione termodinamica.
In questa interpretazione l'entropia descrive lo stato di "uniformita'"
del sistema ed e' una funzione sempre crescente allo scorrere del
tempo; il sistema si evolve verso lo stato piu' probabile raggiungendo
l'equilibrio termodinamico: uno stato indifferenziato.
2. Interpretazione nella teoria della comunicazione.
La forma matematica che descrive il flusso di informazioni in presenza
di rumore corrisponde alla forma matematica che descrive l'entropia
termodinamica; si e' portati quindi per analogia ad assimilare
questi due concetti.
In questo caso pero' l'informazione e' tanto piu' significativa quanto
piu' e' improbabile; il messaggio statisticamente piu' probabile,
massimo di entropia, e' privo di significato.
Il messaggio puo' essere trasmesso con precisione grande a piacere,
anche in presenza di errori casuali, ripetendo il messaggio stesso.
Anche in questo caso il messaggio degrada da uno stato di massima
significativita' ad uno stato indifferenziato a causa degli errori
casuali di trasmissione.
3. Interpretazione in relazione alla conoscenza del sistema.
In questa interpretazione l'entropia diviene una misura del grado
di conoscenza che abbiamo di un determinato sistema.
La conoscenza massima possibile corrisponde alla conoscenza degli
stati particolari tra quelli possibili in cui si trova il sistema.
La probabilita' di questo stato collassa da un valore infinitesimo
al valore uno corrispondente alla realta' ovvero allo stato che
effettivamente si realizza in natura.
Informazioni mancanti fanno crescere l'entropia intesa come mancata
conoscenza del sistema.

vedi  la teoria dell'inversione percettiva

Vediamo ora, la conseguenza di tutto cio'

 

Home Su conseguenza

robertocarr@tiscalinet.it