L'entropia di un sistema è una grandezza fisica che misura il DISORDINE del sistema.
ESEMPIO1: un mazzo di carte nuovo ha bassa entropia perché ordinato mentre ha maggiore entropia quando viene mescolato.
ESEMPIO1: un mazzo di carte nuovo ha bassa entropia perché ordinato mentre ha maggiore entropia quando viene mescolato.
ESEMPIO2: un mucchio di mattoni ha minore entropia rispetto agli stessi mattoni che formano un muro.
ESEMPIO3: il ghiaccio ha minore entropia rispetto all'acqua perché nel ghiaccio le molecole sono "ordinate".
ESEMPIO4: l'aria contenuta in un palloncino ha minore entropia rispetto alla stessa aria che si espande se il palloncino viene bucato.
Esistono due modi per definire l'Entropia:
1)Definizione macroscopica: descrive la variazione di entropia del sistema in termini di quantità di calore richiesta per innalzare la temperatura del sistema di un grado Kelvin.
In una macchina termica reversibile (ciclo di Carnot) che lavora con due sorgenti di temperatura, il rapporto tra il calore ceduto alla sorgente fredda e il calore assorbito dalla sorgente calda è uguale al rapporto tra le temperature assolute delle due sorgenti :
quindi risulta:
Il rapporto tra il calore scambiato e la temperatura della sorgente con la quale avviene lo scambio rimane costante.
ESEMPIO4: l'aria contenuta in un palloncino ha minore entropia rispetto alla stessa aria che si espande se il palloncino viene bucato.
Esistono due modi per definire l'Entropia:
1)Definizione macroscopica: descrive la variazione di entropia del sistema in termini di quantità di calore richiesta per innalzare la temperatura del sistema di un grado Kelvin.
In una macchina termica reversibile (ciclo di Carnot) che lavora con due sorgenti di temperatura, il rapporto tra il calore ceduto alla sorgente fredda e il calore assorbito dalla sorgente calda è uguale al rapporto tra le temperature assolute delle due sorgenti :
quindi risulta:
Il rapporto tra il calore scambiato e la temperatura della sorgente con la quale avviene lo scambio rimane costante.
Possiamo sfruttare questa proprietà per definire una nuova grandezza fisica che dipende dallo stato termodinamico.
Fissata una determinata trasformazione termodinamica reversibile dallo stato A allo stato B che scambia calore Q con una sorgente T definiamo La VARIAZIONE di entropia: 𝜟S=Q/T .
Nel SI l'entropia si misura in joule su kelvin (J/K).
Osserviamo che la definizione è valida per una trasformazione reversibile con calore trasferito ad una temperatura T costante espressa in kelvin.
Se il calore è assorbito Q>0 la variazione di entropia è positiva e l'entropia aumenta. Se il calore è ceduto l'entropia diminuisce.
Si può dimostrare che la variazione di entropia dipende soltanto dallo stato iniziale e finale del sistema e non dalla trasformazione effettuata per passare da uno stato all'altro.
Ne consegue che l'entropia è una FUNZIONE DI STATO, esattamente come l'energia interna.
In altre parole, l'entropia dipende solo dallo stato del sistema e non da come il sistema ha raggiunto quello stato.
NB:Se una trasformazione è IRREVERSIBILE, per cui non vale la relazione Q/T, possiamo ugualmente calcolare la variazione di entropia utilizzando una o più trasformazioni reversibili che collegano gli stessi stati iniziale e finale.
TERZA LEGGE DELLA TERMODINAMICA: Una qualunque trasformazione irreversibile (quelle naturali) in un sistema isolato (e quindi nell'universo) aumenta l'entropia del sistema.
ESEMPIO : Consideriamo un cubetto di ghiaccio di massa m che fonde a 0 °C. Per fondere deve assorbire un calore Q=Lm dove L è il calore latente di fusione (calore necessario per fondere 1kg di ghiaccio a 0°C)
Allora la variazione di entropia è data da Lm/T dove T=273K
ed è positiva . Allora l'entropia è aumentata.
Osserviamo che la definizione è valida per una trasformazione reversibile con calore trasferito ad una temperatura T costante espressa in kelvin.
Se il calore è assorbito Q>0 la variazione di entropia è positiva e l'entropia aumenta. Se il calore è ceduto l'entropia diminuisce.
Si può dimostrare che la variazione di entropia dipende soltanto dallo stato iniziale e finale del sistema e non dalla trasformazione effettuata per passare da uno stato all'altro.
Ne consegue che l'entropia è una FUNZIONE DI STATO, esattamente come l'energia interna.
la video lezione dimostra che l'entropia è funzione di stato.Calcola anche la variazione di entropia di una trasformazione isoterma
NB:Se una trasformazione è IRREVERSIBILE, per cui non vale la relazione Q/T, possiamo ugualmente calcolare la variazione di entropia utilizzando una o più trasformazioni reversibili che collegano gli stessi stati iniziale e finale.
TERZA LEGGE DELLA TERMODINAMICA: Una qualunque trasformazione irreversibile (quelle naturali) in un sistema isolato (e quindi nell'universo) aumenta l'entropia del sistema.
Allora la variazione di entropia è data da Lm/T dove T=273K
ed è positiva . Allora l'entropia è aumentata.
Il calore non è tutto uguale. Calore ad alta temperatura è molto più pregiato del calore a bassa temperatura. Questo perché il calore fluisce spontaneamente dai corpi caldi ai corpi freddi producendo lavoro. Maggiore è il dislivello termico maggiore è il lavoro prodotto dal calore. Con una analogia il calore è l'acqua di una cascata e la differenza di temperatura è il dislivello del salto .
2)DEFINIZIONE MICROSCOPICA probabilistica:
L'entropia viene definita come misura logaritmica della probabilità dello stato del sistema.
S=k∙ln(C(n))
dove k è la costante di Boltzmann e C(n) è il numero di microstati favorevoli corrispondenti al macrostato considerato. (la probabilità p è proporzionale a C(n) perchè )
L'entropia viene definita come misura logaritmica della probabilità dello stato del sistema.
S=k∙ln(C(n))
dove k è la costante di Boltzmann e C(n) è il numero di microstati favorevoli corrispondenti al macrostato considerato. (la probabilità p è proporzionale a C(n) perchè )
Ad esempio consideriamo n=6 molecole poste di due contenitori comunicanti. Le molecole hanno la stessa probabilità di trovarsi nei due contenitori. Sia N1 il numero di molecole a destra e N2 il numero di molecole a sinistra.
p=n°casi favorevoli/n° casi possibili
Il n° di casi possibili è 2^6=64
Calcoliamo il numero di casi favorevoli ad ogni stato :
Ad esempio per calcolare quando N1=2 e N2=4 basta calcolare tutti i modi di scegliere 2 molecole su 6 da porre a destra con il coefficiente binomiale C(6,2)=15
Se il sistema parte da uno stato con minima probabilità corrispondente a quello con tutte le molecole dalla stessa parte (N1=0, N2=6) allora evolve a stati con maggiore probabilità e maggiore entropia. Lo stato con massima probabilità e massimo entropia corrisponde a quello di una uniforme distribuzione delle molecole. Il questo caso lo stato iniziale si verifica in un solo modo mentre quello finale in 20 modi.
Se ora consideriamo N=100 abbiamo C(0)=1 mentre C(50)=C(100,50)=10^29. E' molto più probabile trovare le molecole uniformemente distribuite . Tenendo conto che le molecole in una stanza sono molte di più si capisce perchè non si verificano mai quei casi di molecole addensati da una sola parte.
L'aumento di entropia nei fenomeni naturali determina la freccia del tempo:
Nessun commento:
Posta un commento