I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore
Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).
Nel Sistema Internazionale si misura in joule su kelvin (J/K).
Il concetto di entropia venne introdotto agli inizi del XIX secolo, nell'ambito della termodinamica, per descrivere una caratteristica (la cui estrema generalità venne osservata per la prima volta da Sadi Carnot nel 1824) di tutti i sistemi allora conosciuti nei quali si osservava che le trasformazioni avvenivano invariabilmente in una direzione sola, ovvero quella verso il massimo disordine.
In particolare la parola entropia venne introdotta per la prima volta da Rudolf Clausius nel suo Abhandlungen über die mechanische Wärmetheorie (Trattato sulla teoria meccanica del calore), pubblicato nel 1864. In tedesco, Entropie, deriva dal greco εν, "dentro", e da τρoπή, "cambiamento", "punto di svolta", "rivolgimento" (sul modello di Energie, "energia"): per Clausius indicava quindi dove va a finire l'energia fornita ad un sistema. Propriamente Clausius intendeva riferirsi al legame tra movimento interno (al corpo o sistema) ed energia interna o calore, legame che esplicitava la grande intuizione del secolo dei Lumi, che in qualche modo il calore dovesse riferirsi al movimento di particelle meccaniche interne al corpo. Egli infatti la definiva come il rapporto tra la somma dei piccoli incrementi (infinitesimi) di calore, divisa per la temperatura assoluta durante l'assorbimento del calore.
Per chiarire maggiormente il concetto di entropia possiamo presentare alcuni esempi:
Il concetto di entropia ha conosciuto grandissima popolarità nell'800 e nel '900, grazie proprio alla grande quantità di fenomeni che aiuta a descrivere, fino ad uscire dall'ambito prettamente fisico ed essere adottato anche dalle scienze sociali, nella teoria dei segnali e nell'informatica teorica. È tuttavia bene notare che esiste tutta una classe di fenomeni, detti fenomeni non lineari (ad esempio i fenomeni caotici) per i quali le leggi della termodinamica (e quindi anche l'entropia) devono essere profondamente riviste e non hanno più validità generale.
L'entropia S come funzione di stato venne introdotta nel 1864 da Rudolf Clausius nell'ambito della termodinamica come
dove ΔQrev è la quantità di calore assorbito in maniera reversibile dal sistema a temperatura T.
In forma differenziale, la legge si presenta così:
È importante notare come, mentre δQrev non è un differenziale esatto, dividerlo per la temperatura T lo rende tale: è dunque il fattore d'integrazione. Occorre sottolineare che dS è un differenziale esatto solo se è valido il secondo principio della termodinamica.
In una delle sue diverse formulazioni, il secondo principio della termodinamica afferma che in un sistema isolato l'entropia può solo aumentare, o al limite rimanere costante per trasformazioni termodinamiche reversibili.
Accanto a questa trattazione dell'entropia, ne esiste un'altra (matematica) che tratta l'entropia come una funzione di stato della sola temperatura, ossia una funzione che dipende esclusivamente dallo stato iniziale e dallo stato finale del sistema e non dal particolare cammino seguito (definita a meno di una costante arbitraria; come l'energia interna, anch'essa funzione di stato).
In quanto funzione continua e monotona crescente della sola temperatura essa ammette un massimo e un minimo assoluti (teorema di Weierstrass) cui l'universo converge con continuità (per il principio di aumento dell'entropia).
L'aumento di temperatura è un fattore strutturale dell'universo. Impossibile è al momento quantificare tale temperatura massima, non essendo noto un legame analitico fra le variabile entropia e temperatura, che nell'intera teoria termodinamica (nei diagrammi T-s) si rappresentano appunto come variabili indipendenti.
Dunque, dell'universo si conosce lo stato inziale a entropia nulla, non lo stato finale a cui converge (a entropia e temperatura massime); la funzione entropia non dipende e non dà informazioni sul cammino che è stato e che sarà seguito per arrivarci, ovvero non ci dice il futuro termodinamico dell'universo. Tuttavia, è possibile inferire alcune ipotesi riguardo al destino ultimo dell'Universo da considerazioni termodinamiche.
Assumendo che l'intero universo sia un sistema isolato - ovvero un sistema per il quale è impossibile scambiare materia ed energia con l'esterno - il primo ed il secondo principio della termodinamica possono essere riassunti da un'unica frase:
l'energia totale dell'universo è costante e l'entropia totale è in continuo aumento.
valida per qualsiasi sistema isolato.
In altre parole ciò significa che non solo non si può né creare né distruggere l'energia, ma nemmeno la si può completamente trasformare da una forma in un'altra senza che una parte venga dissipata sotto forma di calore.
Se per esempio si brucia un pezzo di carbone, la sua energia si conserva e si converte in energia contenuta nell'anidride carbonica, nell'anidride solforosa e negli altri residui di combustione oltre che naturalmente in forma di calore. Per quanto non si sia persa energia nel processo, sappiamo che non possiamo invertire il processo di combustione e ricreare dai suoi scarti il pezzo di carbone originale.
La spiegazione si trova nel secondo principio della termodinamica che può così essere parafrasato:
ogni volta che una certa quantità di energia viene convertita da uno stato ad un altro si ha una penalizzazione che consiste nella degradazione di una parte dell'energia stessa in forma di calore, in particolare questa parte non sarà più utilizzabile per produrre lavoro.
Lo stato in cui l'entropia raggiunge il massimo livello e non vi è più energia libera disponibile per compiere ulteriore lavoro è detto stato di equilibrio. Per l'intero universo concepito come sistema isolato ciò significa che la progressiva conversione di lavoro in calore (per il principio di aumento dell'entropia totale), a fronte di una massa dell'universo finita, porterà infine ad uno stato in cui l'intero universo si troverà in condizioni di temperatura uniforme; la cosidetta morte termica dell'Universo.
L'entropia caratterizza il verso di qualunque trasformazione reale come trasformazione irreversibile: infatti anche tornando da uno stato finale a uno identico allo stato iniziale (per temperatura, volume, pressione o altri parametri, come continuamente avviene nei cicli di una centrale) almeno una variabile fisica differirebbe dal punto da cui si è partiti, l'entropia (che inevitabilmente aumenta).
Ogni trasformazione reale è una trasformazione irreversibile perché l'entropia aumenta; l'ipotesi di idealità equivale appunto all'ipotesi di una variazione d'entropia nulla.
Mentre nella visione classica l'entropia è sempre espressa in termini di variazione, e mai assoluti, in meccanica quantistica è possibile definire l'entropia in termini assoluti, ad esempio attraverso l'entanglement.
Si considerino due sistemi A e B, ognuno con associato uno spazio di Hilbert HA, HB. Il sistema dello stato composito è allora:
In generale, non è possibile associare uno stato puro al componente A. Tuttavia è comunque possibile associarvi una matrice di densità. Sia definito l'operatore proiezione
.
Lo stato di A è la traccia parziale di ρT sulle basi del sistema B:
.
Ad esempio, per lo stato entangled "classico" di A e B, ognuno composto da due stati puri "0" e "1"
.
la matrice densità è
e la matrice densità dello stato puro di A è
.
ossia semplicememte l'operatore proiezione di |ψ〉A. Da notare che la matrice densità del sistema composto, ρT, ha la stessa forma. Ciò non sorprende, in quanto lo stato entangled classico è uno stato puro.
Data una matrice di densità qualsiasi, ρ, possiamo calcolare la quantità
dove k è la costante di Boltzmann, e la traccia è presa sullo spazio H in cui è definita ρ. Risulta che S è esattamente l'entropia del sistema corrispondente ad H.
L'entropia di ogni stato puro è zero, in quanto non vi è indeterminazione sullo stato del sistema. L'entropia di ciascuno dei due sottosistemi A e B entangled è semplicemente kln2, il massimo ammissibile per un sistema a due stati.
Se il sistema nel suo complesso è puro, l'entropia di ogni sottosistema può essere usata per misurarne il grado di "entanglement" con gli altri sottosistemi.
Si può anche mostrare come gli operatori unitari che agiscono su uno stato, come ad esempio l'operatore di evoluzione temporale ottenuto dall'equazione di Schrödinger lasciano invariata l'entropia. Si associa dunque la reversibilità di un processo alla sua variazione di entropia, confermando dunque la teoria termodinamica e, contemporaneamente, l'entropia di un segnale secondo la teoria dell'informazione.
In meccanica statistica l'entropia è il tramite per ottenere informazioni macroscopiche a partire dalle configurazioni microscopiche. Intuitivamente si immagina che ad una certa condizione macroscopica di equilibrio del sistema corrispondano una moltitudine di configurazioni microscopiche.
Tali configurazioni microscopiche occupano un volume nello spazio delle fasi il quale viene indicato con Γ. Allora possiamo definire l'entropia "alla Boltzmann" come
dove k è la costante di Boltzmann.
Si può dimostrare che l'entropia così definita possiede tutte le caratteristiche dell'entropia termodinamica ed in modo particolare si dimostra che è estensiva, ovvero gode della proprietà di additività (e differenza: per cui è calcolabile la variazione d'entropia e la funzione entropia è differenziabile, ovvero ha senso parlare di entropia in termini microscopici).
La formula mostra che è estremamente improbabile, anche se non impossibile, che un sistema ritorni da una configurazione finale ad una identica allo stato iniziale.
La differenza fisica di significato tra entropia e temperatura è che la prima misura lo stato di disordine (fisico) del sistema e la seconda, lo stato di agitazione molecolare.
Volendo informazioni macroscopiche del sistema basta derivare l'entropia rispetto una delle sue variabili naturali E, N e V (energia, numero di particelle e volume) tenendo costanti le altre.
È necessario tenere conto che questa trattazione riposa sull'ipotesi ergotica che assicura di poter sostituire la media temporale sulle configurazioni microscopiche con la media sulle configurazioni stesse (propriamente -Gibbs- sostituire le medie temporali con quelle sull'ensemble).
Fonte: http://www.ingsimone.altervista.org/macchine/Entropia.doc
Sito web da visitare: http://www.ingsimone.altervista.org
Autore del testo: non indicato nel documento di origine
Il testo è di proprietà dei rispettivi autori che ringraziamo per l'opportunità che ci danno di far conoscere gratuitamente i loro testi per finalità illustrative e didattiche. Se siete gli autori del testo e siete interessati a richiedere la rimozione del testo o l'inserimento di altre informazioni inviateci un e-mail dopo le opportune verifiche soddisferemo la vostra richiesta nel più breve tempo possibile.
I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore
Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).
"Ciò che sappiamo è una goccia, ciò che ignoriamo un oceano!" Isaac Newton. Essendo impossibile tenere a mente l'enorme quantità di informazioni, l'importante è sapere dove ritrovare l'informazione quando questa serve. U. Eco
www.riassuntini.com dove ritrovare l'informazione quando questa serve