English Deutsch Français Italiano Español Português 繁體中文 Bahasa Indonesia Tiếng Việt ภาษาไทย
Tutte le categorie

2006-08-20 04:40:31 · 6 risposte · inviata da JoySleep 4 in Matematica e scienze Fisica

6 risposte

In termodinamica l'entropia è una funzione di stato che si introduce insieme al secondo principio della termodinamica e che viene interpretata come una misura del disordine di un sistema fisico o più in generale dell'universo. In base a questa definizione possiamo dire che quando un sistema passa da uno stato ordinato ad uno disordinato la sua entropia aumenta.
Nel Sistema Internazionale si misura in joule su kelvin (J/K).

Storia e definizione

Il concetto di entropia venne introdotto agli inizi del XIX secolo, nell'ambito della termodinamica, per descrivere una caratteristica (la cui estrema generalità venne osservata per la prima volta da Sadi Carnot nel 1824) di tutti i sistemi allora conosciuti nei quali si osservava che le trasformazioni avvenivano invariabilmente in una direzione sola, ovvero quella verso il massimo disordine.
In particolare la parola entropia venne introdotta per la prima volta da Rudolf Clausius nel suo Abhandlungen über die mechanische Wärmetheorie (Trattato sulla teoria meccanica del calore), pubblicato nel 1864. In tedesco, Entropie, deriva dal greco εν, "dentro", e da τρoπή, "cambiamento", "punto di svolta", "rivolgimento" (sul modello di Energie, "energia"): per Clausius indicava quindi dove va a finire l'energia fornita ad un sistema. Propriamente Clausius intendeva riferirsi al legame tra movimento interno (al corpo o sistema) ed energia interna o calore, legame che esplicitava la grande intuizione del secolo dei Lumi, che in qualche modo il calore dovesse riferirsi al movimento di particelle meccaniche interne al corpo. Egli infatti la definiva come il rapporto tra la somma dei piccoli incrementi (infinitesimi) di calore, divisa per la temperatura assoluta durante l'assorbimento del calore. Per chiarire maggiormente il concetto di entropia possiamo presentare alcuni esempi:

* Si pensi di far cadere una gocciolina d'inchiostro in un bicchiere d'acqua: quello che si osserva immediatamente è che, invece di restare una goccia più o meno separata dal resto dell'ambiente (che sarebbe uno stato completamente ordinato), l'inchiostro inizia a diffondere e, in un certo tempo, si ottiene una miscela uniforme (stato completamente disordinato). É esperienza comune che, mentre questo processo avviene spontaneamente, il processo inverso (separare l'acqua e l'inchiostro) richiederebbe energia esterna.

* Immaginiamo un profumo contenuto in una boccetta colma come un insieme di molecole puntiformi dotate di una certa velocità derivante dalla temperatura del profumo. Fino a quando la boccetta è tappata, ossia isolata dal resto dell'universo, le molecole saranno costrette a rimanere all'interno e non avendo spazio (la boccetta è colma) rimarranno abbastanza ordinate (stato liquido). Nel momento in cui la boccetta viene stappata le molecole della superficie del liquido inizieranno a staccarsi dalle altre ed urtando casualmente tra di loro e contro le pareti della boccetta usciranno da questa disperdendosi all'esterno (evaporazione). Dopo un certo tempo tutte le moleocole saranno uscite disperdendosi. Anche se casualmente qualche molecola rientrerà nella boccetta il sistema complessivo è ormai disordinato e l'energia termica che ha messo in moto il fenomeno dispersa e quindi non più recuperabile.

Il concetto di entropia ha conosciuto grandissima popolarità nell'800 e nel '900, grazie proprio alla grande quantità di fenomeni che aiuta a descrivere, fino ad uscire dall'ambito prettamente fisico ed essere adottato anche dalle scienze sociali, nella teoria dei segnali e nell'informatica teorica. È tuttavia bene notare che esiste tutta una classe di fenomeni, detti fenomeni non lineari (ad esempio i fenomeni caotici) per i quali le leggi della termodinamica (e quindi anche l'entropia) devono essere profondamente riviste e non hanno più validità generale.

Definizione termodinamica

L'entropia S come funzione di stato venne introdotta nel 1864 da Rudolf Clausius nell'ambito della termodinamica come

\Delta S = \frac{\Delta Q_{rev}}{T}

dove ΔQrev è la quantità di calore assorbito in maniera reversibile dal sistema a temperatura T.

In forma differenziale, la legge si presenta così:

{\rm d} S = \frac{\delta Q_{rev}}{T}

È importante notare come, mentre δQrev non è un differenziale esatto, dividerlo per la temperatura T lo rende tale: \frac 1 T è dunque il fattore d'integrazione. Occorre sottolineare che dS è un differenziale esatto solo se è valido il secondo principio della termodinamica. In una delle sue diverse formulazioni, il secondo principio della termodinamica afferma che in un sistema isolato l'entropia può solo aumentare, o al limite rimanere costante per trasformazioni termodinamiche reversibili.

Definizione matematica

Accanto a questa trattazione dell'entropia, ne esiste un'altra (matematica) che tratta l'entropia come una funzione di stato della sola temperatura, ossia una funzione che dipende esclusivamente dallo stato iniziale e dallo stato finale del sistema e non dal particolare cammino seguito (definita a meno di una costante arbitraria; come l'energia interna, anch'essa funzione di stato). In quanto funzione continua e monotona crescente della sola temperatura essa ammette un massimo e un minimo assoluti (teorema di Weierstrass) cui l'universo converge con continuità (per il principio di aumento dell'entropia). L'aumento di temperatura è un fattore strutturale dell'universo. Impossibile è al momento quantificare tale temperatura massima, non essendo noto un legame analitico fra le variabile entropia e temperatura, che nell'intera teoria termodinamica (nei diagrammi T-s) si rappresentano appunto come variabili indipendenti. Dunque, dell'universo si conosce lo stato inziale a entropia nulla, non lo stato finale a cui converge (a entropia e temperatura massime); la funzione entropia non dipende e non dà informazioni sul cammino che è stato e che sarà seguito per arrivarci, ovvero non ci dice il futuro termodinamico dell'universo. Tuttavia, è possibile inferire alcune ipotesi riguardo al destino ultimo dell'Universo da considerazioni termodinamiche.

Energia ed entropia

Assumendo che l'intero universo sia un sistema isolato - ovvero un sistema per il quale è impossibile scambiare materia ed energia con l'esterno - il primo ed il secondo principio della termodinamica possono essere riassunti da un'unica frase:

l'energia totale dell'universo è costante e l'entropia totale è in continuo aumento.

valida per qualsiasi sistema isolato.

In altre parole ciò significa che non solo non si può né creare né distruggere l'energia, ma nemmeno la si può completamente trasformare da una forma in un'altra senza che una parte venga dissipata sotto forma di calore. Se per esempio si brucia un pezzo di carbone, la sua energia si conserva e si converte in energia contenuta nell'anidride carbonica, nell'anidride solforosa e negli altri residui di combustione oltre che naturalmente in forma di calore. Per quanto non si sia persa energia nel processo, sappiamo che non possiamo invertire il processo di combustione e ricreare dai suoi scarti il pezzo di carbone originale. La spiegazione si trova nel secondo principio della termodinamica che può così essere parafrasato:

ogni volta che una certa quantità di energia viene convertita da uno stato ad un altro si ha una penalizzazione che consiste nella degradazione di una parte dell'energia stessa in forma di calore, in particolare questa parte non sarà più utilizzabile per produrre lavoro.

Lo stato in cui l'entropia raggiunge il massimo livello e non vi è più energia libera disponibile per compiere ulteriore lavoro è detto stato di equilibrio. Per l'intero universo concepito come sistema isolato ciò significa che la progressiva conversione di lavoro in calore (per il principio di aumento dell'entropia totale), a fronte di una massa dell'universo finita, porterà infine ad uno stato in cui l'intero universo si troverà in condizioni di temperatura uniforme; la cosiddetta morte termica dell'Universo. L'entropia caratterizza il verso di qualunque trasformazione reale come trasformazione irreversibile: infatti anche tornando da uno stato finale a uno identico allo stato iniziale (per temperatura, volume, pressione o altri parametri, come continuamente avviene nei cicli di una centrale) almeno una variabile fisica differirebbe dal punto da cui si è partiti, l'entropia (che inevitabilmente aumenta). Ogni trasformazione reale è una trasformazione irreversibile perché l'entropia aumenta; l'ipotesi di idealità equivale appunto all'ipotesi di una variazione d'entropia nulla.

La definizione quantistica dell'entropia

Mentre nella visione classica l'entropia è sempre espressa in termini di variazione, e mai assoluti, in meccanica quantistica è possibile definire l'entropia in termini assoluti, ad esempio attraverso l'entanglement.

Si considerino due sistemi A e B, ognuno con associato uno spazio di Hilbert HA, HB. Il sistema dello stato composito è allora:

|\Psi \rangle \in H_A \otimes H_B.

In generale, non è possibile associare uno stato puro al componente A. Tuttavia è comunque possibile associarvi una matrice di densità. Sia definito l'operatore proiezione

\rho_T = |\Psi\rangle \; \langle\Psi|.

Lo stato di A è la traccia parziale di ρT sulle basi del sistema B:

\rho_A \equiv \sum_j \langle j|_B \left( |\Psi\rangle \langle\Psi| \right) |j\rangle_B = \hbox{Tr}_B \; \rho_T.

Ad esempio, per lo stato entangled "classico" di A e B, ognuno composto da due stati puri "0" e "1"

{1 \over \sqrt{2}} \bigg( |0\rangle_A \otimes |1\rangle_B - |1\rangle_A \otimes |0\rangle_B \bigg).

la matrice densità è

\rho_A = (1/2) \bigg( |0\rangle_A \langle 0|_A + |1\rangle_A \langle 1|_A \bigg)

e la matrice densità dello stato puro di A è

\rho_A = |\psi\rangle_A \langle\psi|_A.

ossia semplicememte l'operatore proiezione di (ψ〉A. Da notare che la matrice densità del sistema composto, ρT, ha la stessa forma. Ciò non sorprende, in quanto lo stato entangled classico è uno stato puro.

Data una matrice di densità qualsiasi, ρ, possiamo calcolare la quantità

S = - k \hbox{Tr} \left( \rho \ln{\rho} \right)

dove k è la costante di Boltzmann, e la traccia è presa sullo spazio H in cui è definita ρ. Risulta che S è esattamente l'entropia del sistema corrispondente ad H.

L'entropia di ogni stato puro è zero, in quanto non vi è indeterminazione sullo stato del sistema. L'entropia di ciascuno dei due sottosistemi A e B entangled è semplicemente kln2, il massimo ammissibile per un sistema a due stati.

Se il sistema nel suo complesso è puro, l'entropia di ogni sottosistema può essere usata per misurarne il grado di "entanglement" con gli altri sottosistemi.

Si può anche mostrare come gli operatori unitari che agiscono su uno stato, come ad esempio l'operatore di evoluzione temporale ottenuto dall'equazione di Schrödinger lasciano invariata l'entropia. Si associa dunque la reversibilità di un processo alla sua variazione di entropia, confermando dunque la teoria termodinamica e, contemporaneamente, l'entropia di un segnale secondo la teoria dell'informazione.

La definizione statistica dell'entropia

In meccanica statistica l'entropia è il tramite per ottenere informazioni macroscopiche a partire dalle configurazioni microscopiche. Intuitivamente si immagina che ad una certa condizione macroscopica di equilibrio del sistema corrispondano una moltitudine di configurazioni microscopiche.

Tali configurazioni microscopiche occupano un volume nello spazio delle fasi il quale viene indicato con Γ. Allora possiamo definire l'entropia "alla Boltzmann" come

S=k~\ln \Gamma

dove k è la costante di Boltzmann.

Si può dimostrare che l'entropia così definita possiede tutte le caratteristiche dell'entropia termodinamica ed in modo particolare si dimostra che è estensiva, ovvero gode della proprietà di additività (e differenza: per cui è calcolabile la variazione d'entropia e la funzione entropia è differenziabile, ovvero ha senso parlare di entropia in termini microscopici).

La formula mostra che è estremamente improbabile, anche se non impossibile, che un sistema ritorni da una configurazione finale ad una identica allo stato iniziale. La differenza fisica di significato tra entropia e temperatura è che la prima misura lo stato di disordine (fisico) del sistema e la seconda, lo stato di agitazione molecolare. Volendo informazioni macroscopiche del sistema basta derivare l'entropia rispetto una delle sue variabili naturali E, N e V (energia, numero di particelle e volume) tenendo costanti le altre.

È necessario tenere conto che questa trattazione riposa sull'ipotesi ergotica che assicura di poter sostituire la media temporale sulle configurazioni microscopiche con la media sulle configurazioni stesse (propriamente -Gibbs- sostituire le medie temporali con quelle sull'ensemble).

2006-08-20 11:41:35 · answer #1 · answered by Anonymous · 1 1

Entropia è l'ordine irreversibile.

2006-08-20 06:29:42 · answer #2 · answered by probabile 3 · 0 0

semplice, hai mai visto una camera da letto o una scrivania che si mette in ordine da sola?

2006-08-20 06:12:19 · answer #3 · answered by morn_star71 2 · 0 0

Se le cose vengono lasciate a se stesse il disordine (grado di entropia) tende ad aumentare.
Forse è solo un corollario della legge di Murphy...

2006-08-20 05:12:49 · answer #4 · answered by drumor 3 · 0 0

l' entropia e´ il secondo principio della termodinamica: preticamente, una cosa, dopo aver subito un processo, nn puo´tornare alla forma originale...come dire ke un uovo fritto nn puo´tornare a essere un uovo dentro il guscio.

2006-08-20 04:46:13 · answer #5 · answered by auryn 6 · 0 0

en|tro|pì|a
s.f.
1 TS fis., grandezza termodinamica il cui aumento misura la diminuzione dell’energia posseduta da un sistema isolato (simb. S)
2 TS econ., irreversibilità dei processi economici che porta a un esaurimento delle risorse | TS sociol., con riferimento a organizzazioni sociali: tendenza al livellamento, mancanza di gerarchie
3 TS inform., nella teoria dell’informazione, perdita di informazioni nella trasmissione dei messaggi
4 CO fig., tendenza al disordine, caos

2006-08-20 04:45:13 · answer #6 · answered by Anonymous · 0 0

fedest.com, questions and answers