Accions

Entropia

De Wikisofia

La revisió el 10:20, 29 ago 2017 per Jaumeortola (discussió | contribucions) (bot: - logaritmes amb base dues s'obté + logaritmes en base dos s'obté)

 (del grec ἐντροπία, volta, tornada)

Magnitud termodinàmica simbolitzada per S introduïda per Clausius que expressa la funció d'estat d'un sistema aïllat. Carnot ja havia establert que les transformacions d'energia solament són possibles com a conseqüència de diferències prèvies d'intensitat (veure principi de Carnot). La calor solament pot, doncs, transformar-se en treball quan passa d'una font calenta a una altra més freda. Però en aquest procés se segueix desprenent calor que ja no pot transformar-se en treball. Per això, un sistema aïllat va progressivament igualant les seves diferències d'intensitat fins a aconseguir una temperatura uniforme. En aquest estat d'uniformitat ja no és possible cap altra transformació, allò que es coneix com a mort tèrmica d'un sistema. L'entropia es defineix com: [math]\displaystyle{ S_1-S_2 = \int_2^1 dQ /T }[/math], on [math]\displaystyle{ S_1-S_2 }[/math] expressa la variació d'entropia en dos estats diferents, [math]\displaystyle{ dQ }[/math] expressa la quantitat de calor i [math]\displaystyle{ T }[/math], la temperatura absoluta. La unitat d'entropia és el «clausius», o variació entròpica experimentada per un sistema que absorbeix un juliol a la temperatura d'un kelvin.

En un procés reversible que precisa la concurrència de dues fonts tèrmiques, l'entropia es manté constant, ja que el sistema i les fonts es compensen mútuament. En canvi, en un procés irreversible sempre hi ha un augment de l'entropia. El final del procés condueix a la mort tèrmica, que coincideix amb el seu grau d'estabilitat màxima, o grau de major probabilitat. Aquesta magnitud expressa també el grau de desordre molecular d'un sistema: com més gran és el desordre d'un sistema major és la seva entropia. Aquesta última formulació expressa la relació entre l'entropia i la probabilitat termodinàmica (W), que es formalitza com: S = k ln W (on k és la constant de Boltzmann). Així, per exemple, un sòlid cristal·lí té una estructura definida i ordenada amb menor entropia (més ordenat) que el mateix material fos, en el qual les seves molècules no estan estructurades a la xarxa cristal·lina (menys ordenat).

ja que l'entropia és també una mesura de la probabilitat, en cosmologia s'ha especulat que la destinació sencera de l'univers és la mort tèrmica, estat final de plena igualació o de màxim desordre. Això suposa que tot procés és irreversible, de manera que el creixement de l'entropia seria també una mesura de l'anomenada fletxa del temps. En canvi, els fenòmens vitals (especialment el creixement i la reproducció) manifesten una entropia negativa o neguentropia, ja que tendeixen a formar ordre a partir d'estats menys ordenats. No obstant això, en el còmput global, a causa de les necessitats de nutrició i al metabolisme, també els organismes vius contribueixen al creixement de l'entropia. (Veure fletxa del temps).

Aquesta magnitud termodinàmica també ha estat utilitzada en l'àmbit de la teoria de la informació i en la cibernètica. En aquest cas representa la mesura de la incertesa existent davant un conjunt de missatges, del qual se'n rebrà un solament. És a dir, si per un llenguatge hi ha N símbols i cadascun d'ells té una probabilitat [math]\displaystyle{ p_i }[/math], la suma dels productes de cada probabilitat pel seu logaritme (amb signe canviat) defineix l'entropia de la font, de manera que [math]\displaystyle{ S= -\sum_{i}p_i log_2 p_i }[/math]

En usar logaritmes en base dos s'obté l'entropia en bits, i expressa el contingut mitjà d'informació d'un símbol per a un conjunt de N elements.