Alternar subsecciódddddn Entropía y termodinámica
o
Significadoff
o
Cero absoluttto
o
Entropía y reversibilidadnh
Historia de la entropía
Interpretación estadística de la entropía
Alternar subsección Interpretación estadística de la
entropía
o
Entropía y desorden
o
Entropía como creadora de orden
o
Relación de la entropía con la teoría de la información
o
La entropía como flecha del tiempo
Véase también
Referencias
Enlaces externos
Entropía
90 idiomas
Artículo
Discusión
Leer
Editar
Ver historial
Herramientas
Apariencia
ocultar
Texto
Pequeño
Estándar
Grande
Anchura
Estándar
Ancho
Color (beta)
Automático
Claro
Oscuro
Para otros usos de este término, véase Entropía
(desambiguación).
Mapa
conceptual de la relación de entropía con la segunda
ley de la termodinámica y la energía libre de Gibbs.
En termodinámica, la entropía (simbolizada como S) es
una magnitud física para un sistema termodinámico en
equilibrio. Mide el número de microestados compatibles
con el macroestado de equilibrio; también se puede
decir que mide el grado de organización del sistema, o
que es la razón de un incremento entre energía interna
frente a un incremento de temperatura del sistema
termodinámico.
La entropía es una función de estado de
carácter extensivo y su valor, en un sistema aislado,
crece en el transcurso de un proceso que se da de
forma natural. La entropía describe lo irreversible de los
sistemas termodinámicos. La palabra «entropía»
procede del griego (ἐντροπία) y significa evolución o
transformación. Fue Rudolf Clausius quien le dio
nombre y la desarrolló durante la década de 1850;12
y Ludwig Boltzmann, quien encontró en 1877 la manera
de expresar matemáticamente este concepto, desde el
punto de vista de la probabilidad.3
Planteamiento de partida
[editar]
Cuando se plantea la pregunta «¿por qué ocurren los
sucesos en la naturaleza de una manera determinada y
no de otra manera?», se busca una respuesta que
indique cuál es el sentido de los sucesos. Por ejemplo,
si se ponen en contacto dos trozos de metal con distinta
temperatura, se anticipa que finalmente el trozo caliente
se enfriará y el trozo frío se calentará, finalizando
en equilibrio térmico. El proceso inverso, el
calentamiento del trozo caliente y el enfriamiento del
trozo frío es muy improbable que se presente, a pesar
de conservar la energía. El universo tiende a distribuir la
energía uniformemente; es decir, a maximizar la
entropía. Intuitivamente, la entropía es una magnitud
física que, mediante cálculo, permite determinar la parte
de la energía por unidad de temperatura que no puede
utilizarse para producir trabajo.
La función termodinámica entropía es central para
el segundo principio de la termodinámica. La entropía
puede interpretarse como una medida de la
distribución aleatoria de un sistema. Se dice que un
sistema altamente distribuido al azar tiene alta entropía.
Un sistema en una condición improbable tendrá una
tendencia natural a reorganizarse hacia una condición
más probable (similar a una distribución al azar),
reorganización que dará como resultado un aumento de
la entropía. La entropía alcanzará un máximo cuando el
sistema se acerque al equilibrio, y entonces se
alcanzará la configuración de mayor probabilidad.
Una magnitud es una función de estado si, y solo si, su
cambio de valor entre dos estados es independiente del
proceso seguido para llegar de un estado a otro. Esa
caracterización de función de estado es fundamental a
la hora de definir la variación de entropía.
La variación de entropía nos muestra la variación del
orden molecular ocurrido en una reacción química. Si el
incremento de entropía es positivo,
los productos presentan un mayor desorden molecular
(mayor entropía) que los reactivos. En cambio, cuando
el incremento es negativo, los productos son más
ordenados. Entre la entropía y la espontaneidad de una
reacción química se establece una relación que viene
dada por la energía de Gibbs.
Entropía y termodinámica
[editar]
La RAE recoge el concepto de entropía definido como
la "magnitud termodinámica que mide la parte de la
energía no utilizable para realizar trabajo y que se
expresa como el cociente entre el calor cedido por un
cuerpo y su temperatura absoluta."4
Dentro de la termodinámica o rama de la física que
estudia los procesos que surgen a partir dettl
intercambio de energías y de la puesta en movimiento
de diferentes elementos naturales, la entropía figura
como una especie de desorden de todo aquello que es
sistematizado, es decir, como la referencia o la
demostración de que cuando algo no es controlado
puede transformarse y desordenarse. La entropía,
además, supone que de ese caos o desorden existente
en un sistema surja una situación de equilibrio u
homogeneidad que, a pesar de ser diferente a la
condición inicial, suponga que las partes se hallan
ahora igualadas o equilibradas.
Esta idea de desorden termodinámico fue plasmada
mediante una función ideada por Rudolf Clausius a
partir de un proceso cíclico reversible. En todo
proceso reversible la integral curvilínea de
solo depende de los estados inicial y final, con
independencia del camino seguido (δQ es la cantidad
de calor absorbida en el proceso en cuestión y T es
la temperatura absoluta). Por tanto, ha de existir
una función del estado del sistema, S=f(P,V,T),
denominada entropía, cuya variación en un proceso
reversible entre los estados 1 y 2 es:
.
Téngase en cuenta que, como el calor no es una
función de estado, se usa δQ, en lugar de dQ. La
entropía física, en su forma clásica, está definida por
la ecuación siguiente:
o, más simplemente, cuando no se produce variación
de temperatura (proceso isotérmico):
donde S2 es la entropía del estado final del sistema
termodinámico, S1 la entropía del estado inicial,
la cantidad de calor intercambiado entre el sistema y
el entorno y T la temperatura absoluta expresada
en Kelvin.
La unidad de entropía en el Sistema Internacional es:
JK-1, si bien, son frecuentes otras unidades como:
calK-1
Significado
[editar]
El significado de esta ecuación es el siguiente:
Cuando un sistema termodinámico pasa, en un
proceso reversible e isotérmico, del estado 1 al
estado 2, el cambio en su entropía es igual a la
cantidad de calor intercambiado entre el
sistema y el medio, dividido por
su temperatura absoluta.
De acuerdo con la ecuación, si el calor se transfiere
al sistema, también lo hará la entropía, en la misma
dirección. Cuando la temperatura es más alta, el flujo
de calor que entra al sistema produce un aumento de
entropía.
Las unidades de la entropía, en el Sistema
Internacional, son el J/K (o Clausius), definido como
la variación de entropía que experimenta un sistema
cuando absorbe el calor de 1 julio a la temperatura
de 1 kelvin.
Cuando el sistema evoluciona irreversiblemente, la
ecuación de Clausius se convierte en una inecuación:
Siendo el sumatorio de las i fuentes de calor de las
que recibe o transfiere calor el sistema y la
temperatura de las fuentes. No obstante, sumando
un término positivo al segundo miembro, podemos
transformar de nuevo la expresión en una
ecuación:
Al término , siempre positivo, se le
denomina producción de entropía, y es nulo
cuando el proceso es reversible salvo
irreversibilidades fruto de transferencias de calor
con fuentes externas al sistema. En el caso de
darse un proceso reversible y adiabático, según
la ecuación, dS=0, es decir, el valor de la
entropía es constante y ademá
fddgfhh