Curiosidades

¿Qué es la entropía en termodinámica?

La entropía es un concepto que se desarrolla como respuesta a la observación de que cierta cantidad de energía liberada de las reacciones de combustión, termina siempre perdiéndose por la disipación o fricción, por lo que no se transforma en trabajo útil. En el caso de los primeros motores de calor, como los de Thomas Savery (1698), el Newcomen motor (1712) y el Cugnot de vapor de tres ruedas (1769) no eran eficientes. La conversión era de menos del dos por ciento de la energía de entrada en producción de trabajo útil. Esto hacía que se perdiese una gran cantidad de energía.

Conoce más sobre la entropía

En los siguientes dos siglos, los físicos investigaron el enigma de la energía perdida, todo ello dio como resultado el concepto de entropía. En termodinámica, la entropía es una magnitud de carácter físico que, gracias al cálculo, hace posible determinar la parte de energía que no se puede usar para producir trabajo.

Hablamos de una función de estado de tipo extensivo y el valor, en un sistema aislado, aumenta en el transcurso de un proceso que se da de manera natural. la entropía lo que hace es describir lo irreversible que son los sistemas termodinámicos. Esta palabra proviene del griego  (ἐντροπία) y su significado es  evolución o transformación.

Rudolf Clausius es quien le dio nombre y la desarrolló durante la década de 1850; y Ludwig Boltzmann, quien encontró en 1877 la manera de expresar matemáticamente. Estos dos nombres fueron los que terminaron por dar forma a la entropía.

La función termodinámica es vital para la Segunda Ley de la Termodinámica. Podemos hablar de que la entropía se puede interpretar como una medida de distribución aleatoria de un sistema. Se suele decir que un sistema altamente distribuido al azar cuenta con una alta entropía.

Un sistema que se encuentre en una condición improbable va a tener una tendencia natural a reorganizarse a una condición más probable, similar a una distribución al azar. Es una reorganización que va a dar como resultado un aumento de la entropíam la cual llegará a un máximo cuando el sistema se aproxime al equilibrio, alcanzando la configuración de mayor probabilidad.

La magnitud es una función de estado sí su cambio de valor entre dos estados es independiente del proceso seguido para pasar de un estado a otro. Todo esto es imprescindible para definir la propia variación de la entropía.