Definición de Entropía

Ángel Zamora Ramírez
Licenciado en Física

La entropía es una magnitud física que tiene distintas interpretaciones. Desde el punto de vista de la Termodinámica, la entropía es una descripción de la irreversibilidad de los procesos termodinámicos al medir la cantidad de energía que ya no se puede utilizar para realizar trabajo mecánico. Para la Física Estadística, la entropía es el número de microestados en el que puede estar un sistema y mide el grado de desorden de este.

La naturaleza está llena de procesos irreversibles, es decir, procesos que llevan a un sistema de un estado inicial a un estado final y que no se pueden llevar a cabo en sentido contrario, o al menos no espontáneamente. La entropía es una magnitud estrechamente ligada con la irreversibilidad de muchos procesos en la naturaleza y con el grado de desorden de un sistema.

La entropía y la segunda ley de la termodinámica

En la termodinámica la entropía es una magnitud que establece la dirección en la que ocurre espontáneamente un proceso termodinámico y si este es o no reversible. No obstante, el significado real de esto radica no en la entropía en sí, si no en los cambios de entropía. El cambio de entropía \({\rm{\Delta }}S\) entre un estado inicial y un estado final se define como:

\({\rm{\Delta }}S = \mathop \smallint \limits_i^f \frac{{\delta Q}}{T}\)

Donde \(\delta Q\) es la energía transferida desde el sistema o hacía el sistema en forma de calor entre el estado inicial \(i\) y el estado final \(f\), y \(T\) es la temperatura del sistema. Podemos darnos cuenta que la entropía no depende sólo de la energía transferida en el proceso, si no que también depende de la temperatura a la cuál se lleva a cabo esto.

La entropía juega un rol importante en la termodinámica, sobre todo al ser el eje central de la “Segunda Ley de la Termodinámica”, la cual nos dice que en un sistema cerrado:

\({\rm{\Delta }}S \ge 0\)

Es decir, que en un sistema cerrado la entropía siempre aumenta con procesos irreversibles y se mantiene constante en procesos reversibles, nunca disminuye. El sistema cerrado por excelencia es el Universo, la segunda ley de la termodinámica establece que sin importar el tipo de procesos que se lleven a cabo en nuestro universo, la entropía de este siempre va en aumento.

La entropía en la Mecánica Estadística

La mecánica estadística es una rama de la física desarrollada a mediados del siglo XIX, se encarga del estudio de los sistemas termodinámica utilizando las herramientas de la probabilidad y la estadística. La mecánica estadística estudia los sistemas termodinámicos a nivel molecular y trata a dichos sistemas como un conjunto o una muestra estadística de todos estos elementos que lo componen. De esta manera, la mecánica estadística logra establecer una relación entre procesos que ocurren a nivel microscópico y magnitudes termodinámicas macroscópicas que pueden medirse experimentalmente.

Quizá el ejemplo más claro de esto sea la definición de temperatura según la mecánica estadística. Los átomos y moléculas que componen un sistema termodinámico están constantemente en movimiento, al analizar estadísticamente estos movimientos se puede calcular la energía cinética promedio que tienen estos átomos o moléculas. Dicha energía cinética promedio es directamente proporcional a la temperatura a la cual se encuentra el sistema. Podemos decir entonces que la temperatura es una magnitud macroscópica que surge de la energía cinética promedio de los átomos o moléculas que componen el sistema. La temperatura es movimiento.

Lo mismo ocurre cuando se trata el concepto de entropía en la mecánica estadística. En este contexto, la entropía es una medida del número de estados posibles de un sistema y se expresa como:

\(S = {k_B}\log {\rm{\Omega }}\)

Donde \(\;{k_B}\) es la constante de Boltzmann cuyo valor es de \({k_B} \approx 1.38 \times {10^{ – 23}}\;J/K\) y \({\rm{\Omega }}\) es el número de microestados del sistema en un momento dado. Entre mayor número de estados posibles tenga un sistema, mayor será su entropía. Además, a mayor número de estados más desordenado estará el sistema.

Es por ello que muchas veces se dice que la entropía es una medida del grado de desorden de un sistema. Bajo esta visión, la segunda ley de la termodinámica, la cual establece que \({\rm{\Delta }}S \ge 0\), implica que con el paso del tiempo el grado de desorden de un sistema aumenta.

Podemos observar esto imaginando que en un recipiente tenemos un gas y de alguna manera logramos que todos los átomos y moléculas que lo constituyen se concentren en una esquina del recipiente. En ese momento el sistema tendrá un cierto número de estados posibles. Si dejamos pasar el tiempo el gas volverá a expandirse hasta abarcar todo el recipiente, conforme pasa el tiempo el número de estados posibles va en aumento y aumenta también la entropía. Por consiguiente, con el paso del tiempo el grado de desorden de este sistema también irá en aumento.

 
Por: Ángel Zamora Ramírez. Licenciado en Física egresado de la Universidad de Colima. Maestro en Ciencias en Ingeniería y Física Biomédicas egresado del CINVESTAV. Amante de la divulgación científica.

Art. actualizado: Septiembre 2023; sobre el original de marzo, 2011.
Datos para citar en modelo APA: Zamora Ramírez, A. (Septiembre 2023). Definición de Entropía. Significado.com. Desde https://significado.com/entropia/
 

Referencias

David Halliday, Robert Resnick & Jearl Walker. (2011). Fundamentals of Physics. United States: John Wiley & Sons, Inc.

Gilbert W. Castellan. (1983). Fisicoquímica. Massachusetts: Addison-Wesley.

Escriba un comentario

Contribuya con su comentario para sumar valor, corregir o debatir el tema.


Privacidad: a) sus datos no se compartirán con nadie; b) su email no será publicado; c) para evitar malos usos, todos los mensajes son moderados.
 
Índice
  • A
  • B
  • C
  • D
  • E
  • F
  • G
  • H
  • I
  • J
  • K
  • L
  • M
  • N
  • O
  • P
  • Q
  • R
  • S
  • T
  • U
  • V
  • W
  • X
  • Y
  • Z