Algunas consideraciones y reflexiones elementales sobre termodinámica y física estadística

La termodinámica ha demostrado ser una herramienta tremendamente útil para el estudio macroscópico de todo tipo de procesos físicos y químicos, además de haber introducido y definido conceptos clave como entropía o energía interna. Gracias a ella los químicos pueden predecir si una reacción será o no espontánea bajo unas condiciones determinadas (a pesar de que, como nos vienen recordando desde bachillerato, no nos dice nada acerca de la cinética).

En cierto modo, el mérito de la termodinámica consiste en que nos da mucha información y nos permite predecir muchas variables de un sistema haciendo uso de funciones de estado y sin atender a la dinámica interna del sistema a nivel microscópico: la termodinámica clásica no requiere de los átomos para funcionar. De hecho, yo creo que hubiera sido posible desarrollar parte de la teoría en la antigua Grecia si se hubieran llegado a crear ciertos instrumentos de medida (de temperatura, de presión…); ya que bien se llegó a la máquina de vapor (la Eolípila de Herón).

Sin embrago, hubo que esperar a principios del siglo XIX para que Carnot fundara la termodinámica, que más adelante sería desarrollada por otros científicos (Clausius, Kelvin…). Pero todo y producirse progresos, había una barrera (entre otras muchas, pero esta es la más evidente) que la termodinámica no podía superar, y es el otro lado de la moneda de la ventaja antes comentada: al ser puramente empírica, pierde capacidad explicativa, es decir podemos describir matemáticamente lo que pasa en el sistema pero no podemos deducirlo o entenderlo a nivel microscópico.

Fue Boltzmann quien 80 años después del nacimiento de la termodinámica puso la pieza que faltaba en nuestro puzle con la famosa fórmula grabada en su lápida: S=k·log(W), y fundó de esta manera la mecánica estadística. Esta fórmula, que nos permite calcular la entropía de un sistema, sí necesita suponer que la materia es discreta para poder ser aplicada.

Quisiera centrarme en esta entrada en la aparente contradicción entre el enfoque macroscópico y el microscópico a la hora de entender la entropía, y cómo la estadística concilia ambos puntos de vista.

Por un lado, macroscópicamente podemos entender la entropía mediante la segunda ley de la termodinámica, enunciada por Clausius como sigue: “no es posible ningún proceso cuyo único resultado sea la extracción de calor de un recipiente a una cierta temperatura y la absorción de una cantidad igual de calor por un recipiente a temperatura más elevada”. De esta definición podemos extraer dos elementos clave: uno es la direccionalidad del proceso de transferencia de calor (del cuerpo caliente al más frío pero no viceversa); el otro es el relativo al rendimiento del proceso, que nunca llegará a ser del 100% debido a que una parte del calor se liberará al ambiente y hará aumentar la entropía total. De aquí que la entropía del universo aumente siempre con cada proceso que se da en él.

Por otro lado, el enfoque microscópico nos lleva a la fórmula antes vista, S=k·log(W), donde k es la constante de Boltzmann y W es el número de maneras (microestados) en que podemos distribuir los átomos o moléculas de un sistema para obtener el mismo valor de energía. De forma intuitiva es evidente que cuanto más desordenado esté un sistema, más microestados podrá contener, y por tanto mayor será su entropía.

Imaginemos ahora un sistema ideal de paredes adiabáticas parecido al de la imagen que acompaña este post: dos recipientes, uno contiene gas a una cierta presión y en el otro hay el vacío, separados por una pared que podemos retirar de manera que quede un solo recipiente con el doble de volumen. Si retiramos la pared, macroscópicamente observamos que el gas se expande y ocupa de nuevo todo el volumen, proceso que lleva asociado un aumento de entropía, motivo por el cual es espontáneo (ya que la energía interna del gas no varía). Pero si fuéramos capaces de observar el mismo proceso a nivel microscópico, lo único que veríamos sería sencillamente partículas de gas que se mueven al azar y que colisionan unas contra otras y contra las paredes, siendo a este nivel innecesarias consideraciones entrópicas.

Y es en este punto donde surge una aparente contradicción, ya que para el mismo proceso que se da en el mismo sistema observamos que desde el punto de vista macroscópico hay una direccionalidad en el tiempo, y en cambio microscópicamente esta direccionalidad no se da. Es decir, si grabáramos con una cámara cómo se expande el gas al retirar la pered, y luego viéramos el vídeo al revés, claramente habría algo que no cuadra, cualquier persona reconocería que un gas que ocupa un volumen y de repente pasa a ocupar la mitad del volumen es algo que no sucede de forma espontánea,  y es por eso que decimos que la entropía tiene una direccionalidad en el tiempo, y es que aumenta a medida que éste pasa. Esto, en cambio, es algo que no se da si observamos el mismo proceso a nivel microscópico; si grabáramos las colisiones de las partículas, no habría ningún problema en ver esas mismas colisiones al revés, ambos casos serían perfectamente válidos, y es debido a esto que la dinámica de las partículas a nivel microscópico no tiene una direccionalidad en el tiempo asociada.

¿Cómo puede ser, entonces, que un mismo sistema, que está compuesto por partículas, evolucione de una manera concreta en el tiempo observado como conjunto, y en cambio si observamos las partículas que lo componen a nivel microscópico esa evolución en el tiempo no exista?

Bueno, la solución a este dilema nos la da la estadística, y es que resulta que en la expansión de un gas, normalmente tratamos con tal cantidad de partículas, que los promedios estadísticos juegan un papel clave en el comportamiento del conjunto de ellas. No hay ninguna incompatibilidad entre ambos enfoques debido a que el comportamiento al azar de las partículas estadística y necesariamente nos lleva al fenómeno observado en el mundo macroscópico. Visto así, la cuestión de porqué la entropía tiene una direccionalidad en el tiempo parece reducirse a porqué las leyes físicas que actúan a nivel microscópico son de una manera y no de otra y al hecho que en el mundo real tratamos con ingentes cantidades de materia.

Además, si en lugar de tantas partículas, tuviéramos un sistema con sólo cinco de ellas (p. ej. cinco átomos de Xe), la probabilidad de que en un momento dado todos los átomos ocuparan la mitad del volumen en el que están contenidas sería relativamente alta, y entonces los promedios estadísticos ya no serían tan determinantes y perdería sentido aplicar las consideraciones propias del mundo macroscópico.

Para acabar, citar una frase pronunciada por un buen profesor de química física: “lo que ocurre ocurre porqué es lo más probable que ocurra”.

Esta entrada fue publicada en Ciencia general. Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s