Download Apunte sobre termodinámica, parte II

Document related concepts

Entalpía wikipedia , lookup

Termodinámica wikipedia , lookup

Producción de entropía wikipedia , lookup

Exergía wikipedia , lookup

Termodinámica química wikipedia , lookup

Transcript
Taller de Enseñanza de Física – UNLP
en su XXVII aniversario
Termodinámica: Parte II
Segundo Principio, Potenciales y Aplicaciones
Tabla de Contenidos
9- Irreversibilidad: Segundo Principio de la Termodinámica....................................................................2
9.1 Concepto de proceso espontáneo...................................................................................................2
9.2 Segundo Principio de la Termodinámica........................................................................................3
9.3 Ejemplo de predicción no trivial: motores y heladeras..................................................................4
10- Potenciales termodinámicos................................................................................................................7
10.1- El plano T-S.................................................................................................................................7
10.2- La energía interna como potencial: el plano V-S........................................................................9
10.3- Potenciales termodinámicos y transformaciones de Legendre.................................................10
10.4- El plano P-S y la Entalpía (H)...................................................................................................11
10.5- El plano T-V: Función de Helmholtz (F)...................................................................................12
10.6- El plano T-P: Función de Gibbs (G)..........................................................................................13
10.7- El plano U-V y la entropía........................................................................................................14
10.8- Relaciones de Maxwell.............................................................................................................14
10.9- Los potenciales y el Segundo Principio....................................................................................16
Mínimo de la energía mecánica......................................................................................................16
Máximo de la Entropía...................................................................................................................17
Mínimo de la Función de Gibbs.....................................................................................................18
10.10- Ejemplo de uso: H y G en química.........................................................................................19
10.11- Ejemplo de uso: “Motores Químicos” (pilas, fotosíntesis, etc)..............................................21
11- Termodinámica más allá del equilibrio..............................................................................................22
11.2- Equilibrio local..........................................................................................................................23
11.3- Creación de entropía.................................................................................................................23
12- Conexiones con lo microscópico.......................................................................................................29
12.1- ¿Qué quiere decir “microscópico”?..........................................................................................29
12.2- Las “moléculas” durante el siglo XIX......................................................................................30
12.3- La misteriosa constante R.........................................................................................................31
12.4- Las ideas de Boltzman..............................................................................................................32
12.5- Disparen sobre Boltzman..........................................................................................................33
12.6- Tour guiado por la Mecánica Estadística..................................................................................34
12.7- ¿Cómo sé si necesito de la mecánica estadística para resolver un problema?..........................35
13- La Termodinámica Realmente Existente...........................................................................................35
13.1- Fenómenos térmicos.................................................................................................................36
Dilatación térmica...........................................................................................................................36
“Transferencia de calor”, calor específico......................................................................................38
13.2- Calorimetría..............................................................................................................................39
13.3- Primer Principio en varios dialectos.........................................................................................40
1
Convenciones de signos..................................................................................................................40
13.4- Fenómenos de Transporte.........................................................................................................41
Conducción.....................................................................................................................................42
Convección.....................................................................................................................................43
Radiación........................................................................................................................................43
13.5- Exergía......................................................................................................................................44
13.6- La “energía” en la nutrición......................................................................................................45
13.7- Termodinámica en Ecología......................................................................................................46
El flujo de energía en la ecología ortodoxa....................................................................................46
La Ecología de Odum, Margalef y Jacques Cousteau....................................................................47
14- Desmantelando tabúes: ¿Cómo se usa la Termodinámica en Ciencias Naturales?...........................49
9- Irreversibilidad: Segundo Principio de la
Termodinámica
(esta es una de las secciones centrales del apunte)
9.1 Concepto de proceso espontáneo
Empecemos observando que hicimos un poquito de trampa. En los problemas 1 y 2 sobre modelización
de interacciones térmicas (secciones 8.1 y 8.2) asumimos que la temperatura final de los sistemas es
homogenea, pero nada en la teoría obliga a que eso sea así. En lo que al primer principio se refiere,
nada impide imaginar que un pedazo del agua de un vaso se vuelve un cubito de hielo mientras el resto
del agua se calienta, siempre que en el proceso se conserve la energía. Es cierto que para este sistema es
bastante claro que el estado final es uno en el que la temperatura es uniforme, pero sería deseable que
una teoría sobre interacciones térmicas incluyera eso. Pero hay razones más prácticas para buscar un
principio que permita hacer ese tipo de predicciones: no siempre la dirección en que un proceso es
espontaneo resulta tan clara como en el caso del cubito en el vaso de agua. Piensen por ejemplo en las
reacciones químicas o en la estabilidad de estructuras cristalinas de minerales. Ese principio es el
Segundo Principio de la Termodinámica.
Esencialmente el segundo principio lo que hace es permitir predecir qué procesos ocurren en la
naturaleza, y cuáles no. A los primeros se les llama “espontaneos”, y a los otros, “no espontáneos”.
Esos nombres pueden llevar a equívocos, porque la idea de espontaneidad del lenguaje coloquial es
muy distinta. Lo opuesto a “espontáneo” en lenguaje coloquial es “forzado”. Si un sospechoso declara
de motu propio ante el juez su declaración es “espontánea”, pero si va a buscarlo la policía y lo lleva a
la fuerza con el juez la declaración no es “espontánea” y el tipo está en el horno. Pero desde el punto de
vista de la termodinámica los dos son procesos que pueden ocurrir (y de hecho ambos ocurren bastante
seguido) así que si modelizamos termodinámicamente al sospechoso y al sistema judicial, suponiendo
que tal cosa fuera posible, los dos son “procesos espontáneos”.
2
Pongamos un ejemplo más físico. Si una pava de agua caliente se deja en la mesa, casi todo el mundo
estaría de acuerdo en afirmar que el agua “se enfría espontáneamente”. En cambio, si encendemos la
hornalla y ponemos una pava de agua a temperatura ambiente, uno se siente tentado a decir que el agua
“no se calienta espontáneamente”, sino porque el fuego “la fuerza a calentarse”. Esa es una forma
coloquial de pensar, pero si nos atenemos a nuestra definición termodinámica de “proceso espontáneo”
claramente el agua se calienta espontáneamente. ¡De lo contrario sería imposible calentar una pava de
agua con una hornalla! En termodinámica los procesos espontáneos son los que realmente ocurren, y
los no espontáneos los que no pueden ocurrir. En el caso de la pava de agua sobre la hornalla
encendida, lo que ocurre espontáneamente es que los gases calientes que rodean la pava se enfrían un
poco, y que el agua se calienta. Un ejemplo de proceso no espontáneo sería que el agua de la pava se
enfríe y los gases de la llama se calienten todavía más; por más que la energía se conserve, el proceso
es imposible.
Es entonces importante reconocer que para saber qué procesos de un sistema son espontáneos es
imprescindible establecer el entorno. No son los mismos los procesos espontáneos del agua dentro de
una pava si la pava está sobre la mesada, en una hornalla encendida o en un freezer. Justamente, la
peculiaridad del segundo principio es que no se puede prescindir de las transformaciones del entorno
para formularlo. Si no se comprende esto es imposible darle sentido al enunciado del segundo
principio.
9.2 Segundo Principio de la Termodinámica
Analicemos el caso de un cuerpo caliente en contacto térmico con uno frío. Ya sabemos que el proceso
espontaneo es el que lleva a que las dos temperaturas se igualan.
Los dos bloques de la figura de la izquierda están aislados del resto
del Universo, pero en contacto térmico entre sí. Supongamos que
TA es mayor que TB. El calor que B le hace a A (Q A) es menos el
calor que A le hace a B (Q B). De la definición de calor, sabemos
entonces que
T A dS A=−T B dS B (34)
El cambio de entropía del Universo es dS U =dS A +dS B , así que usando (34) tendremos:
dS U =dS A –
 
TA
T
dS A= 1− A dS A (35)
TB
TB
Si asumimos que la dirección espontanea es la que lleva a que la temperatura de A disminuya y la de B
aumente, B debe hacer sobre A un calor negativo, por lo que dS A será negativa. Por otra parte,
T A / T B es mayor que 1, de modo que el coeficiente que acompaña a dS A en (35) es negativo. Por lo
tanto, dS U es positivo.
Si consideramos A como el objeto de estudio, y B como su entorno, vemos que la entropía del objeto de
estudio disminuye, pero la entropía del entorno aumenta más de lo que disminuye la del objeto. Lo
relevante es que al Universo (objeto más entorno) la entropía le aumenta. Supongamos que el objeto es
3
la pava caliente y el entorno la mesada. La entropía de la pava disminuye, y la de la mesada aumenta.
Pero como la temperatura de la pava es mayor que la de la mesada, y como los calores son iguales y
opuestos, la entropía de la mesada aumenta más de lo que disminuye la entropía de la pava. La entropía
del Universo aumenta, por lo que el proceso espontáneo es aquel en el que la pava se enfría. Ahora
analicemos el caso en que el objeto es la pava fría, el entorno es la hornalla encendida. La entropía de
la pava aumenta, la entropía de los gases calientes de la llama disminuye un poco, pero como estos
gases están a una temperatura mucho más alta que la pava, la entropía de la pava aumenta más que lo
que disminuye la entropía de los gases calientes, de modo que de nuevo el proceso espontáneo es aquel
en el que la pava se calienta.
Todo este análisis para “predecir” lo que ya sabemos que ocurrirá suena a usar cañonazos para matar
hormigas sobre las que alguien ya había usado insecticida. En realidad estamos mostrando casos en los
que es facil ver que la entropía del Universo aumenta, para justificar postular, como principio, que eso
es lo que ocurre siempre. Aunque parezca mentira, es un postulado que, usado con ingenio, puede
llevar a predecir cosas que están lejos de ser obvias. Lo que dice el Segundo Principio de la
Termodinámica es que sólo pueden ocurrir procesos en los que la entropía del Universo aumenta:
Segundo Principio de la Termodinámica:
Sólo pueden ocurrir procesos en los que la entropía del Universo aumenta. A los procesos que
pueden ocurrir se les llama espontaneos.
ΔS U 0
para procesos espontaneos
Algunas aclaraciones:
• Insistimos: no podemos decidir si un proceso es espontaneo o no sin estudiar lo que le ocurre al
entorno. Por eso en el segundo principio se habla del aumento de la entropía del Universo.
• El “Universo” no es la totalidad del cosmos. Es el sistema de estudio más una parte del entorno
lo bastante grande como para considerar al total como cerrado (basta con que el sistema de
estudio no interaccione con nada fuera de esa parte del Entorno.
• En principio uno puede pensar en procesos ideales para los que la entropía del Universo no
aumenta. Esto ocurre si y sólo si el proceso es cuasiestático y el sistema de estudio es tal que las
partes mecánicas sufren un trabajo nulo de las fuerzas no conservativas. En este caso, el proceso
inverso tampoco cambia la entropía del Universo, y por eso se los llama procesos reversibles.
En la práctica ningún proceso es realmente reversible porque ningún proceso es cuasiestático.
• Un corolario de esto es que todos los procesos espontaneos son irreversibles. Esto no
significa que un cierto objeto de estudio no pueda volver a estar en un estado que ya hubiera
estado. Lo que no puede hacerse es devolver al objeto y al entorno a un estado en el que ya
hayan estado.
9.3 Ejemplo de predicción no trivial: motores y heladeras
Esta subsección sirve para mostrar con un ejemplo simple por qué el segundo principio de la
4
Termodinámica es poderoso. Es un ejemplo algo típico de libro de texto, pero por desgracia es más
ingenieril que de interés para las ciencias naturales. Se recomienda su lectura a quien quiera hacer la
conexión entre el tratamiento que damos a la termodinámica en este curso y las exposiciones más
convencionales.
Hay muchos, muchísimos ejemplos de predicciones no triviales hechas a partir del segundo principio.
Muchas son sumamente técnicas y sería complejo trabajarlas tan pronto. Pero hay una aplicación
histórica que de hecho es la que motivó el desarrollo de la Termodinámica, hija de la revolución
industrial: los límites a la eficiencia de las máquinas.
Una gran cantidad de inventores intentó por décadas (en internet puede verse que algunos siguen
intentando) hacer máquinas “de movimiento perpetuo”, es decir máquinas que permitan producir sin
ponerles nafta, ni enchufarlas, ni latiguear mulas para que las muevan. Algunas ideas son muy
ingeniosas y lleva un esfuerzo grande descubrir en qué fallan. Lo interesante es que todas esas
máquinas deben fallar si es que los principios de la termodinámica son válidos, y hoy por hoy la
evidencia a su favor es abrumadora. Las máquinas que pretenden funcionar creando energía de la nada
son las que se conocen como “móviles perpetuos de la primera especie”, y están prohibidas por el
Primer Principio (en su versión completa). Los que resultaron más desafiantes son los que respetan el
primer principio, que reciben el nombre de “móviles perpetuos de la segunda especie”. Por ejemplo, un
motor de barco que funcione con calor que haga el agua de mar. Vamos a hacer un modelo de máquina
muy simple que ilustra cuál es el problema con este tipo de máquinas.
La máquina en sí será un sistema con partes mecánicas y con sustancias modelizables
termodinámicamente, no importa cómo. La única suposición que vamos a hacer es que en todo
momento se le puede asignar una energía mecánica y una energía interna, y que opera cíclicamente (o
sea, que vuelve a pasar una y otra vez por el mismo estado). El entorno puede hacer sobre el sistema
calor y trabajo. Supongamos que el entorno está a una temperatura T, y tratemos de hacer una máquina
que aproveche el calor que pueda hacerle el mar para mover un barco. Consideremos un ciclo, de modo
que el cambio de energía interna del motor valga cero. Si queremos que el motor haga un trabajo
positivo sobre el entorno (léase: el barco) el entorno hará sobre el motor un trabajo negativo. Aplicando
el Primer Principio al motor a lo largo de un ciclo:
W entorno+Q entorno=0
en un ciclo (36)
También debido a que el motor opera en un ciclo, el cambio de entropía del motor en el ciclo es nulo,
por lo que el cambio de entropía del Universo es simplemente el del entorno. Ahora bien, si queremos
que el motor funcione como tal, el trabajo del entorno es negativo por lo que el calor es positivo.
Entonces el calor del sistema sobre el entorno (en nuestro ejemplo, el calor del motor sobre el mar) es
negativo (el mar “se enfría”), de modo que el cambio de entropía del entorno es negativo. Por lo dicho,
el cambio de entropía del Universo es negativo: este proceso no es espontaneo. ¡Por lo tanto este motor
no puede funcionar! Vean que a la inversa no hay problemas: el entorno puede hacer un trabajo positivo
sobre el “motor” de manera que la entropía del entorno aumente. Un buen ejemplo de este tipo de
“motor” es un calentador eléctrico.
Lo interesante acá es que nos hemos independizado de todo detalle de cómo está hecho el motor. Esto
es lo fuerte de la termodinámica, y es la razon que hace que la modelización macroscópica resulte tan
5
poderosa. Los detalles microscópicos pueden ser extremadamente complicados, pero hay muchas cosas
que se pueden concluír con independencia de esa complejidad.
Entonces necesitamos complicar un poco nuestro modelo de motor termodinámico para hacerlo
funcionar. Una buena idea puede ser que la interacción térmica ocurra con dos “focos” a temperaturas
diferentes. Por ejemplo, en un barco el motor puede estar en contacto con una caldera (que sería el
“foco caliente”) y con el mar (“foco frío”). En un ciclo tendremos entonces
W entorno+Q caliente+Q frío =0
sobre un ciclo (37)
El foco caliente hace un calor positivo sobre el motor, y el motor hace un trabajo positivo sobre el
entorno y un calor positivo sobre el foco frío. Una forma de leer la expresión (37) es que por cada joule
que hace el foco caliente una parte la hace el motor como trabajo y el resto “se pierde” como calor
sobre el foco frío. Esta forma de pensarlo motiva la siguiente definición de “eficiencia” de una máquina
termodinámica que opera cíclicamente:
Eficiencia=
 W entorno
 Q caliente
(38)
La “eficiencia” así definida es simplemente la fracción del calor hecho por el foco caliente que el motor
logra hacer como trabajo. Es facil calcular la eficiencia de un motor reversible operando entre estos dos
focos. El calor que el foco caliente hace sobre el motor es
Q caliente=−T calientedṢ caliente (39)
donde dS caliente es el cambio de entropía en el foco caliente, mientras que el calor que el foco frío hace
sobre el motor es
Q frío =−T frío dS frío
(40)
(Los signos “-” se deben a que no hablamos del calor sobre los focos sino sobre el motor). Como la
entropía del motor no cambia (estamos analizando un ciclo) el cambio de la entropía del Universo es la
suma de los cambios de ambis focos; por el Segundo Principio, si el motor es reversible tendremos
dS caliente+dS frío =0
(41)
Usando (37), (39), (40) y (41), el trabajo que entorno hace sobre el motor reversible hace será:
W entorno=−Q caliente−Q frío =−T caliente+T frío dS caliente (42)
Reemplazando (42) y (39) en (38) obtenemos finalmente para la eficiencia de una máquina reversible:
Eficiencia de un motor reversible = 1 –
T frío
T caliente
(43)
Vean que, no importa cómo se haga el motor, si es reversible la eficiencia depende sólo de las
temperaturas de los focos. El motor sería perfectamente eficiente si el foco frío estuviera a temperatura
absoluta cero, y tendría eficiencia nula si el foco caliente y el frío estuvieran a la misma temperatura.
Vean que, como el motor es reversible, se lo puede usar al reves, haciendo trabajo negativo contra el
entorno, calor negativo sobre el foco frío y calor positivo sobre el caliente.
Una pregunta interesante, por no decir molesta, es por qué nos tomamos tanto trabajo en calcular la
6
eficiencia de un motor que sabemos es imposible de construír. ¿No será posible construír una máquina
irreversible que sea más eficiente que esta? Bueno, esta es la parte más divertida del análisis.
Supongamos que tenemos una máquina más eficiente que la reversible; entonces podríamos usar parte
del trabajo producido por esa máquina para, con la máquina reversible andando al revés, hacer el calor
contrario al que hizo la primera máquina. El resultado sería una máquina de movimiento perpetuo de la
segunda especie: el trabajo que hace la máquina es igual al calor neto que hace el foco caliente sobre
ella, y el calor neto sobre el foco frío es cero. Pero ya vimos que esa máquina viola el Segundo
Principio, o sea que si admitimos que el Segundo Principio es válido no puede haber máquinas más
eficiente que una reversible:
Eficiencia de un motor real < 1 –
T frío
T caliente
(44)
Como hemos mencionado, este es el origen histórico del segundo principio. Por eso, muchos libros
arrancan por acá: postulan como segundo principio
Segundo Principio de la Termodinámica (versión habitual en libros de texto)
No puede hacerse una máquina térmica que opere cíclicamente sobre un foco a una
temperatura, haga un trabajo positivo contra el entorno y no haga ningún otro proceso sobre el
entorno.
Una vez establecido esto, se calcula la eficiencia de un motor reversible (usando un ciclo concreto 1,
porque la entropía en este enfoque aún no está construída) y se demuestra, tal como lo hicimos acá, que
ninguna máquina térmica puede ser más eficiente que esta. Recién entonces se define la función S
como la integral de 1/T respecto del calor hecho reversiblemente, y se demuestra que es una función de
estado. Por eso en la mayoría de los libros de texto las máquinas y su eficiencia ocupan un lugar tan
destacado en el formalismo, así como los procesos en los gases ideales.
10- Potenciales termodinámicos
10.1- El plano T-S
Hasta ahora hemos representado los estados de equilibrio (interno) de un fluído como puntos de un
diagrama P-V, dejando fijo el número de moles n. Después hemos escrito el resto de las variables de
estado termodinámico como funciones sobre estas variables: T(P,V,n); U(P,V,n); S(P,V,n); etc. Una
pregunta que uno puede hacerse (si está muy aburrido) es: ¿Por qué usar la presión y el volumen como
las variables independientes? Por qué no “despejar” algunas de las funciones de estado y escribir cosas
del estilo P(T,S,n); U(V,T,n), etc? La verdad es que con cierta restricción, uno siempre puede poner
1
Para calcular la eficiencia de una máquina reversible se usa como “motor” una cantidad fija de gas ideal que opera
isotérmicamente sobre los focos y adiabáticamente para ir de una isoterma a la otra. El calor específico es lo primero que
se define, de manera que el cálculo puede hacerse sin apelar al concepto de entropía. Este ciclo es conocido en los libros
como “ciclo de Carnot”.
7
todas las variables en términos de las tres 2 variables que a uno se le ocurra. La cierta restricción es
simple: como algunas funciones de estado son extensivas, las tres que elijamos como variables
independientes deben incluír por lo menos una extensiva.
Quien no estuviese tan aburrido para plantearse semejante pregunta, probablemente se preguntará (muy
sensatamente) qué tiene de interesante tomarse ese trabajo. Bueno, lo cierto es que, dependiendo del
problema, puede ser mucho más cómodo trabajar con un conjunto de variables que con otro. Vamos a
poner un ejemplo simple de sistema alternativo de variables independientes y jugar un poco con él.
Después vamos a tener en cuenta varios conjuntos interesantes de variables independientes en la
subsección siguiente.
Supongamos que en vez de presión, volumen y número de moles, como hasta ahora, usamos como
conjunto de variables independientes la entropía, la temperatura y el número de moles. Si fijamos el
número de moles, los estados de equilibrio (interno) del fluído se representan como puntos en el plano
T-S. En el plano T-S las isotermas son simplemente líneas horizontales y las adiabáticas son líneas
verticales. En cambio, las isobaras y las isocoras (triviales en el plano P-V) son curvas complejas que
dependen del modelo. Para graficarlas necesitaríamos la ecuación de estado y algún calor específico.
En la figura de arriba mostramos varias curvas isotérmicas (líneas punteadas) y adiabáticas (líneas
cortadas) tanto en el plano P-V como en el plano T-S para cierto fluído hipotético. Recuerden que para
conocer las curvas isotérmicas (curvas de nivel de T(P,V,n)) debe conocerse la ecuación de estado,
mientras que para conocer las curvas adiabáticas (curvas de nivel de S(P,V,n)) deben conocerse los
calores específicos. En el diagrama P-V se muestra cierto proceso que va del estado A al estado B. En
el plano T-S hemos dibujado las mismas isotermas y las mismas adiábatas que en el otro diagrama.
Entonces, observando los estados sobre el proceso que va de A a B relativamente a las curvas
isotérmicas y adiabáticas, se ve que el mismo proceso, para esa sustancia, en el plano T-S corresponde
aproximadamente al mostrado a la derecha. Es un ejercicio interesante verificarlo, así como hacer
isocoras e isobaras aproximadas para esta sustancia en el plano T-S.
Algo interesante de ver es que en el plano T-S el calor durante un proceso cuasiestático es el área bajo
la curva (por la definición de calor) independientemente de la sustancia de la que se trate, mientras que
para calcular el trabajo en ese proceso necesitaremos la ecuación de estado y el calor específico. Los
2
Tres variables para el caso de un fluído. Otros modelos (por ejemplo medios elásticos) necesitan de más variables
independientes.
8
cambios de variable permiten simplificar una parte de la descripción, casi siempre complicando otra.
10.2- La energía interna como potencial: el plano V-S
Elijamos como variables independientes el volumen V, la entropía S y el número de moles n. Podemos
entonces escribir la energía interna como función de la entropía, el volumen y el número de moles,
U(V,S,n). Ahora supongamos que variamos infinitesimalmente las distintas variables y queremos ver
cómo cambia U:
dU=
 ∂U
∂V 
S,n
dV+
 ∂∂US 
dS+
V,n
 ∂U∂n 
V,S
dn (45)
Ahora bien, usando el primer principio:
dU=−PdV+TdS+μdn
(46)
Comparando (45) con (46) tenemos:
P=−
 ∂∂VU 
S,n
T=
μ=
 ∂U
∂S 
V,n
 ∂∂Un 
(47)
V,S
Es decir que si U es escrita como función de el volumen, la entropía y el número de moles, tres
cantidades importantes de la teoría pueden obtenerse derivando U. Por eso se dice que, en este caso, U
es un “potencial” (recuerden que calculando derivadas de la energía potencial puede calcularse la
correspondiente fuerza conservativa).
La notación extravagante en (47) merece comentarios. Las dos variables que se ponen como subíndice
afuera del paréntesis son las cantidades que permanecen constantes al derivar. Por ejemplo, la primer
expresión dice que la presión es menos la derivada de U respecto de V, a S y n constantes. La
aclaración es relevante en termodinámica: si uno dijera simplemente que la presión es menos la
derivada de U respecto de V, sin aclaraciones, se estaría siendo ambiguo. Supongamos por ejemplo que
expresamos U como función de P, V y n. Entonces, la derivada de esa función respecto de V ya no es
-P (si intentan hacer algo parecido a la expresión (46) lo van a ver). La razón práctica para expresarlo
de esta manera en lugar de simplemente aclarar que (47) es válido únicamente cuando U es escrita en
función de S, V y n es que casi nunca uno tiene una función explícita. Los razonamientos son formales,
y en un punto uno usa el hecho de que S es constante, por ejemplo.
Esta forma de trabajar resulta muy poderosa. Siguiendo esta línea uno encuentra relaciones entre
9
variables medibles que uno no hubiera sospechado como interdependientes. De esa manera se logra una
gran cantidad de predicciones a partir de una mínima cantidad de mediciones, siguiendo razonamientos
completamente independientes de los detalles microscópicos del sistema estudiado.
10.3- Potenciales termodinámicos y transformaciones de Legendre
Esta subsección es sobre la herramienta matemática detrás de la construcción de los potenciales
termodinámicos aparte de U. Su lectura puede omitirse sin pérdida de continuidad.
La forma de trabajo con potenciales en termodinámica resulta tan poderosa que uno se pregunta si no
hay una manera sistemática de generarlos. Por ejemplo: ya sabemos que U escrita como función de V,
S y n funciona como potencial para P, T y μ. No podrá encontrarse otra función, en otras variables, que
funcione como potencial para, por ejemplo, V? Estamos pidiendo una nueva función que nos permita
obtener la misma información que la nueva U, pero que resulte más útil que U en otros contextos.
Supongamos que tenemos la función f(x,y), que funciona como potencial de u y v; es decir:
u=
v=
 ∂∂ xf 
y
 ∂∂ fy 
x
(48)
(49)
Ahora queremos hallar una función g que sea un potencial para la variable x. Si hacemos
g  u,y  =f  u,y  –ux  u,y  (50)
esa es exactamente la función que necesitábamos, es decir un potencial para x:
 ∂∂ gu  = ∂∂ uf  –x  u,y  –u  ∂∂ xu 
y
y
y
(51)
y como por regla de la cadena
∂f
∂f
∂x
∂f
∂y
=

(52)
∂ u y ∂ x y ∂u y ∂ y y ∂ u y
Usando (48) y el hecho de que la derivada de y a y constante es cero, (52) se escribe:
∂f
∂x
=u
(53)
∂u y
∂u y
Reemplazando (53) en (51) se obtiene finalmente
       
   
 ∂∂ gu  =x
y
o sea, g es un potencial para x.
10
(54)
Sintetizando:
Si se tiene una función f (de x y otras variables) que es potencial para la variable u, la función
g=f −ux
es un potencial para x si se la escribe como función de u. La función g se denomina la transformada
de Legendre de la función f.
Observemos:
•
•
La función f y su transformada g tienen “la misma información”, en el sentido de que ambas
permiten conocer tanto x como u, o bien por ser la variable independiente o bien derivando.
En un sistema termodinámico el “potencial” es parte de la modelización del sistema. Por
ejemplo, si la función es la energía potencial U en términos del volumen y la entropía, entonces
dado un valor del volumen y la entropía (un estado) podemos conocer la presión del sistema
para ese estado. Si armamos una transformada de Legendre de U que sea un potencial para V,
nuevamente esa función será una caracterización termodinámica del sistema tan buena como U.
10.4- El plano P-S y la Entalpía (H)
Ya vimos cómo U funciona como potencial cuando se la escribe como función de el volumen, la
entropía y el número de moles. Veamos ahora un potencial muy popular, que puede obtenerse a partir
de la energía interna para que sea un potencial del volumen. La forma en que se hace eso es la llamada
transformada de Legendre, que en esta subsección vamos a abordar como es habitual en los libros de
texto. Ante insatisfacciones o deseos de profundizar, puede acudirse a la subsección anterior.
Definamos sin anestesia la función H:
H=U+PV
(DEFINICIÓN DE ENTALPÍA)
Si U se escribe como función de S, V y n, puede obtenerse P como función de S, V y n (derivando U) y
entonces H es función de S, V y n. Pero al igual que toda función de estado, H puede ponerse en
función de las tres variables independientes de nuestra preferencia. Hagamos ahora un cambio
infinitesimal de H:
dH=dU+PdV+VdP
(55)
Usando el primer principio, dU=− PdV+TdS+μdn , con lo que (55) queda:
dH=VdP+TdS+μdn
11
(56)
Supongamos ahora que escribimos H como función de la presión, la entropía y el número de moles. dH
es entonces:
dH=
 ∂∂ HP 
dP+
S,n
 ∂∂HS 
dS+
P,n
 ∂∂Hn 
P,S
dn (57)
Comparando (56) y (57) vemos que
 ∂∂ HP 
∂H
T= 
∂S 
∂H
μ= 
∂n 
V=
S,n
P,n
(58)
P,S
Cuando H es expresado como función de la presión, la entropía y el número de moles, funciona como
potencial para el volumen, la temperatura y el potencial químico.
Hay dos preguntas que siempre se hace quien se topa por primera vez con la entalpía: “qué es” y “para
qué sirve”. La primer pregunta no es realmente legítima. Uno tiende a sentirse más tranquilo con algo
que se llama “energía” porque siente que le puede atribuir un significado, mientras que la palabra
“entalpía” es intimidante. Pero en el fondo las dos son igual de “raras” e “inventadas”. La energía
interna es una función de estado y la entalpía otra. Más aún, la entalpía es la energía interna más
presión por volumen, y eso es todo. La segunda pregunta es la realmente relevante y la que le da
sentido a la entalpía. En principio uno podría decir simplemente que sirve para poder expresar (58),
pero hay más. Si se fijan en la expresión para dH van a ver que en procesos a presión constante y
número de moles constante el cambio de la entalpía es igual al calor sobre el sistema, si este se hace
cuasiestáticamente. Como casi toda la tarea del químico (y muchos otros procesos) se hace a presión
atmosférica, los cambios de entalpía resultan particularmente útiles y fáciles de medir.
La entalpía funciona como potencial en el plano P-S. Es decir, al considerársela como función de P,
S y n.
H  P,S,n 
10.5- El plano T-V: Función de Helmholtz (F)
De un modo similar puede pensarse en escribir un potencial en las variables V, T y n, para que
funcionen como potenciales de P, S y µ. Eso puede hacerse definiendo el potencial de Helmholtz (a
veces se lo llama “energía libre de Helmholtz”) F:
F=U −TS
(DEFINICIÓN DE LA FUNCIÓN DE HELMHOLTZ)
Procediendo análogamente a como hicimos con la entalpía llegamos a:
12
dF=− PdV − SdT+μdn
(59)
por lo que si pensamos F como función del volumen, la entropía y el número de moles llegaremos a:
 ∂∂VF 
∂F
S=−
∂T 
∂F
μ= 
∂n 
P=−
T,n
V,n
(60)
T,V
A volumen y temperatura fijos la variación de F es igual al trabajo químico cuasiestático sobre el
sistema. En cuanto a la pregunta de qué “es” F nos remitimos a la pregunta análoga sobre la entalpía.
10.6- El plano T-P: Función de Gibbs (G)
Análogamente puede pasarse al plano T-P definiendo la función de Gibbs (o el potencial de Gibbs, o la
“energía libre” de Gibbs) G así:
G=U+PV–TS
(DEFINICIÓN DE LA FUNCIÓN DE GIBBS)
Procediendo análogamente a como hicimos con H y F llegamos a:
dG=VdP−SdT+μdn
(61)
por lo que si pensamos G como función de la presión, la entropía y el número de moles llegaremos a:
 ∂∂ GP 
∂G
S=−
∂T 
∂F
μ= 
∂n 
V=
T,n
P,n
(62)
P,V
A presión y temperatura fijos la variación de G es igual al trabajo químico cuasiestático sobre el
sistema. Esto es interesante porque presión constante (atmosférica) y temperatura constante (ambiente)
son condiciones habituales para muchos sistemas de interes. Junto con la entalpía es una de las
funciones más usadas. En cuanto a la pregunta de qué “es” G nos remitimos nuevamente a la pregunta
análoga sobre la entalpía.
13
10.7- El plano U-V y la entropía
Usando el Primer Principio puede pasarse al plano U-V usando la función Entropía. Para eso
despejamos dS:
dS=
1
P
μ
dU+ dV − dn
T
T
T
(FORMULACIÓN ENTRÓPICA DEL PRIMER PRINCIPIO)
Acá no estamos definiendo un potencial nuevo por medio de una transforamada de Legendre, sino
aprovechando el primer principio para escribir como potencial una que ya conocíamos (la entropía). Si
ahora consideramos a la entropía en función de U, V y n (S(U,V,n)) y razonando análogamente como
para el resto de los potenciales, obtendremos las relaciones:
Procediendo análogamente a como hicimos con H y F llegamos a:
 ∂U∂ S 
 ∂V∂ S 
 ∂∂ Sn 
1
=
T
P
=
T
μ
−
T
V,n
U,n
(63)
U,V
10.8- Relaciones de Maxwell
Tenemos ahora a nuestra disposición montones de relaciones entre variables involucrando derivadas.
Por otra parte, rara vez uno scribe explícitamente los potenciales termodinámicos como funciones de
las variables de estado, salvo para los modelos más sencillos. De hecho, lo habitual es usar tablas de
cambio de entalpía por mol y de “energía libre” de Gibbs por mol (sobre todo en química) así que
alguno puede estarse preguntando qué tiene que ver todo este barullo de derivadas con el uso habitual
de U, G, S y H. Un ejemplo concreto lo damos más abajo: el uso de G para decidir si cierta reacción es
o no espontanea. En esta subsección vamos a aclarar un poco lo que dijimos al empezar el estudio de
potenciales termodinámicos: uno raramente deriva explícitamente funciones, solo hace cálculos
formales que le permiten conectar entre sí cantidades medibles en principio independientes.
Este tipo de relaciones (llamadas “de Maxwell” en honor a quien las explotó por primera vez)
aprovecha el hecho de que ciertas cantidades son a su vez derivada de otras, y usando propiedades
generales de las derivadas va estableciendo las conexiones. Acá va un ejemplo:
 ∂T∂V  = ∂V∂   ∂U∂ S 
S,n
    
∂ ∂
∂
∂U
∂P
U  S,V,n  =
=−
∂V
∂
S
∂
S
∂V
∂S
S,n
V,n
V,n
S,n
(EJEMPLO DE RELACIÓN DE MAXWELL)
=
14
V,n
De la misma manera se pueden demostrar muchísimas identidades, simplemente reorganizando la
forma de escribir las cosas y usando las propiedades de las derivadas parciales. Como prácticamente
todas las cantidades de interés pueden escribirse como derivadas de otras, pueden establecerse
relaciones no triviales.
Mostremos un ejemplo concreto: la relación entre calores específicos en un fluído genérico (ejemplo
tomado del “Modern Thermodynamics” de Kondepudi y Prigogine, reproducido sin autorización del
editor). Vamos a relacionar entre sí cuatro parámetros medibles de un fluído:
Calor específico a volumen constante (definido en la sección 8.1). De su definición, observando que a
volumen constante el trabajo es nulo, y usando el Primer Principio, obtenemos:
 dU  V,n =nC V  dT  V,n
por lo que
CV =
 
1 ∂U
n ∂T
V,n
( C V EXPRESADO COMO DERIVADA)
Calor específico a presión constante (definido en la sección 8.1): De su definición, y recordando que
a presión constante el calor es el cambio de entalpía, resulta:
 dH  P,n =nC P  dT  P,n
por lo que
C P=
 
1 ∂H
n ∂T
P.n
( C P EXPRESADO COMO DERIVADA)
Coeficiente de expansión a presión constante: Si a un material (sometido a presión constante, como
por ejemplo la atmosférica) se le aumenta su temperatura en una cantidad (pequeña) dT, su volumen
cambiará en dV. Ese cambio de volumen es proporcional tanto al volumen de material como al cambio
de temperatura:
 dV P,n =αV  dT  P,n (64)
donde α es el coeficiente de proporcionalidad. Por lo tanto:
α=
 
1 ∂V
V ∂T
P,n
(DEFINICIÓN DEL COEFICIENTE DE DILATACIÓN TÉRMICA)
Compresibilidad a temperatura constante: Si a un material (sometido a temperatura constante, por
ejemplo la ambiente) se lo somete a un cambio (pequeño) de presión dP, su volumen cambiará en dV.
Ese cambio de volumen es proporcional tanto al volumen del material como al cambio de presión:
 dV  T,n=−κ T V  dP T,n
(65)
El signo “-” se debe a que queremos definir a κ T positivo, mientras que un aumento en la presión
provoca una disminución en el volumen. De (65) se deduce:
15
κ T =−
 
1 ∂V
V ∂P
T,n
(DEFINICIÓN DEL COEFICIENTE DE COMPRESIBILIDAD)
Observen que los cuatro parámetros son cantidades medibles independientemente. Nos las hemos
ingeniado para expresarlos como derivadas de variables de estado. Entonces, usando “relaciones de
Maxwell” al estilo del ejemplo de arriba puede demostrarse (el cálculo es engorroso y está en el libro
citado) que:
2
C P –C V =
Tα V
κT n
(66)
Los detalles de la cuenta no nos interesa. De hecho se necesita mucha práctica y desenvoltura en
termodinámica para usar este tipo de relaciones. Lo que sí nos interesa señalar es que uno usa las
propiedades sin en ningún momento derivar realmente alguna función concreta, y llega a relaciones
entre cantidades medibles al estilo de (66) que uno jamás hubiera adivinado: los calores específicos, la
compresibilidad y la dilatación térmica de un fluído están interrelacionados en cualquier fluído, sin
importar su composición química ni ningún otro detalle. Basta el primer principio de la termodinámica
para demostrarlo.
10.9- Los potenciales y el Segundo Principio
Observen que en todo nuestro trabajo sobre potenciales hasta ahora solo hemos usado el primer
principio. Varias conclusiones interesantes se alcanzan cuando el segundo entra en juego. En general,
bajo distintas condiciones de las fronteras el estado de equilibrio será un extremo (mínimo o máximo)
de algún potencial termodinámico.
Mínimo de la energía mecánica
Si una pelotita rueda por un paisaje escarpado (ver figura más adelante), la experiencia cotidiana nos
indica que esta terminará quieta, en el fondo de algún valle. Muchas veces se afirma en libros que lo
que ocurre es que “el sistema alcanza el estado de mínima energía”. Veamos si la termodinámica
permite acomodar este tipo de fenómenos y justificar semejante expresión.
Antes que nada notemos que la expresión “el sistema alcanza el estado de mínima energía” es
demasiado ambigua, y en ciertos contextos puede ser completamente falsa. Lo que vamos a hacer a
continuación es mostrar que, si la energía interna del sistema de estudio (en este caso, la pelotita) es
constante, el sistema de estudio no hace trabajo (ni mecánico ni termodinámico) sobre el entorno
y tanto el sistema de estudio como el entorno permanecen a una temperatura homogenea,
entonces la energía mecánica del sistema de estudio alcanza un mínimo. En el caso de la pelotita,
esta alcanzará su mínima energía cuando su energía cinética sea nula (pelotita quieta) y cuando la
energía potencial gravitatoria sea mínima (en el fondo de un valle).
16
Veamos: si las fuerzas no conservativas hicieran
trabajo nulo, el sistema no iría a un estado de
mínima energía mecánica: la energía mecánica se
conservaría. Claro que es una situación
extremadamente idealizada: un mínimo trabajo de
fuerzas no conservativas es esperable. En dinámica
no hay restricción para los posibles valores de ese
trabajo, pero usando el primer principio con las
condiciones enunciadas (sólo pueden cambiar la
energía mecánica del sistema de estudio y la energía
interna del entorno) el trabajo de las fuerzas no
conservativas termina siendo igual a menos la variación de energía interna:
ΔU ent=−ΔE M (conservación de la energía)
ΔE M =LFNC (teorema del trabajo y la energía)
Por lo tanto:
ΔU=− L FNC (67)
Como no hay trabajo sobre el entorno, el cambio de U en (67) es igual al calor, que es igual a TΔS ent .
La entropía del sistema de estudio no cambia, por lo que el cambio de la entropía del entorno es la del
Universo; por el segundo principio esa cantidad es positiva. Entonces:
L FNC =−Q=−TΔS<0
(68)
Vemos entonces que los principios de la Termodinámica usados bajo estas condiciones implican que la
energía mecánica sólo puede disminuir. El estado de equilibrio es el de mínima energía potencial.
Algo interesante que ilustramos en la figura es que si bien hay un estado de equilibrio “absoluto”,
puede también haber mínimos relativos que también son estables, como el “valle alto” a la izquierda
del mínimo. A veces, dependiendo de los detalles de cómo evoluciona el sistema hacia el equilibrio, se
alcanza un estado “metaestable” que, sin ser el equilibrio teórico, es estable. Algo similar ocurre para
otros sistemas con otros potenciales (ver más abajo).
Máximo de la Entropía
Un extremo que surge inmediatamente del segundo principio es el de la entropía: si el sistema
estudiado está térmicamente aislado, entonces el cambio de entropía del sistema será igual al cambio
del Universo. Por lo tanto el estado de equilibrio será el máximo valor posible para la entropía.
Los posibles valores de la Entropía estarán dados por las condiciones del problema. Supongamos, por
ejemplo, que tenemos dos gases separados por un tabique rígido y adiabático. En esas condiciones cada
uno de esos dos gases puede estar en un estado de equilibrio a temperaturas y presiones diferentes.
Cada gas tiene una función entropía, y la entropía total es la suma de ambas. Si en un momento
permitimos al tabique moverse libremente, pero mantenemos la aislación térmica, el gas a mayor
presión se va a expandir y el gas a menor presión se va a contraer, pero no habrá interacciones térmicas
17
entre ellos. Uno espera que entonces el estado de equilibrio sea uno en el que las presiones se igualen,
pero no necesariamente las temperaturas. Si en vez de permitir que el tabique se mueva, pero retiramos
la aislación térmica, esperamos que el gas más caliente se enfríe y el más frío se caliente hasta que las
temperaturas se equilibren, pero no necesariamente las presiones. Finalmente, si se retira tanto la
aislación térmica como la rigidez, el sistema evolucionará a un estado de equilibrio tanto térmico como
de presiones. ¿Cómo puede hallarse ese estado de equilibrio usando el segundo principio? Bueno, uno
puede plantear la función entropía sujeta a los vínculos del problema. Entonces, dado que el sistema
está térmicamente aislado, el estado de equilibrio será el correspondiente a la máxima entropía
compatible con esos vínculos. De ese cálculo surgirá no solo que se igualan las presiones, las
temperaturas o ambas, sino en qué valores concretos.
Si se parte de una situación alejada del equilibrio (por ejemplo, dentro del recipiente hay un gradiente
de presión), siempre que se parta de una situación de equilibrio local (ver la sección sobre
termodinámica más allá del equilibrio) se puede usar exactamente el mismo principio. Se necesita sin
embargo una fuerte sofisticación matemática, porque ahora en vez de dos subsistemas de equilibrio
aparecen infinitos (cada elemento de volumen), pero aunque los cálculos sean mucho más complejos el
principio es exactamente el mismo.
Mínimo de la Función de Gibbs
Vamos a analizar un caso de gran importancia práctica: el caso en que el entorno del sistema de estudio
puede considerarse a temperatura y presión constantes. Como ya hemos dicho en varias oportunidades
ese es un caso relevante porque es la situación habitual en el laboratorio y en la vida (temperatura
ambiente y presión atmosférica). En este caso el sistema de estudio puede hacer tanto trabajo como
calor, así que la energía y la entropía del entorno pueden cambiar.
Observemos que la función de Gibbs del sistema de estudio es:
G sist =U sist +PV sist –TS=H sist −TS sist
(69)
siendo T la temperatura tanto del sistema de estudio como del entorno. Si la temperatura es constante,
el cambio de G será:
ΔG sist =ΔH sist –TΔS sist
(70)
Si queremos conocer la condición para que el proceso sea espontaneo debemos estudiar, aparte del
cambio de entropía del sistema, el del entorno. A temperatura constante, el cambio de entropía del
entorno por la temperatura es igual al calor cuasiestático que el sistema hace sobre el entorno. Como el
proceso ocurre a presión constante, el cambio de entalpía del sistema es igual al calor cuasiestático que
el entorno hace sobre el sistema. El proceso real seguramente no es cuasiestático, pero en la medida
que estudiemos cambios de estado no importa qué procesos usemos, solo los estados inicial y final, así
que lo mejor es usar un proceso que sepamos calcular. Entonces, el cambio de entropía del entorno es:
ΔS ent =
Q ent
T
=−
Q sist
T
18
=−
ΔH sist
T
(71)
de donde
ΔH sist =−TΔS ent
(72)
Reemplazando (72) en (70):
ΔG sist =−T  ΔS ent +ΔS sist  (73)
Usando el segundo principio en (73) obtenemos finalmente:
ΔG sist 0
PARA PROCESOS ESPONTANEOS A P y T CONSTANTES Y TRABAJO QUÍMICO NULO
Esto significa que para sistemas cuyo entorno no hace trabajo químico y se encuentra a presión y
temperatura constantes la función de Gibbs alcanza un mínimo.
A veces el mínimo alcanzado no es el mínimo absoluto sino uno local, como en el ejemplo de la
pelotita al comienzo de esta sección. Eso es lo que se llama un estado metaestable. Un buen ejemplo de
ese fenómeno es el agua subenfriada: a veces puede ponerse agua en el freezer que sigue líquida por
debajo de cero grados. Si eso ocurre, al agarrar la botella y darle un golpe se observa una formación
súbita de cristales de hielo. El golpe obligó al sistema a pasar al auténtico mínimo de G.
10.10- Ejemplo de uso: H y G en química.
Vamos a repasar ahora el uso de la entalpía y la función de Gibbs en el estudio de las reacciones
químicas. Empecemos por aclarar qué son las “tablas de entalpía molar” y de “energía libre molar” que
se usan en química. Lo que se hace es asignar arbitrariamente entalpía cero y función de Gibbs cero a
las sustancias formadas únicamente por un elemento. Esto puede hacerse porque lo único relevante son
los cambios. Así, por ejemplo, al oxígeno gaseoso y al hidrógeno gaseoso en condiciones de laboratorio
se les asigna Hm=0, Gm=0 (el subíndice “m” indica “molar”, es decir por cada mol). Para calcular la
entalpía de un mol de agua se mide el calor cuasiestático necesario para hacer reaccionar el oxígeno y
el hidrógeno que forman un mol de agua a presión y temperatura constantes. Por eso a esa cantidad se
le llama “calor de formación” o “entalpía de formación”. Lo más habitual es que las reacciones no
puedan realmente hacerse a presión y temperatura constantes, por lo que se debe usar algún otro
procedimiento, relacionando una serie de medidas con el cambio de entalpía usando la teoría
termodinámica (por ejemplo, por medio de relaciones de Maxwell). Lo mismo puede hacerse para
calcular funciones molares de Gibbs, y así podemos atribuir a cada sustancia un valor de H y de G.
Supongamos ahora que nos dan una ecuación química balanceada correspondiente a cierta reacción,
como por ejemplo:
2 CO+O 2  2CO 2
(74)
¿Cómo podemos calcular el cambio de H o de G en esta reacción? Por empezar, veamos que la entalpía
de los reactivos es (recuerden que al oxígeno le atribuimos entalpía cero):
19
mientras que la de los productos será
2H m,CO
(75)
2H m,CO
(76)
2
(los factores “2” en (75) y (76) se deben a que estamos considerando dos moles de sustancia). Para
calcular, entonces, el cambio de entalpía, imaginemos que primero disociamos los reactivos en sus
componentes (el cambio de entalpía es entonces −H m por cada mol de reactivo) y luego
recombinamos esos elementos en los productos (el cambio en ese paso será H m por cada mol de
producto). El cambio entonces al ir de los reactivos a los productos es la suma de ambos cambios, o sea
la entalpía de formación de los productos menos la entalpía de formación de los reactivos. Del mismo
modo con cualquier función de estado M. Si tenemos una ecuación balanceada
n R1 R1 +n R2 R2   n P1 P 1 +nP2 P 2 . .. (77)
el cambio de la función M será
ΔM=n P1 M m,P +n P2 M m,P −n R1 M m,R −n R2 M m,R −.. . (78)
1
2
1
2
La tabla de formación suele estar dada a cierta temperatura, presión y fase. Si los reactivos o productos
están en otra situación, deberá incluírse en el cálculo la variación necesaria para llevar cada sustancia a
las condiciones tabuladas. Pero para no meternos con sutilezas que distraigan de la esencia, vamos a
considerar solamente reacciones que ocurren para reactivos y productos en la situación registrada en
tablas.
De acuerdo a lo que sabemos, a presión constante el cambio de entalpía del sistema de estudio es igual
al calor que le hace el entorno, y por lo tanto es igual a menos el calor que el sistema hace sobre el
entorno. Por eso, si en esas condiciones una reacción es tal que el cambio de entalpía es negativo, el
sistema hará calor positivo contra el entorno (sentiremos que el tubo de ensayo se calienta). Por esa
razon tales reacciones se llaman “exotérmicas”. Si el cambio de entalpía es positivo, la reacción se
llama “endotérmica”3.
Otro uso importante de los potenciales de estado en química está vinculado a la predicción del caracter
espontaneo o no de la reacción estudiada. En la subsección anterior mostramos que en un sistema a
temperatura constante los procesos espontaneos son aquellos para los que la “energía libre” de Gibbs
del sistema disminuye. Esto crea la falsa ilusión de que uno está pudiendo prescindir del entorno en la
decisión de si el proceso es o no espontaneo. Es falsa justamente porque este criterio es válido sólo si el
entorno se mantiene en ciertas condiciones (presión y temperatura constantes). Si repasan la forma en
que se llegó a que G disminuye verán que se usa el hecho de que la entropía del sistema más la del
entorno aumentan. Esto lleva también a malentendidos respecto del significado de espontaneidad (vean
la subsección 9.1). A veces una reacción para la que G aumenta puede ocurrir (por ejemplo calentando
el tubo de ensayo, sometiendo a presión al sistema, etc). Esto no significa que ocurre una reacción “no
espontanea” (cosa que por definición no puede pasar) sino que el criterio de disminución de G ya no es
un buen criterio de espontaneidad, porque el entorno ha cambiado y no es más a T o P constante.
3
En un modelo en el que el calor se considera una sustancia esto se lee como que si la entalpía crece el entorno tiene que
“darle” calor al sistema, mientras que si la entalpía disminuye es porque parte del calor va del sistema al entorno. Este
lenguaje es habitual en los textos de química.
20
10.11- Ejemplo de uso: “Motores Químicos” (pilas, fotosíntesis, etc)
Vamos a hablar ahora de una aplicación relevante para estudiar sistemas vivos (¡Al fin!). Recordemos
que cuando usamos en química el criterio con el cambio de G estamos pensando en una reacción “de
tubo de ensayo”, en el que el objeto de estudio es toda la mezcla dentro del tubo. Si nuestro objeto de
estudio hubiera sido una sola sustancia hubiera habido trabajo químico sobre él, pero sobre el contenido
del tubo el entorno no hace trabajo químico. Esto no ocurre siempre así: para muchos sistemas
interesantes el entorno hace un trabajo químico sobre el sistema mientras la reacción progresa. Un
ejemplo paradigmático son las pilas y las baterías: mientras ocurre una reacción de óxido-reducción la
batería hace trabajo positivo contra el entorno. Durante un proceso de fotosíntesis, la radiación solar
hace un trabajo químico imprescindible sobre el sistema (agua y dióxido yendo a hidratos de carbono).
Esta es la razón histórica por la que a la función de Gibbs se le dio el nombre de “energía libre”: el
cambio de G se interpretó como “el máximo trabajo químico que un sistema puede hacer sobre el
entorno a presión y temperatura constante”. Veamos qué significa esto.
Para verlo, recordemos que el cambio de G a T constante es:
ΔG sist =ΔH sist +TΔS sist +W quim
(79)
Repitiendo los razonamientos ondujeron a (73) obtenemos:
ΔG sist =−T  ΔS ent +ΔS sist  +W quim
(80)
Entonces se cumple:
TΔS U =W quim− ΔG sist
(81)
Usando el segundo principio tenemos entonces:
W quim−ΔG sist 0 PARA PROCESOS ESPONTANEOS A P y T CONSTANTES
Este es probablemente el resultado más importante de la termodinámica en cuanto a sus implicaciones
para sistemas vivos. Vean: si queremos que una reacción química en la que el cambio de G es positivo
sea espontanea necesitamos un trabajo químico del entorno sobre el sistema más grande que el cambio
de G. Por ejemplo, si queremos transformar dióxido de carbono y agua en glucosa y oxígeno (sistema
de estudio) necesitaremos hacer un enorme trabajo químico por mol. Esto es precisamente lo que
ocurre en la fotosíntesis: la radiación solar hace ese trabajo. Después un animal (o la propia planta)
puede “quemar” esa glucosa con el oxígeno produciendo dióxido de carbono y agua; si lo hace con
suficiente cuidado puede hacerlo de modo que ese sistema haga sobre el entorno un trabajo positivo (el
entorno hace sobre el sistema un trabajo negativo). Ese trabajo químico puede “usarse” para hacer el
trabajo químico para sintetizar todas las proteínas y el ATP que hacen funcionar nuestros cuerpos.
21
11- Termodinámica más allá del equilibrio
11.1- ¿Qué es la termodinámica de no equilibrio?
Como en la práctica nada está en equilibrio, una respuesta facilista es que “todo” es termodinámica de
no equilibrio. De tan simplista, esa respuesta es perfectamente falsa. La verdad es que varios aspectos
vinculados a procesos de no equilibrio entre estados de equilibrio (aproximado) pueden estudiarse con
termodinámica de equilibrio (estados de equilibrio y procesos cuasiestáticos), mientras que muchos
fenómenos son demasiado complejos para ser abordados por la termodinámica.
En concreto, la “termodinámica de no equilibrio” es un marco teórico aún en construcción 4 en el que se
asume la validez de los dos principios pero en el que los “estados” ya no son de equilibrio interno. El
aspecto realmente complejo es la caracterización de esos estados y la construcción de funciones de
estado, que ya no pueden ser funciones de un número pequeño de variables. La única condición para
seguir considerándosela “termodinámica” es que todas las variables involucradas sigan siendo
macroscópicas: la temperatura, la densidad de entropía o un gradiente en un “punto” son cantidades que
involucran porciones de materia que aún pueden considerarse contínuas (un milímetro cúbico de aire
contiene unas 1019 moléculas).
Entonces tenemos, como variables en la termodinámica de no equilibrio, todas las viejas variables
intensivas (presión, temperatura, potencial químico, calor específico...) más versiones “locales” de las
extensivas (energía interna por unidad de volumen, entropía por unidad de volumen, etc), todas ellas
funciones de la posición y del tiempo. Y aparte aparecen variables nuevas, que en la termodinámica de
equilibrio no hubieran tenido cabida, como “conductividades térmicas”, “coeficientes de difusión” y
otras que vinculan entre sí distintos gradientes. Y aparece una cantidad fundamental, vinculada
directamente con el segundo principio: la producción de entropía por unidad de volumen y de tiempo.
Algunos problemas que no pueden estudiarse con termodinámica de equilibrio son:
• Estados estacionarios en sistemas abiertos. Por ejemplo: el perfil de temperaturas en una barra
cuyos extremos se mantienen a temperaturas diferentes. En estas situaciones uno no va de un
estado inicial de equilibrio a otro final de equilibrio sino que busca un cierto estado de noequilibrio.
• Detalles de la dinámica al pasar de un estado de equilibrio a otro. Por ejemplo, en la expansión
libre de un gas uno puede estudiar el cambio de U o de S con termodinámica de equilibrio
(porque es el mismo que para procesos cuasiestáticos) pero no hay manera de saber cuánto tarda
ni cómo son los gradientes en los instantes intermedios. Estos últimos son “estados de no
equilibrio”.
Volvamos a nuestro ejemplo de la fotosíntesis: usando termodinámica de equilibrio sabemos que el
trabajo químico que la planta debe hacer sobre el sistema de estudio (el agua y el dióxido de carbono
que pasan a ser carbohidratos) es mayor que el cambio de G para pasar de dióxido de carbono y agua a
carbohidratos. ¿Cuánto mayor? Si queremos detalles tendremos que estudiar un objeto bastante más
complicado que las meras sustancias y modelizarlo más allá del equilibrio. Tal vez
4
“Un marco teórico en construcción” es lo mismo que decir que no hay un marco teórico, sino un montón de ideas más o
menos desordenadas y la esperanza de que algún día se va a poder construír ese marco.
22
termodinámicamente, tal vez microscópicamente, tal vez lo que salga. Lo cierto es que el problema es
entonces mucho más complejo.
11.2- Equilibrio local
Este es el punto donde queda claro por qué el estudio de los estados de equilibrio es tan importante en
la termodinámica: muchos sistemas que no están en equilibrio pueden pensarse como sistemas
inhomogeneos en los que cada elemento de volumen es un estado de equilibrio interno. Esto implica
que:
• cada elemento de volumen tiene una temperatura, una presión y una densidad bien definidos y
medibles en todo instante de tiempo
• La entropía de cada elemento de volumen es función de esas variables, la misma función que
para los estados de equilibrio.
Esto resulta ser una excelente aproximación en muchísimas situaciones, porque es mucho más rápida la
llegada al equilibrio en escalas pequeñas que grandes.
¿Qué sucede cuando no hay ni siquiera equilibrio local? Sobre esto no hay acuerdo claro. Hay quienes
piensan que no tiene sentido asignar una entropía a estados que no sean de equilibrio. Según esta
visión, los casos en que no hay equilibrio local quedan fuera del alcance de la termodinámica. Otros
generalizan la definición de entropía, haciéndola depender también de gradientes. El hecho es que no
existe una teoría termodinámica sólida más allá del equilibrio local (aunque en rigor más acá tampoco
es del todo sólida). Por suerte, muchos problemas interesantes (incluso algunos muy alejados del
equilibrio global) pueden ser atacados satisfactoriamente bajo la hipótesis de equilibrio local.
11.3- Creación de entropía
Un ejemplo
Supongamos que ponemos una barra, digamos,
metálica, uno de cuyos extremos está en contacto con
un sistema a temperatura T1, y el otro está en contacto
con un sistema a temperatura menor T2. Supongamos
que esos sistemas son enormes y pueden mantenerse a
esas temperaturas cuando pasa el tiempo. Después de
un rato, uno espera que se alcance una situación
estacionaria, en la que se desarrolla un gradiente de temperaturas a lo largo de la barra que no cambia
en el tiempo. Observemos que la situación estacionaria no es de equilibrio: hay un proceso de calor
negativo sobre el sistema a temperatura T1 (cuya energía interna va disminuyendo) y uno de calor
positivo sobre el sistema a temperatura T2 (cuya energía interna va aumentando). Suponiendo que cada
elemento de volumen sobre la barra es un estado de equilibrio interno (o sea, hay equilibrio local) y
como la situación es estacionaria, la barra no cambia de volumen (el trabajo termodinámico sobre la
barra es nulo) y su energía interna permanece constante, el primer principio implica que el calor que el
23
sistema “caliente” le hace a la barra por segundo es igual al calor por segundo que la barra le hace al
sistema “frío” (a modo de ejercicio, verifíquenlo). Esto se puede interpretar como se hace
habitualmente en los libros como un “flujo de calor” atravesando la barra, y es por eso que se usa la
expresión “conducción del calor”5.
Veamos qué pasa si intentamos hacer algo similar con la entropía: igual que antes, debido a que la
situación es estacionaria y de equilibrio local, la entropía total de la barra no cambia en el tiempo. En el
extremo caliente de la barra “entra” por segundo una cantidad de entropía que es el calor por segundo q
dividido la temperatura “caliente”; en el extremo frío, “sale” de la barra una entropía por segundo igual
q
q
a q dividido la temperatura menor. Pero como T 2 <T 1 resulta T  T . En síntesis: por el lado frío
2
1
“sale” más entropía que la que “entra” por el lado caliente, pero la entropía “dentro” de la barra
permanece constante. Eso, que parece tan extraño, significa simplemente que la entropía no se
conserva, y muestra los problemas en los que se puede caer por porfiar en pensar en las funciones de
estado extensivas como fluídos. De hecho lo que ocurre es casi una obviedad: estamos hablando de un
proceso espontaneo, de modo que la entropía del Universo debe estar aumentando. Lo que pasa es que
antes comparábamos “fotos” (estados de equilibrio inicial y final) mientras que ahora el sistema
permanece en un estado estacionario, así que debe estar “produciendo” entropía todo el tiempo.
Veamos con más detalle lo que está pasando en cada punto de la barra: en esencia hay creación de
entropía porque hay un gradiente de temperatura. Por cualquier sección de la barra en cada segundo la
parte derecha hace sobre la izquierda un calor q, y la izquierda sobre la derecha un calor -q.
Introduzcamos un sistema de coordenadas horizontal sobre la barra, llamémosle x. La sección ubicada
en x está a temperatura T(x); la parte derecha tiene un aumento de la entropía de q/T(x) cada segundo.
Consideremos una rodaja de espesor Δx , la entropía creada por segundo por esa rodaja en el entorno
será
ΔS ent =−
q
q

T  x  T  x+Δx 
(82)
En este caso, dado que no hay trabajo, podemos pensar a q como un flujo de energía interna por
segundo a traves de la sección. Supongamos que la sección tiene área A. Si llamamos ju al flujo de
energía interna por unidad de tiempo y de area, q=j u AΔt , (82) puede reescribirse como:
ΔS ent =j u AΔtΔ
 T1 
(83)
Como además
 
1
T
1
d 1
Δ
=
Δx ~
Δx
T
Δx
dx T
 
Δ
 
podemos reescribir (83) como
5
 
d 1
dx T
ΔS ent =j u AΔxΔt
(84)
(85)
Las “leyes de la conducción del calor” las estableció Fourier hacia 1820, pleno auge de la teoría del calórico.
24
y como AΔx=δV
es el volumen (infinitesimal) de la rodaja, (85) puede expresarse como:
ΔS ent
d 1
=j
δVΔT u dx T
 
(86)
La cantidad sobre el miembro izquierdo es la producción de entropía del entorno por unidad de tiempo
y de volumen, a la que se le suele llamar σ
σ=j u
 
d 1
dx T
(PRODUCCIÓN DE ENTROPÍA POR FLUJO DE ENERGÍA)
Observen que σ no es el cambio de entropía del elemento de volumen (en situación estacionaria esa
entropía no varía) sino la producción de entropía en el entorno debida a ese volumen. Una cosa
remarcable es que ese entorno no es necesariamente el entorno inmediato. Para la barra analizada,
por ejemplo, las dos rodajas adyacentes a la estudiada también se encuentran en estados estacionarios,
de modo que sus entropías tampoco varían, y sí están “produciendo entropía en el entorno”. En este
caso las entropías varían para los focos caliente y frío entre los que está la barra, que no pueden estar en
un estado estacionario. Es interesante observar que no puede suponerse que todo el Universo está en
estado estacionario: la entropía de alguna parte está aumentando.
Si aplicamos el segundo principio de la termodinámica a cada elemento de volumen, y si llamamos s a
la “densidad de entropía” (entropía por unidad de volumen) a lo que llegamos es a que en cada punto se
debe tener (¡verifiquen!)
σ+
∂s
0 EN PROCESOS ESPONTANEOS
∂t
En procesos estacionarios la densidad de entropía no cambia con el tiempo, con lo que σ es positiva, y
por lo tanto la energía interna fluye en la dirección del gradiente de 1/T.
Vamos a ver a continuación que este esquema se generaliza: la producción de entropía de un elemento
de volumen en su entorno es una suma de productos entre flujos de variables extensivas (“flujos”) y
gradientes de variables intensivas (“fuerzas”). La interpretación habitual es que el gradiente es una
“fuerza”6 que provoca el “flujo” de la cantidad extensiva correspondiente.
Fuerzas y Flujos
Consideremos el primer principio en su versión entrópica (sección 10.7)
dS=
6
1
P
μ
dU+ dV − dn
T
T
T
(87)
Acá “fuerza” no se usa en el sentido newtoniano. De hecho usa una concepción del sentido común que es
antinewtoniana: que el “movimiento” (de la energía, en este caso) está causada por la “fuerza”. El uso es metafórico y no
es contradictorio con las leyes de Newton porque la energía interna no es una partícula con masa.
25
Supongamos que nuestro sistema de estudio está en un estado de
equilibrio local (pero no de equilibrio global). Tambien, para
simplificar, supongamos que la presión, la temperatura y el potencial
químico varían en una única dirección, a lo largo de la que definimos
un eje x. Analicemos la producción de entropía en un disco de área A y
espesor Δx como se muestra en la figura (el área es perpendicular al
eje x, es decir, a todos los gradientes). Supongamos que hay un flujo ju
de energía interna por unidad de tiempo y de área. Entonces
ΔU derecha=j u AΔt
(88)
Si ju es positivo entonces aumenta U a la derecha (y disminuye en la misma cantidad a la izquierda) del
área A, y a la inversa si ju es negativo. Entonces, la producción de entropía debida al primer término en
(87) en tiempo Δt será:

ΔS ent =j u AΔt −

1
1

. ..
T  x  T  x+Δx 
(89)
(el signo menos en el primer miembro de (89) se debe a que corresponde al cambio de U a la izquierda
del disco). Si el espesor del disco es muy pequeño podemos hacer lo mismo que hicimos en el ejemplo
de la barra más arriba, y la cantidad entre paréntesis es la derivada de 1/T respecto de x por el espesor
Δx . La producción de entropía resulta entonces:
ΔS ent =j u AΔxΔt
∂ 1
. ..
∂x T
(90)
análogamente a lo concluído para la barra sometida a un gradiente de temperatura. Veamos ahora la
variación de entropía en el elemento de volumen debido a la variación de energía interna, de acuerdo a
(87). Por empezar, el cambio de U es el cambio de la densidad de energía interna u por el volumen por
el tiempo (infinitesimal) transcurrido:
ΔU sist =
∂u
AΔxΔt
∂t
de modo que
ΔS sist =AΔxΔt
(91)
∂u 1
.. . (92)
∂t T
Como la suma de la energía mecánica y la interna se conservan, existe una relación entre la densidad de
energía y su flujo que tiene una expresión matemática al estilo de la ecuación de continuidad que
estudiamos para fluídos. Mencionamos esa relación, pero no vamos a entrar en los detalles
matemáticos. Sí debemos decir que en estos casos (variable extensiva conservada localmente)
modelizar la variable como sustancia resulta muy conveniente.
Lo interesante es que a partir de (87) tenemos una expresión para la variación de entropía del elemento
de volumen como de la entropía producida por ese elemento de volumen en su entorno, y que esta
última resulta del producto entre un flujo y un gradiente.
26
Veamos los otros dos términos en (87). El segundo es el referido a cambios de volumen. Ese término
contribuye al cambio de la entropía del elemento de volumen si cambia su densidad. Pero hay una
contribución a la entropía del entorno si por ese elemento hay un caudal a lo largo de un gradiente de
P/T. Veamos: el cambio de volumen a la derecha del área A será el caudal por el tiempo infinitesimal
transcurrido, y a su vez el caudal es la componente de la velocidad normal al área por esa área. Si la
velocidad es normal al área entonces el caudal es la rapidez por el área; en ese caso el cambio de
entropía en el entorno será:

ΔS ent =+vAΔt −

P  x  P  x+Δx 

.. . (93)
T  x  T  x+Δx 
Como antes, al hacer tender a cero el espesor de la rodaja la cantidad entre paréntesis pasa a ser el
gradiente (ahora de P/T) por el espesor del disco:
ΔS ent =+vAΔxΔt
 
∂ P
.. .
∂x T
(94)
Algo similar ocurre con el tercer término. Sumando los tres, resulta que la entropía producida por
nuestro elemento de volumen en el entorno en un tiempo infinitesimal Δt será:

ΔS ent =AΔxΔt j u
∂ 1
∂ P
∂ μ
+v
–j n
∂x T
∂x T
∂x T

(95)
Si pasamos dividiendo el área por el espesor por el transcurso de tiempo al lado izquierdo de (95),
obtendremos la producción de entropía por unidad de volumen y de tiempo en el entorno de ese
volumen:
σ=ju
∂ 1
∂ P
∂ μ
+v
–j
∂x T
∂x T n∂x T
(96)
Si la variación de las cantidades intensivas ocurriese no solo en el eje x, la expresión (95) tendría la
forma más sofisticada que aparece en la bibliografía, pero cuyo significado es esencialmente el mismo:

 
 1 
 P −
 
= j u . ∇
v .∇
jn .∇
T
T
T
 
(97)
Recordemos que σ es la entropía por unidad de tiempo que un punto produce en su entorno. Aparte, la
densidad de entropía del propio punto puede estar cambiando, de modo que (recordamos) la expresión
del segundo principio será:
σ+
∂s
0 EN PROCESOS ESPONTANEOS
∂t
(98)
Veamos un ejemplo bastante transitado: la biósfera terrestre. Si consideramos un proceso corto en
27
comparación con los tiempos evolutivos podemos suponer que la biósfera se encuentra, más o menos,
en un estado estacionario: la densidad de entropía no varía. En ese caso es σ el que debe ser
estrictamente positivo. Entonces el primer término en (97) señala que debe haber un flujo de energía
interna de las zonas cálidas a las zonas frías. El segundo término indica que el viento y las corrientes
oceánicas son una fuente de generación de entropía también. ¿Cuál es el entorno en este caso? El
interior de la Tierra y el espacio exterior. En algunos textos de ecología puede leerse que el Sol aporta
“energía de baja entropía” y que la Tierra emite al espacio, a través de los polos, “energía de alta
entropía”, y que ese flujo de energía es el que hace “funcionar” a los ecosistemas. Esas frases algo
vagas (y que retomaremos en la sección 13) adquieren su sentido en las expresiones (97) y (98).
Conviene no extrapolar esa forma de hablar demasiado lejos de esas expresiones.
11.4- El régimen lineal y las relaciones de Onsager
Si bien a partir de las relaciones (97) y (98) se pueden hacer varias inferencias cualitativas sobre lo que
ocurre en sistemas fuera del equilibrio, no se puede entrar en mayores detalles sin conocer los flujos. Es
razonable que para muchos sistemas de interés, si el desequilibrio no es muy grande, los flujos sean
proporcionales a las fuerzas. Este es el llamado “régimen lineal” y abarca los fenómenos habitualmente
llamados “de transporte”.
Estudiemos el caso de un fluído como en la subsección anterior. En el régimen lineal:


 

 
 
 1  ∇

j u=1 ∇
1
T
 1  ∇

v =3 ∇
2
T
 1  ∇

j n=5 ∇
6
T
P

2 ∇
T
P

4 ∇
T
P

3 ∇
T
 T 

T 
 T 
(99)
donde los coeficientes α representan la proporcionalidad entre el flujo y su fuerza conjugada, y los
coeficientes γ las contribuciones “cruzadas”. Esos números dependen de la sustancia y del estado en
que esta se encuentra, y deben ser medidos (o bien predichos a partir de una modelización
microscópica).
Se puede vincular las expresiones en (99) con leyes fenomenológicas. Por ejemplo la llamada
“conducción del calor”: la Ley de Fourier (caloricista) establecía que el “flujo de calor” es proporcional
 T donde κ es la “conductividad de calor” (para más
j q=−κ ∇
a menos el gradiente de temperatura: 
detalles vean en la sección siguiente). Desarrollando la expresión (99) para la corriente de energía
interna:


γ 
γ 
α γ P γ μ 

j u=− 2  1 2  2 2 ∇
T 1∇
P 2 ∇
μ
T
T
T
T
T
(100)
Comparando (100) con la Ley de Fourier se ve que la cantidad entre paréntesis es la conductividad
térmica. El segundo término representa posibles flujos de energía debidos a un gradiente de presión, y
el tercero uno debido a un gradiente en la concentración.
28
Lo cierto es que se ha detectado que las contribuciones cruzadas (los términos con γ ) suelen ser
iguales dentro del error experimental. Por ejemplo, en las expresiones (99), γ 1 =γ 3 . No hay una
explicación de esta observación a partir de los dos principios de la Termodinámica. Lars Onsager,
alrededor de 1940, mostró que si los sistemas se modelizan microscópicamente y se usa la
reversibilidad subyaciente en el sistema microscópico, esos coeficientes “cruzados” son iguales. Como
no puede demostrarse estas relaciones desde una modelización termodinámica, puede considerárselo
como un principio más; de hecho, en algunos textos aparece como el “cuarto principio de la
Termodinámica”7.
11.5- Fenomenología vs marco teórico
En las subsecciones anteriores hemos expuesto los elementos más firmes y consensuados de un marco
teórico en construcción. La termodinámica fuera del equilibrio no es propiamente una teoría, sino más
bien una colección de teoremas, algunos procedentes de la termodinámica de equilibrio, otros de las
modelizaciones microscópicas, más otra colección de conjeturas sin tanto consenso (la más notable,
probablemente, sea el “principio de mínima producción de entropía” de Prigoyine).
Lo cierto es que a la hora de la verdad, y excepto algunos argumentos en ecología, el formalismo que
hemos expuesto acá se usa muy poco. Ante situaciones concretas de no equilibrio se recurre a leyes
fenomenológicas, bien establecidas en el sentido de que dan respuestas sólidas a gran cantidad de
fenómenos prácticos (vean la subsección “fenómenos de transporte” en la sección 13). Por supuesto,
eso no significa que estudiar termodinámica de no equilibrio sea inutil: cuando los problemas son más
complejos y no están en el espectro de lo atacable por las leyes fenomenológicas, ese conocimiento
puede ser la única guía disponible a una solución. Pero es importante tener claro en mente que mucho
de lo expuesto en la bibliografía como “aplicaciones de la termodinámica” no está en el marco teórico
de la termodinámica contemporánea , y las distintas herramientas pueden entrar en contradicción mutua
o severos problemas si se las aplica demasiado lejos de sus dominios.
12- Conexiones con lo microscópico
12.1- ¿Qué quiere decir “microscópico”?
“Microscópico” no necesariamente significa “extremadamente chico”. Se habla de un nivel “micro”
cada vez que un sistema puede estudiarse también a un nivel “macro”, que es el resultante del
comportamiento colectivo de los constituyentes del nivel “micro”. Por ejemplo, la microeconomía
estudia las decisiones de individuos en situaciones económicas, mientras que la macroeconomía estudia
el comportamiento de las cuentas nacionales, como el PBI y la cantidad de moneda circulante. Un
bosque a nivel micro es cada uno de sus árboles y animales en interacción, mientras que su nivel macro
es el ecosistema.
7
El “Tercer Principio”, también inspirado en modelizaciones microscópicas, afirma que la entropía de una sustancia pura
es cero a temperatura absoluta cero. Esto no es verdad para un gas ideal, pero no se conoce ningún gas que no se haga
líquido a temperatura lo bastante baja.
29
Si lo que estudiamos es la materia según sus propiedades físicas, el nivel macro es lo que hicimos en
este curso: un auto completo puede ser estudiado por sus coordenadas en cinemática, sus coordenadas y
su masa en dinámica, como cuerpo rígido o como sistema elástico, y de muchas otras maneras. Lo
cierto es que modelizamos colectivamente porciones de materia sin preocuparnos por preguntas del
estilo “de qué está hecho”. El nivel micro, en cambio, consiste en alguna especulación sobre los
detalles internos del sistema. Estas especulaciones han cambiado mucho en los últimos tres siglos.
Newton, por ejemplo, imaginaba que los gases estaban formados por “partículas” idénticas, estáticas y
que se repelían. Boltzman imaginaba también partículas idénticas y diminutas, pero en vez de
repeliéndose, viajando a grandes velocidades y chocando desordenadamente entre sí y con las fronteras
del recipiente. La imagen actual de la materia a nivel microscópico es que está formada por objetos
complejos (que llamamos moléculas) que interaccionan entre sí y con radiación a traves de una teoría
conocida como Física Cuántica. Hay a su vez un marco teórico con el que se relacionan ambos niveles:
la Mecánica Estadística. Esta es una teoría sutil y compleja, que no reduce lo macroscópico a lo
microscópico pero sí logra hacer corresponder propiedades del modelo microscópico (como la masa o
la “forma” de las moléculas) y propiedades macroscópicas (como calores específicos o
compresibilidades).
Sin embargo, muchas de las concepciones “térmicas” que aparecen en libros de texto (muchas de las
cuales se usan actualmente en varios contextos científicos) bajo el título genérico de “termodinámica”
son las que fueron apareciendo tentativamente durante el siglo XIX, cuando ni la Termodinámica ni la
Mecánica Estadística estaban formuladas. Muchas son incompatibles entre sí porque corresponden a
teorías “competidoras” en su época, y todas tienen un rango de aplicación mucho más acotado que la
termodinámica o la mecánica estadística contemporaneas. En esas ideas tentativas las propiedades
macroscópicas aparecen entrecruzadas con modelizaciones microscópicas altamente especulativas: la
teoría atómica de Dalton es de 1802, el número de Avogadro se midió por primera vez alrededor de
1905, y la mecánica cuántica se desarrolló entre 1905 y 1930. ¡Todo es extremadamente nuevo! De
modo que durante el siglo XIX la física térmica era un cuerpo desordenado y confuso de ideas. Vamos
a repasar muy someramente algunas de las ideas “históricas” que siguen teniendo vigencia en los libros
de texto, y finalmente vamos a hacer un “tour” por la física estadística contemporanea.
12.2- Las “moléculas” durante el siglo XIX
Durante el siglo XVIII se desarrollaron las ideas “macroscópicas” de la química: elemento, sustancia y
reacciones químicas. Pero no fue hasta 1802 que apareció la noción química de “átomo” y “molécula”:
John Dalton logró explicar varios fenómenos (sintetizados en las llamadas “leyes estequiométricas”)
haciendo la suposición de que las sustancias están formadas por unidades mínimas (las “moléculas”)
formadas por la unión de unidades indestructibles correspondientes a cada elemento (los “átomos”), de
modo que las reacciones químicas consistirían en la desintegración de las viejas moléculas y la
formación de nuevas, siempre preservando la cantidad de cada tipo de “átomo”. La idea era de una
utilidad indudable en química, pero muchos se mantuvieron escépticos, a lo largo del siglo XIX, sobre
la posibilidad de que las moléculas fuesen objetos físicos (es decir objetos que se mueven,
interaccionan y a los que se pudieran aplicar las leyes de Newton). Durante el siglo XX se concluyó
que no lo eran, pero para entonces los átomos y las moléculas eran tan importantes que se hizo a la
inversa: se reformuló la física para que, bajo las nuevas leyes (la “mecánica cuántica”) las moléculas
resultasen estudiables físicamente. Lo cierto es que en el interín, mientras las moléculas eran entes
30
sobre todo químicos, algunos osados les atribuyeron propiedades físicas como posición, velocidad o
energía mecánica.
Esos eran los osados. En el marco de la química, en cambio, a las moléculas se les atribuía una masa
(aunque se le llamaba “peso molecular”) y se desarrolló la idea de “mol” como una cierta cantidad de
moléculas. Primero se definió el “número de Avogadro” A como la cantidad de moléculas de hidrógeno
presentes en dos gramos de gas hidrógeno. Aunque A no se midió hasta el siglo XX, no importaba:
estudiando las reacciones químicas se podía medir cuánto pesaba un “mol” de cualquier sustancia. Por
lo tanto, se podía decir, para una masa de sustancia, cuántas moléculas había, expresadas como
múltiplos del número A. Y aparecieron las sorpresas.
12.3- La misteriosa constante R
Durante los siglos XVII y XVIII se estudió el comportamiento de los gases que llevarían a la
formulación de la ecuación de estado de los gases ideales, que podríamos expresar como
PV=CmT
donde m es la masa de gas estudiada, y C una constante que depende del gas. Ahora bien, la masa de
gas puede expresarse como el número de moles por la masa de un solo mol de gas (la llamada “masa
molar” M) la expresión anterior puede escribirse como
PV=  CM  nT
Y acá aparece la primer sorpresa: si bien C y M son distintos para cada gas, el producto CM es
básicamente el mismo para todos los gases: la consabida constante R. Y la sorpresa no se termina: si se
expresa el calor específico a volumen constante por mol (en vez de por unidad de masa) para algunos
3
5
6
gases C V = 2 R , para otros C V = 2 R y para algunos otros C V = 2 R= 3R .
Hasta acá uno podría pensar que hay un misterio sobre los gases, pero resulta que si uno expresa el
calor específico de varios sólidos (metales, diamante y otros cristales) por mol en vez de por unidad de
masa el calor específico resulta ser, con buena aproximación, 3R.
Para colmo, todas estas “leyes” son aproximadas. Parece casi un capricho que los gases tengan un calor
específico de “aproximadamente” un semientero de R. Y para algunas sustancias (el almidón, por
ejemplo) la falla es estrepitosa. Y como si todo esto fuera poco, para todas las sustancias todas estas
aproximaciones fallan por completo si la temperatura baja lo suficiente.
Este era el rompecabezas que enfrentaban químicos, físicos e ingenieros interesados en cuestiones
térmicas durante el siglo XIX. Lo que parecía lógico era suponer que algo ocurría molécula por
molécula. Por ejemplo, si se supone que en un sólido cáda molécula “absorbe” una cantidad de calor
(pensado como sustancia, que era la teoría dominante en la primer mitad del siglo XIX) por grado
puede admitirse que todos los sólidos tengan el mismo calor específico molar, pero el hecho de que sea
un múltiplo semientero de R sigue siendo un misterio bajo esta mirada.
31
Por un tiempo, la idea de que el calor es una sustancia que es atraída por las moléculas y se repele a sí
mismo gozó de gran popularidad a pesar de no poder explicar esos extraños coeficientes semienteros
porque en cambio explicaba muchas cosas interesantes. A modo de ejemplo: explicaba la expansión
térmica (cuanto más calor, más repulsión) o el calor latente considerando que la diferencia entre fases
era la cantidad de calor por molécula. Pero hacia la segunda mitad del siglo XIX el calórico cayó en
desgracia y le llegó una oportunidad a la mecánica.
12.4- Las ideas de Boltzman
El calórico tenía un problema serio: no podía explicar el calor “producido” durante una fricción en la
que la estructura de los materiales no se modificara. Pero, aunque parezca sorprendente, tuvo su golpe
de gracia cuando la teoría ondulatoria de la luz pudo ponerse en términos de campos electromagnéticos.
Por entonces se creía firmemente que la luz y el calor eran manifestaciones de un mismo fenómeno
(aún hoy circula la idea popular de que el calor es “radiación infraroja”), y al caer la idea sustancialista
para la luz simplemente se dejó de creer en el calórico.
Por entonces se desempolvó una idea antigua de Leibnitz, quien para justificar el hecho de que su “vis
viva” (la actual energía cinética) no se conservaba postuló que lo que ocurría era que el movimiento
que dejaba de observarse macroscópicamente pasaba a ser oscilaciones microscópicas inobservables
del material. En tiempos de Leibniz no se podía avanzar, pero en el siglo XIX estaban las moléculas,
listas para cumplir las leyes de Newton y tener energía cinética. No dejaba de ser una especulación
osada, pero ahora, gracias a los avances de la química, se podían hacer algunos cálculos. A esta
alternativa al calórico se la llamó “teoría mecánica del calor”, y es en esta corriente en la que se
desarrolló la idea de “entropía”. Ellos fueron también los primeros en hablar de “orden” y “desorden”:
según ellos, lo que comunmente se llamaba “energía mecánica” correspondía a “movimiento ordenado”
(todos los átomos en la misma dirección), mientras que la energía interna correspondería a
“movimiento caótico”. Aunque esta idea era bastante vaga, cuando empezó a quedar claro el rol de la
entropía en la teoría lo lógico es que este grupo buscara vincular de algún modo a esta con la idea de
desorden.
Pero el más osado de todos ellos fue un tal Ludwig Boltzman (Austria, 1844-1906), quien estaba
convencido de que podía aplicar la teoría de Newton a las moléculas de un gas y deducir de allí las
propiedades termodinámicas de este. Esta idea reduccionista suele darse por hecho en no pocos textos.
La idea fundamental era involucrar la estadística: Boltzman se preguntaba cómo debía distribuirse la
energía total (que ahora era la suma de las energías mecánicas de las “moléculas”. En un caso extremo,
un solo átomo tiene toda la energía y los demás están quietos: un solo microestado. Si la energía
empezaba a “repartirse” había más microestados correspondientes al mismo macroestado (energía total
U). Boltzman partió de la suposición de que el estado de equilibrio correspondía al que “repartía” la
energía en un mayor número de microestados. Fue entonces cuando concibió la fórmula que figura en
su tumba: S = k log W, donde k = R/A (hoy conocida como “constante de Boltzman”) y W es el
número de microestados compatibles con el macroestado. Esto último, el “número de microestados”, es
una cantidad terriblemente ambigua. Hace falta toda una serie de reglas adicionales para darle sentido.
Pero lo cierto es que todo este marco (conocido como “teoría cinética”) era muy exitoso para dar
cuenta de las propiedades de los gases.
32
De todos los triunfos de la teoría cinética, probablemente el más convincente fue el que permitió
explicar que los calores específicos sean múltiplos semienteros de R: de acuerdo a la prescripción de
que el número de estados sea máximo Boltzman fue capaz de deducir que la energía se “reparte” en
partes iguales para todos los “grados de libertad” de las “moléculas” (resultado conocido como
“equipartición de la energía”). La energía por grado de libertad de cada molécula resultaba de kT/2.
Así, razonaba Boltzman, la energía de moléculas monoatómicas, que podían pensarse como puntos, era
en promedio 3kT/2 (porque la molécula puede moverse en cualquiera de los tres ejes). Una molécula
diatómica puede girar sobre dos ejes además de moverse como un todo a lo largo de tres ejes: cinco
grados de libertad. Entonces su energía promedio será de 5kT/2. Y así sucesivamente. Los átomos en
sólidos cristalinos tendrían tres grados “cinéticos” y tres grados de libertad “potenciales” debido a la
interacción elástica entre ellos. Energía promedio: 3R. Consideren ahora un mol de cualquiera de estas
sustancias y vean en cuánto cambia su energía al cambiar la temperatura a volumen constante, y
tendrán el resultado.
Todo esto estaba muy bien, pero (le criticaban) nada en las leyes de Newton permitía deducir la regla
de que la energía se repartía en el mayor número de estados. Aunque Boltzman suponía que era un
resultado “lógico”, se embarcó en el proyecto de demostrar que aplicando las leyes de Newton a un
número enorme de “moléculas” podía demostrarse su hipótesis. La tarea no fue sencilla, Boltzman tuvo
que generar un conjunto de ideas audaces y complejas, hasta que finalmente anunció lo que llamó el
“teorema H”. Según Boltzman, podía construírse una función H (función del microestado del sistema)
tal que, al evolucionar el sistema de acuerdo a las leyes de Newton, nunca puede crecer. Identificó esa
función como el opuesto de la entropía. Así, según Boltzman, un montón de partículas newtonianas
interactuando con fuerzas conservativas terminaba comportándose irreversiblemente, dando lugar al
comportamiento termodinámico.
12.5- Disparen sobre Boltzman
Si las ideas de Boltzman habían sido resistidas antes del teorema H, a partir de entonces las críticas
fueron despiadadas. Pero antes de empezar a comentar esas críticas, veamos una objeción que entonces
no existió o no fue muy tenida en cuenta: algo huele mal con la equipartición de la energía. Por ejemplo
¿Por qué las moléculas diatómicas no podrían girar sobre su eje? ¿Por qué no podrían vibrar? Cualquier
grado de libertad, por rígido que sea, en principio debería acaparar la misma energía que los demás
modos. ¿Cómo sabe uno cuándo dejar de incorporar modos? Para colmo, si uno aumenta lo bastante la
temperatura el calor específico aumenta, pasando rápidamente, por ejemplo, de 5/2R a 3R. Como si los
grados de libertad más rígidos se fueran “despertando” a medida que la temperatura aumenta. Desde el
punto de vista de la Física clásica eso no tiene ni pies ni cabeza.
Pero lo que más revuelo armó era la idea de que podía hacerse un sistema irreversible (termodinámica
de un gas) juntando muchísimos sistemas que interactúan reversiblemente (“moléculas” cumpliendo
con las leyes de Newton a través de fuerzas conservativas). Para que todo funcione, las “moléculas”
deben interactuar a traves de fuerzas conservativas, o si no su energía mecánica no se conservaría. Y
eso es fundamental para “explicar” el primer principio a partir de la física microscópica. Ahora bien,
¿Qué pasa si tomamos un sistema cuyo H no ha parado de disminuir, e invertimos todas las velocidades
de cada una de las “moléculas”? De acuerdo a las leyes de Newton el sistema simplemente irá marcha
33
atrás hasta el estado inicial. ¡Y en ese proceso H tendrá que aumentar! Ese es el núcleo de la crítica de
Loschmidt (hoy conocida como la “paradoja de Loschmidt”): algo tiene que estar mal en la
demostración del teorema H.
Hoy se sabe exactamente dónde está el error de Boltzman: en un punto, sin explicitarlo, Boltzman
supuso que las probabilidades de lo que ocurriera en la interacción entre dos “moléculas” es
independiente de la historia previa. Eso, por supuesto, no puede ser verdad en un sistema reversible.
Esta hipótesis adicional se conoce hoy como hipótesis de caos molecular, y sin ella es imposible
conectar la microfísica con la termodinámica.
12.6- Tour guiado por la Mecánica Estadística
Hoy en día existe una teoría sólida que permite conectar modelos microscópicos con las propiedades
termodinámicas de un sistema: la Mecánica Estadística. Pero, recalcamos, eso no significa que la
termodinámica queda reducida a lo microscópico: en un punto se requiere de una hipótesis al estilo del
caos molecular para terminar de establecer la conección.
Por empezar, debemos aclarar que es muy limitado lo que puede hacerse con física newtoniana.
Durante el siglo XX se desarrolló un nuevo marco teórico que pudiera usarse para describir átomos y
moléculas, y fue una teoría extraordinariamente exitosa: la Mecánica Cuántica. Y también
extremadamente antiintuitiva, muy diferente a la física newtoniana en muchos sentidos. Pero,
curiosamente, la Mecánica Estadística encaja mucho mejor con la física cuántica que con la
newtoniana. Y además da excelentes resultados: por ejemplo da perfecta cuenta del fenómeno del
“despertado” de grados de libertad en los calores específicos que mencionamos en la subsección
anterior.
El primer paso consiste en imaginar todos los posibles microestados de nuestro sistema. Esto es lo que
se conoce como “ensemble”. Cualquier cantidad que deseemos (la energía, por ejemplo) será un
promedio de la correspondiente cantidad de los microestados, pesada por una probabilidad para ese
microestado. Esta asignación de probabilidades es la que juega un rol similar a la hipótesis de caos
molecular: es imposible justificarla a partir de las propiedades microscópicas del sistema.
Hay tres tipos de ensemble: el “microcanónico”, el “canónico” y el “grancanónico”. En el primero se
supone que el sistema está perfectamente aislado (la energía total es siempre la misma) y se hace la
suposición de que cada microestado es igualmente probable. La entropía se define como el logaritmo
del número de microestados. Entonces, usando esa función como un potencial, se obtienen la presión,
la temperatura o cualquier otra variable de interés. En el ensemble canónico se supone que se mantiene
el número de partículas, pero en lugar de mantener la energía lo que se hace es tener al sistema en
contacto con uno mucho mayor a temperatura T. Considerando al “universo” (sistema de estudio más
sistema a temperatura T) como un ensemble microcanónico, uno llega a demostrar que la probabilidad
E /kT
de cada microestado es proporcional a e
, donde E i es la energía del estado correspondiente de
acuerdo al modelo microscópico empleado. La cantidad central a calcular es la “función de partición”,
que es la suma sobre todos los microestados de ese factor. Todas las cantidades termodinámicas
resultan de manipulaciones adecuadas de esa función. Finalmente, en el grancanónico se supone que el
sistema se mantiene a temperatura y potencial químico constantes, y se hacen cuentas distintas pero
i
34
similarmente esotéricas.
La mecánica estadística es extremadamente técnica. Se requiere de una teoría microscópica en el marco
de la física cuántica y una fuerte dosis de cálculo matemático. Solo despues de todo eso, como una
descripción, se habla de cosas como “desorden” o “información”. Si uno trata de llegar a conclusiones
sobre la entropía con una interpretación personal de lo que sea el “desorden” en nuestro sistema, sin
usar mecánica estadística, probablemente llegue a conclusiones sin sentido.
12.7- ¿Cómo sé si necesito de la mecánica estadística para resolver
un problema?
No pueden darse reglas de aplicación mecánica para decidir cuándo debe usarse física macroscópica o
cuándo es imprescindible acudir a lo microscópico. Pero sí pueden darse algunos criterios útiles.
Por empezar, si las variables relevantes del problema son todas macroscópicas es casi seguro que el
problema puede resolverse a nivel macroscópico. En cambio, si el problema consiste en estudiar los
efectos de usar cierto tipo de molécula en lugar de otro para cierto proceso, casi sin duda se necesita
una descripción microscópica.
Supongamos que uno hizo algún tipo de modelización microscópica en que las “moléculas” son esferas
rígidas de radio R, y llega a calcular un calor latente (por decir algo) que queda como función de ese
radio. En ese caso el modelo es fuertemente dependiente de lo microscópico. En cambio, si el resultado
al que uno llega es totalmente independiente de las características de la molécula, no está claro si ese
resultado depende o no de lo microscópico que uno supuso. En ese caso conviene tratar de resolver el
problema macroscópicamente. Eso a veces puede ser complejo o sutil (un ejemplo son las “relaciones
de Maxwell”).
Otras veces uno puede estudiar ciertos fenómenos que uno mide macroscópicamente y encontrar que se
dan regularidades que uno no puede explicar macroscópicamente. Uno podría entonces tratar de
correlacionar las cantidades estudiadas con algún dato micro (un ejemplo es el de los calores
específicos en relación al número de moléculas). Si uno encuentra ese tipo de correlaciones es muy
probable que para entenderlas uno necesite una descripción microscópica. Si no aparecen correlaciones
así, puede ser simplemente que no hemos dado con el razonamiento macroscópico adecuado, o bien
con la variable microscópica relevante.
En definitiva, sólo la práctica dota a uno de la capacidad de decidir si el problema que uno tiene entre
manos es resoluble macroscópicamente o si se requieren dosis de física estadística.
13- La Termodinámica Realmente Existente8
8
Varios teóricos de orientación marxista han llamado “socialismo realmente existente” a las experiencias socialistas
concretas del siglo XX (Unión Soviética, China, Cuba, Vietnam, etc) por oposición con el socialismo teórico de Marx.
35
Hasta acá hemos intentado dar una visión coherente de la termodinámica. O sea, hemos armado un
formalismo, hemos construído un marco teórico y nos hemos preocupado por expresar todos los
conceptos y los métodos en ese marco, y hemos explicitado cada vez que nos salimos de ese marco. La
idea de proceder así es poder conectar entre sí las ideas termodinámicas, y hacer contacto con las
herramientas conceptuales y de procedimiento del resto del curso (objeto de estudio, entorno, fronteras,
interacciones, estados, procesos). Pero ese objetivo tiene un costo: algunas de las herramientas y mucho
del lenguaje habitualmente usados quedan afuera de ese formalismo, y a veces queda la sensación de
que se ha aprendido un dialecto exótico mientras que los demás hablan inglés.
El propósito de esta sección es mitigar esa sensación y proveer un puente con los usos corrientes de las
herramientas termodinámicas que aparecen tanto en textos introductorios como en aplicaciones.
Cuando las desviaciones de la ortodoxia termodinámica sean graves vamos a rezongar un poco.
13.1- Fenómenos térmicos
Hay ciertas leyes fenomenológicas que se presentan en la bibliografía como contenidos en sí: la
dilatación térmica, el cambio de temperatura “por transferencia de calor”, la compresibilidad, etc.
Dilatación térmica
El asfalto de la calle se expande con el aumento de la temperatura. Esa es la razon por la que muchas
veces se asfalte por bloques separados por juntas de brea. También es la razon por la que a veces en
verano el asfalto se levanta. En realidad casi todas las sustancias se expanden al aumentar su
temperatura (un contraejemplo notable es el agua entre cero y cuatro grados centígrados). Los
termómetros de mercurio funcionan así: cuanto mayor la temperatura, más volumen ocupa el mercurio
y entonces indica más alto en la escala del termómetro.
Para ser concretos, tomemos un bloque de un
material cualquiera como el de la figura. Si
el cambio de temperatura es pequeño, puede
hacerse la aproximación de que el cambio de
tamaño de un objeto es proporcional a ese
cambio:
ΔL ∝ ΔT
(101)
Va a ocurrir análogamente con h, e o cualquier otra dimensión lineal (por ejemplo, una diagonal). Pero
el cambio de tamaño también debe ser proporcional al propio tamaño: si una sisterna de acero de 40
metros de largo que se calienta cincuenta grados se agranda en cinco centímetros, no es razonable que
con el mismo cambio de temperatura un prendedor de acero de dos centímetros se agrande cinco. Lo
lógico es que el aumento de tamaño sea un cierto porcentaje del tamaño del propio objeto, o sea que el
cambio del tamaño es proporcional al tamaño mismo:
ΔL ∝ L
36
(102)
Las expresiones (101) y (102) pueden sintetizarse en la siguiente expresión:
ΔL=αLΔT
EXPANSIÓN TÉRMICA LINEAL (103)
donde α es el coeficiente de expansión lineal, que depende del material. Por supuesto, para el resto de
las dimensiones lineales tendremos expresiones similares:
Δh=αhΔT
Δe=αeΔT
Veamos lo que ocurre con un área. Razonando análogamente a como hicimos para llegar a (103)
obtenemos
ΔA=βAΔT
EXPANSIÓN TÉRMICA SUPERFICIAL (104)
Pero como las superficies están relacionadas con las dimensiones lineales, β no puede ser
independiente de α . Veamos como ejemplo el área frontal del bloque cuya superficie es e.h:
ΔA=  e+Δe   h+Δh  −eh
(105)
Desarrollando (105) y usando (103) para expresar los cambios de e y h tendremos:
ΔA= 2 αAΔT+  αAΔT 
2
(106)
Como se supone que el cambio es chico en comparación con el área, el término cuadrático en (106)
puede despreciarse, y comparando el otro término con (104) llegamos a que
β= 2α RELACIÓN ENTRE LOS COEFICIENTES LINEAL Y SUPERFICIAL
(107)
Se puede razonar idénticamente con la expansión de volumen:
ΔV=γVΔT
EXPANSIÓN TÉRMICA VOLUMÉTRICA (108)
con
γ= 3α RELACIÓN ENTRE LOS COEFICIENTES LINEAL Y VOLUMÉTRICA
(109)
Este coeficiente de expansión es el mismo del que hablamos en la subsección 10.8 (Relaciones de
Maxwell), solo que allí le llamamos α en lugar de γ , como es habitual en termodinámica (la notación
usada en esta subsección es habitual en textos introductorios). Como vimos en la subsección 10.8 ya
mencionada, el coeficiente de dilatación volumétrica entra en razonamientos termodinámicos
sofisticados en los que se lo puede relacionar con otros coeficientes. Las dilataciones lineal y
superficial pueden entrar si la modelización termodinámica no es de fluído (por ejemplo, en un medio
elástico). Pero sin insertarlas en razonamientos termodinámicos las expresiones (103), (104) y (108)
tienen aplicaciones prácticas directas, por ejemplo si queremos saber qué distancia tenemos que dejar
entre rieles en invierno para que en verano no se arruinen, o cuánto podemos llenar un tanque de
petroleo a la madrugada de manera que no se vuelque al mediodía.
37
“Transferencia de calor”, calor específico
Un problema típico de texto introductorio sobre “termodinámica” puede decir algo así como:
¿Cuánta energía debe transferirse a 10 gramos de agua para elevar su temperatura en 15 grados?
O
¿Cuánto calor debe...?
En algún lado habrá una tabla o se dejará el dato de que el calor específico del agua es de una caloría
por gramo y grado centígrado, y que una caloría son 4,2 joules. En este apunte hay más que suficiente
teoría para resolver estos problemas, el inconveniente es el lenguaje. El calor específico suele estar
definido como la “cantidad de energía en forma de calor que hay que entregarle a un gramo de
sustancia para elevar su temperatura en un grado centígrado”. Esa definición es problemática por
varias razones. Por un lado, parece implicar que la temperatura cambia si y sólo si hay un proceso de
calor, lo cual como vimos no es cierto. Por otro lado considera al calor como una sustancia que se le
“agrega” al sistema (y por lo tanto, una vez que se le “agrega”, queda “en” el sistema). Nosotros
sabemos que el calor que el entorno hace sobre el sistema depende del proceso (y por eso, cuando
definimos calores específicos, los definimos para ciertos procesos). Suele estar implícito que se trata de
calores específicos a presión constante, porque es el caso habitual en el laboratorio. Finalmente sólo
tiene en cuenta sistemas cuyo calor específico no depende de la temperatura. Dado todo esto, se escribe
algo como
Q=CmΔT
(110)
que es, desde luego, idéntica a la expresión que obtendríamos si usáramos lo visto en la sección 8.1
para una situación en la que el calor específico C es constante. Lo que cambia es la interpretación:
mientras que en el lenguaje de la sección 8.1 (110) sería “el proceso de calor que el entorno hace sobre
el sistema para llevarlo de la temperatura inicial a la temperatura final a presión constante”, en el
lenguaje habitual de los textos introductorios se trata de “el calor (o la energía, o la energía en forma de
calor) que hay que transferirle al sistema para elevar su temperatura de la temperatura inicial a la final”.
En esa forma de decirlo desaparece el entorno (la presión constante) y el calor Q parece ser el único
ente capaz de llevar al sistema del estado inicial al estado final.
Esa forma de leer la expresión (110) tiene, por supuesto, una raíz histórica. En los tiempos del calórico
se consideraba que la ocurrencia de cambios de temperatura era la forma en que se manifestaba el flujo
de calórico, a menos que pasara algo más (como un cambio en la composición o del estado de
agregación). La caloría se definió como la cantidad de calórico necesaria para elevar la temperatura del
agua de 14,5 grados centígrados a 15,5 grados centígrados, y en base a esta definición se midieron los
calores específicos (a presión constante) de las demás sustancias. Esta concepción es la que se usa en
calorimetría, que es la subsección siguiente.
Consideraciones análogas pueden hacerse respecto del “calor latente” (en este lenguaje sería la
diferencia de calor almacenado en cada estado de agregación) y del “calor de reacción” (el cambio de
entalpía en una reacción química, que en este lenguaje se interpreta como la diferencia de calor
almacenado entre reactivos y productos).
38
13.2- Calorimetría
A pesar de que la teoría del calórico se considera obsoleta desde alrededor de 1850, mucho del lenguaje
generado entonces y de las estructuras de pensamiento permanecen. Parte del problema es que las
técnicas de laboratorio con las que se miden procesos de calor son exactamente las mismas que en
tiempos del calórico, aunque la interpretación sea muy distinta. El término calorimetría se refiere a los
fenómenos térmicos empleados para medir procesos de calor.
El problema 1 (subsección 8.1) y el problema 2 (subsección 8.2) son problemas típicos de
“calorimetría”. La idea es suponer un sistema aislado (en el que no puede entrar ni salir “calor”) en el
que partes inicialmente están a temperaturas distintas y terminan teniendo la misma al alcanzar el
equilibrio. El planteo es que, dado que el “calor” se queda en el sistema, el “calor” que “entrega” una
parte caliente lo “recibe” la parte fría. La inspiración caloricista de esta forma de pensar es evidente.
La razón de semejante nombre se debe a un artefacto, el llamado “calorímetro”, que es lo que se usa
para medir procesos de calor desde el siglo XVIII. El calorímetro es un tacho con un tacho más chico
adentro. El tacho de afuera tiene una cantidad de agua conocida (medida previamente) y está aislado
del exterior por una frontera lo más adiabática posible. En el tacho interior se coloca el sistema de
estudio. La frontera entre éste y el agua es impermeable y diatérmica. En el agua se coloca un
termómetro, que registra las temperaturas inicial y final de esta. Entonces se hace el proceso a
considerar sobre el objeto de estudio. Por definición, el calor específico del agua es de una caloría por
gramo por grado centígrado, de manera que sabiendo que el calor que el sistema le hace al agua es
menos el calor que el agua le hace al sistema, usando (110) y la diferencia de temperatura medida se
puede determinar el calor que ocurrió sobre el sistema de estudio. En “lenguaje calórico” diríamos: “el
calor que le entregó el sistema de estudio al agua elevó su temperatura, así podemos medir en cuánto
aumentó la energía del agua”. Debe decirse que el lenguaje de la teoría del calórico es tan cómodo de
usar para calorimetría que es dificil criticar a quienes se apegan al uso. El problema no es en realidad el
uso de ese lenguaje sino su naturalización, el pasar a sentir como “evidente” el caracter sustancial del
calor. Esos son los riesgos de empezar una exposición de la teoría termodinámica a partir de la
calorimetría.
Fue también un calorímetro el que permitió establecer la
“equivalencia mecánica del calor”, la famosa equivalencia
entre 1 caloría y 4,2 joules. Lo hizo, por supuesto, Joule.
A la izquierda se muestra un esquema del calorímetro de
Joule: un tanque con una cantidad conocida de agua, en su
interior una paleta que puede ser accionada por el
movimiento de una pesa que baja. Suponiendo que la masa
y la fricción en las poleas es despreciable, la diferencia de
energía mecánica de la pesa desde que sale hasta que está
por tocar la mesa es igual al trabajo que sobre ella hace el
agua. Usando el primer principio en su versión completa
vemos que el cambio de energía mecánica de la pesa (antes
de que la mesa accione sobre la pesa) es igual a menos el
39
cambio de energía interna del agua. Como no hay trabajo termodinámico sobre el agua, debe actuar un
calor (este análisis es similar al que hicimos como ejemplo ilustrativo del primer principio en la sección
7). Actúa calor a presión constante, de modo que puede usarse (110). En efecto, si este experimento se
hace con todo cuidado, se nota que la temperatura del agua aumenta. Comparando las calorías
calculadas mediante (110) con el cambio de energía mecánica de la pesa puede determinarse, como
hizo Joule, que 1 cal = 4,2 J.
Veamos cómo se describe este experimento habitualmente en la bibliografía. Muchas veces se dice
“Joule demostró que el calor y la energía se pueden interconvertir, y que por lo tanto el calor es una
forma de energía”. Es probable que Joule haya usado un lenguaje así: corría 1850 (la termodinámica
contemporanea alcanzó su forma actual recién hacia 1900) y la teoría dominante era todavía la teoría
del calórico. Entonces, con el calor pensado como una sustancia, lo que parecía ocurrir era que la
fricción “producía” calor. El calor era una sustancia que se podía crear. Y se lo podía crear a expensas
de “destruír” trabajo. La energía era concebida todavía, mecanicistamente, como “capacidad de
producir trabajo”, de modo que el calor era una forma de energía porque al entrar en una máquina
térmica una parte de él podía “convertirse” en trabajo. Esta misma concepción, pero ya incorporando
una mirada del segundo principio, está detrás de otra expresión habitual: “la energía mecánica de la
pesa se disipa en forma de calor”. Esto tiene en mente la idea de que la energía, una vez “convertida”
en calor, no puede ser completamente “convertida” en energía mecánica, porque para “reconvertirla”
una parte debe “entregarse” a un sistema a menor temperatura (vean la sección 9.3). Todavía hay otra
expresión habitual en los libros, que hace uso de una concepción microscópica del agua: “la energía
ordenada de la pesa pasa a ser energía desordenada de las moléculas del agua”. Esta expresión es
propia de la “teoría mecánica del calor” (~1870, vean la sección 12.4).
Los calorímetros son artefactos de gran popularidad entre los físicos, asociados desde siempre a la
medición de “energías” en el imaginario de la comunidad. Tal es así que, en los aceleradores de
partículas como el LHC, ciertos detectores sensibles a la energía total de las partículas que colisionan, a
los que la temperatura no les varía en absoluto, son conocidos como “calorímetros”. Tal vez por eso se
insiste tanto con problemas y teorías vinculados a la calorimetría.
13.3- Primer Principio en varios dialectos
Convenciones de signos
En este apunte nos hemos apegado al uso de considerar el cambio de estado del sistema de estudio
causado por las acciones del entorno sobre este. Si el entorno hace sobre el sistema un trabajo o un
calor positivos, la energía interna del sistema aumenta. Pero en el origen fueron las máquinas térmicas,
y las máquinas térmicas actúan sobre el entorno. O mejor dicho, el interés de quien las estudia es lo que
la máquina hace sobre el entorno. El trabajo que el sistema de estudio (máquina o no) hace sobre el
entorno es menos el trabajo que el entorno hace sobre él. Así, si Q es el calor que el entorno hace sobre
el sistema de estudio (o, en lenguaje sustancialista, el “calor neto que entra al sistema”) y W es el
trabajo que el sistema hace sobre el entorno, la primera ley será:
ΔU=Q–W
(PRIMER PRINCIPIO EN FORMATO REVOLUCIÓN INDUSTRIAL)
A veces se escribe el primer principio de un modo aún más desfachatadamente ingenieril, pensando ya
40
en una máquina de Carnot, y en vez del calor neto se especifica el “calor recibido” (por una fuente
caliente) y el “calor entregado” (a una fuente fría)
ΔU=Q recibido −Qentregado –W
(PRIMER PRINCIPIO EN FORMATO DESFACHATADAMENTE INGENIERIL)
Huelga decir que el lenguaje sustancialista usado aquí, a imagen y semejanza de varios manuales de
física, no es adecuada para la visión contemporanea de la termodinámica. En particular, la forma
“desfachatadamente ingenieril” está lista para describir, una vez establecido que el motor es cíclico y
por lo tanto ΔU= 0 , que “una parte del calor que entra en la máquina se transforma en trabajo, y el
resto se entrega al foco frío”. Esta forma de hacer contabilidad del calor y del trabajo es la más cómoda
para el interés ingenieril de calcular el rendimiento de la máquina: qué porcentaje del calor “entregado”
“se convierte en” trabajo. En la subsección 9.3 se detallan estos manejes.
Deltas de más
Una expresión que suele aparecer con frecuencia para el primer principio es:
ΔU=ΔQ+ΔW
(PRIMER PRINCIPIO CON DEMASIADAS DELTAS)
Esta forma de escribir el primer principio pone en pie de igualdad
a la energía interna, el calor y el trabajo. Cuando uno lee la forma
en que se describe o usa el primer principio en los contextos en
que se lo expresa así se ve que las tres cantidades son concebidas
como sustancias que se “interconvierten”. En el fondo lo que
queda en evidencia es la incomprensión del significado de la delta
en expresiones termodinámicas. En la figura mostramos dos
posibles caminos para ir del estado 1 (cuya energía interna es U1)
y el estado 2 (cuya energía interna es U2). La energía interna
depende sólo del estado, por eso es una función de estado. En este
ejemplo ΔU significa simplemente U 2 –U 1 , el cambio de la
función de estado. El trabajo para ir entre ambos estados, en
cambio, es muy diferente: de la definición de trabajo como la integral de P(V) respecto de V se ve que
el trabajo para ir de 1 a 2 es mucho menor (en valor absoluto) por el proceso 1 que por el proceso 2,
porque es el área bajo la curva. Si el cambio de U es el mismo pero el trabajo es muy distinto, por el
primer principio, el trabajo es muy distinto. Entonces no puede decirse algo como que el trabajo es “el
trabajo en 2 menos el trabajo en 1”, no es la diferencia de una función de estado, y lo mismo puede
decirse para el calor. Por eso las deltas, adecuadas para funciones de estado, no lo son para procesos.
Por supuesto que en cualquier situación en que se busque establecer algo así como un balance de
energía el primer principio “con demasiadas deltas” funciona perfectamente, porque en un balance
puede pensarse en términos de sustancia. Pero en cualquier razonamiento donde sea importante
distinguir procesos de estados esa forma de pensar resultará insuficiente.
13.4- Fenómenos de Transporte
41
Al cerrar la sección 11 sobre termodinámica de no equilibrio prometimos una introducción
fenomenológica a las situaciones de no equilibrio habitualmente encontradas en aplicaciones. Aquí
está, esta es. Vamos a hablar de las famosas tres maneras en que “se propaga el calor”: conducción,
convección y radiación.
Conducción
La “ley de Fourier” de la conducción del calor es de la época de la teoría del calórico, por lo que trata
al calor como una sustancia que se propaga por los materiales. Si podemos despreciar el posible trabajo
sobre cada parte de ese material la aproximación es excelente, porque entonces por el primer principio
el calor total sobre cada elemento de volumen es igual al cambio de energía interna de ese elemento. El
calor por unidad de tiempo puede pensarse entonces como un flujo de energía interna.
La Ley de Fourier afirma que en presencia de un gradiente de temperatura se desarrolla una corriente
“de calor” que es proporcional a menos el gradiente, es decir que “va” de zonas calientes a las frías:
T

j q=− ∇
LEY DE “CONDUCCIÓN DEL CALOR” (111)
En términos caloricistas (que es el tratamiento habitual en libros de texto y en su aplicación) j q es el
“flujo de calor” por unidad de área y de tiempo. La constante κ depende del material y se denomina
“conductividad térmica” de este. En términos modernos hablaríamos más bien de un flujo de energía
interna como en la subsección 11.4, o bien en términos de procesos de calor por unidad de área y de
tiempo en la frontera de cada elemento de volumen si queremos usar la forma de pensar de la sección
6.2. Pero es cierto que en este caso particular una visión sustancialista del calor es particularmente
cómoda, siempre que el material no se esté deformando o transformando químicamente. En cualquier
caso (111) no puede deducirse de los principios de la termodinámica y debe considerársela una ley
fenomenológica, válida para muchos materiales siempre que el gradiente no sea muy elevado.
Consideremos el ejemplo de la barra sometida a dos temperaturas constantes de la sección 11.3 (vean la
figura allí). Usemos el lenguaje caloricista (en la sección 11.3 ya usamos para este problema el lenguaje
de la termodinámica contemporanea). De acuerdo con (111), por cada sección de la barra “pasa” por
unidad de tiempo una cantidad de calor
dQ
dT
=− Aκ
dt
dx
(112)
Si la barra tiene largo L, la integral definida de la derivada de T respecto de x a lo largo de la barra es la
diferencia de temperatura. En estado estacionario el “flujo de calor” es constante a lo largo de la barra
(no se acumula energía interna en el camino). Por lo tanto, integrando respecto de x a lo largo de toda la
barra a ambos lados de (112) obtenemos:
L
es decir:
dQ
=− AκΔT
dt
dQ
Aκ
=−
ΔT
dt
L
42
(113)
La forma en que se interpreta(ba) (113) es la siguiente: el “flujo de calor” a lo largo de una barra de
sección constante en estado estacionario es proporcional a menos la diferencia de temperatura. La
constante de proporcionalidad es una especie de “conductancia térmica”, su inversa es la “resistencia
térmica” (la resistencia que la barra ofrece al “flujo de calor”). Esa resistencia es proporcional al largo
de la barra (cuanto más larga la barra, más “le cuesta pasar al calor”) e inversamente proporcional al
área transversal y a la conductividad térmica.
El caso (113) es el uso más sencillo de (111). En realidad, (111) junto con (110) permiten escribir una
ecuación diferencial conocida como “ecuación del calor”, que es el modelo formal de una serie de
fenómenos conocidos como “difusión”. La “ecuación del calor” es de gran importancia práctica:
permite averiguar el perfil de temperaturas como función del tiempo de cualquier configuración, si uno
conoce la condición inicial, el calor específico y la conductividad del material. También tiene un gran
valor histórico porque fue una vía importante hacia el testeo de modelizaciones microscópicas en teoría
cinética como la descripta en la sección 12.
Convección
Cuando se habla de “transmisión de calor por convección”, en rigor se habla de movimiento de materia.
La conductividad térmica del agua o del aire es muy baja, pero como el agua y el aire calientes son
menos densos que los fríos, por lo que un elemento de volumen de aire caliente rodeado de aire frío
sufrirá una fuerza del aire circundante mayor al que le hace la Tierra (estamos usando el teorema de
Arquímedes) y como consecuencia subirá.
Pongamos como ejemplo agua calentándose en una olla. El fuego hace un proceso de calor sobre el
fondo de la olla, y este a su vez lo hace sobre la capa inferior de agua. Si dependiese de la
conductividad térmica, el calentamiento del resto del agua sería muy lento. En vez de eso, ocurre que
esas capas inferiores se hacen menos densas y suben, arrastrando hacia abajo al agua más fría. Esa agua
se calienta y se reinicia el ciclo. Así empiezan a producirse “corrientes convectivas” que mezclan el
agua y aceleran el calentamiento. Similarmente, si se enfría el aire encima de agua tibia, la capa de más
arriba se enfriará y bajará, haciendo subir el agua tibia que a su vez se enfría y mantiene las corrientes.
Es interesante mencionar un caso muy curioso e importante: el agua entre 4 grados centígrados y cero
se expande en lugar de contraerse al enfriarse. Eso significa que un lago en un invierno muy frío se
enfriará por convección hasta los cuatro grados, y a partir de ese momento se estabilizará y cesarán las
corrientes convectivas. El agua más fría de arriba será tambien menos densa y permanecerá así, hasta
eventualmente congelarse. Así, aunque en la superficie haya una temperatura bajo cero por meses, sólo
se congelará la superficie y abajo podrán seguir subsistiendo plantas y peces hasta la primavera.
Radiación
La llamada “propagación del calor por radiación” probablemente sea de las tres la que genera más
equívocos. Supongamos que tenemos una lámpara de escritorio. Si ponemos la mano encima a cierta
distancia podemos sentir el aire caliente subiendo de las que hablamos antes (las corrientes
convectivas), pero si ponemos la mano por delante sentimos “el calor”. Más aún, lo sentiríamos aunque
no hubiese aire entre la lámpara y nuestra mano.
43
La decisión de encomillar “el calor” que sentimos no es arbitraria. Existe la tentación de suponer que
hay un “calor” que viaja de la lámpara a nuestra mano, entidad a la que se le dio el nombre de
“radiación”. La luz también es “radiación” (tambien viaja por el espacio vacío desde los objetos
luminosos) y por bastante tiempo se supuso que la luz y el “calor” eran manifestaciones del mismo
fenómeno. Aún hoy se oye popularmente la idea de que el calor son “rayos infrarrojos” (por ejemplo es
habitual oír de los aparatos de visión nocturna infrarroja que “detectan el calor”). Esta visión está
superada desde hace mucho tiempo. De acuerdo a las mejores teorías de las que disponemos, lo que
viaja de la lámpara, o del Sol, hasta nosotros no es “calor” sino “radiación electromagnética”, un ente
dinámico que no puede ser entendido ni desde la mecánica ni desde la termodinámica, pero que sí ha
recibido una descripción satisfactoria como oscilaciones de campos eléctricos y magnéticos. Al igual
que un sistema material, la “radiación” dentro de un recinto puede tener una temperatura, una entropía
y una energía interna, e interactuar con los objetos materiales.
En la visión más moderna que tenemos, un objeto a cierta temperatura irradia radiación
electromagnética. Si el objeto está realmente caliente (más de 2000 K) parte de esa radiación será
luminosa, como pasa con un hierro candente. Si el entorno está a una temperatura inferior, el objeto
caliente emitirá radiación con una potencia que va como la diferencia de temperaturas a la cuarta.
Cuando la radiación alcanza un sistema material, si esta radiación es más que la que emite el objeto
alcanzado, hará un proceso de calor y el sistema se “calienta”. El proceso por el que un objeto caliente
emite radiación puede entenderse como que sobre el objeto actúa un calor negativo, “enfriándolo”, y
sobre la radiación uno positivo que aumenta su energía interna y su entropía, o sea aumentando la
cantidad de radiación.
El ejemplo más importante en ciencias naturales de calentamiento por radiación es lo que ocurre con el
Sol. Del Sol nos llegan radiaciones que interactúan con el aire, las piedras, el agua y las plantas. En esa
interacción hacen calor y trabajo (la radiación hace trabajo sobre las hojas, y eso permite que la
fotosíntesis sea un proceso espontaneo, hace trabajo sobre paneles solares permitiendo generar
electricidad, etc). No nos podemos extender en el manejo detallado de la radiación, que nos saca de los
marcos que hemos visto en el curso, de modo que dejamos el tema en este punto. Lo bueno es que una
vez que han hecho calor o trabajo sobre objetos que sabemos modelar, a partir de ese punto podemos
limitarnos a hacer la termodinámica de siempre.
13.5- Exergía
Cuando uno ya tiene bastante con la energía, la entropía, la entalpía y la energía libre, en muchos textos
(sobre todo en ingeniería y ecología) apabullan con un término más: la “exergía”. Por lo general se trata
de textos en los que se sigue concibiendo a la energía como “la capacidad de hacer trabajo”, pero la
energía interna no puede usarse toda para hacer trabajo: las máquinas térmicas tienen límites de
eficiencia. Entonces se dicen cosas extrañas: se dice que no toda la energía interna es del todo buena,
cuanto más entropía tenga peor, porque será menos la energía “utilizable”. La “exergía” se define
entonces como “la energía utilizable”, y uno se queda con la sensación de, a lo sumo, haber entendido a
medias.
¿Qué quiere decir “la energía utilizable”? En ese contexto se habla, en realidad, del máximo trabajo que
el sistema de estudio puede hacer (por aquella concepción de la energía como capacidad de hacer
trabajo). Pero acá surge una dificultad: el trabajo que un sistema puede hacer sobre el entorno no
44
depende solo del estado del sistema: depende del estado inicial, del estado final y del entorno. Por
ejemplo, si uno dispone en el entorno de un subsistema a temperatura absoluta cero, podría usar la
totalidad de la energía interna del sistema de estudio para hacer trabajo (vean subsección 9.3).
Entonces, la definición de exergía debería ser:
La exergía de un sistema de estudio que se transforma entre dos estados sometido a ciertas
condiciones del entorno es el máximo trabajo que el sistema puede hacer sobre el entorno en esas
condiciones al transformarse.
Así, la exergía no es una cierta función de estado, sino una cantidad que depende del problema. En
muchos problemas prácticos la condición del entorno es temperatura y presión fijas. Entonces,
recordando lo que vimos en la sección 10.11, el máximo trabajo que un sistema puede hacer a presión y
temperatura constante es el cambio de la función de Gibbs (alias “diferencia de energía libre”) durante
el proceso considerado. Por ejemplo, la exergía de un litro de nafta, si vamos a usar la nafta en un
motor, quemándola, y abiertos a la atmósfera, será el cambio de energía libre entre un litro de nafta y el
producto de la combustión (esencialmente dióxido de carbono y agua). Este es el sentido que se le da
en ecología.
13.6- La “energía” en la nutrición
Es un lugar común hablar de la “energía” de los alimentos, pensar en ellos como un combustible que al
ser consumido su energía pasa a nuestros músculos, listos para la acción. Y a diferencia de otros usos
de la palabra “energía” en este caso está cuantificada: todos hemos oído hablar de las “calorías” que
tiene un chocolate o una galletita. Extrañamente, en nutrición las “calorías” engordan.
Alguno podrá sublevarse contra la idea de que estemos por poner esto en duda. Después de todo, en
este mismo apunte hemos hablado de trabajo vinculado a la fotosíntesis y a la respiración y lo hemos
vinculado con cambios de “energía libre” (función de Gibbs, vean la subsección 10.11). Es cierto, no
vamos a negar que los alimentos se transforman en nuestro interior, y que al hacerlo hacen trabajo
sobre nuestro cuerpo, y que ese trabajo nos permite sintetizar proteínas, mover músculos y otras
funciones fisiológicas. Lo que vamos a hacer en esta subsección es matizar hasta qué punto las
“calorías” de un alimento tiene que ver con todo eso.
Empecemos por explicitar qué significa que un churrasco tenga una determinada cantidad de
“calorías”. Para determinar cuántas calorías por gramo “tiene” un alimento lo que se hace es pesar
cierta cantidad de este (un carré de cerdo, digamos). Una vez pesado se lo seca (se le quita la humedad
haciéndole pasar aire tibio, pero tratando de no degradar las sustancias orgánicas que lo componen. Y,
finalmente, se lo coloca en un calorímetro (vean subsección 13.2), se lo prende fuego (sí, como leen) y
se mide el cambio de temperatura del agua del calorímetro. Como se conoce la cantidad de agua y su
calor específico, se puede calcular cuántas calorías hizo el alimento sobre el agua. Esa es la cantidad
que figura como “valor nutricional” en calorías por gramo en las cajas de los alimentos.
El procedimiento, por supuesto, no es completamente arbitrario. El argumento para proceder así es que
a nivel celular el organismo “quema” el alimento para poder hacer el trabajo que hace funcionar a las
células. Pero hay varios problemas. Por empezar, el trabajo máximo que puede obtenerse a partir de la
45
combustión del alimento es la diferencia en la función de Gibbs, y lo que se obtiene con el calorímetro
es, en el mejor de los casos, una diferencia de entalpía. Aún peor, no todo el alimento se “quema”: las
proteínas se usan como tales en la constitución de estructuras celulares, y sólo en caso de hambre
extremo se queman. Parte de las grasas suelen almacenarse como reserva para eventualmente
quemarlas y el resto no se asimila, y las fibras directamente no se asimilan porque el cuerpo humano no
puede digerirlas. Sólo los hidratos de carbono se queman prioritariamente. Por eso, los dietólogos que
algunas décadas atrás se basaban exclusivamente en las calorías han ido incorporando otros parámetros
(como la “calidad de las proteínas”) para caracterizar los alimentos.
Entonces, las famosas “calorías” de un alimento no son una medida completamente fiable de la energía
(ni la exergía) disponible por un organismo que lo come. ¿Por qué es tan difundido su uso entonces?
Esencialmente porque es facil de medir. Con paciencia puede medirse el cambio de la función de Gibbs
para diversas sustancias inorgánicas, pero hacer eso para un pedazo de bacalao es prohibitivamente
costoso. En cambio, secarlo y quemarlo es muy sencillo. Además, aunque no sea la “exergía real” del
alimento, resulta un indicador no tan desatinado. En definitiva, es facil de medir y resulta
razonablemente útil. Pero siempre conviene recordar que se trata de un indicador, que cuando uno
habla de la “eficiencia en la acumulación de energía” de la vaca al producir, a partir de pasto, carne y
grasa, uno no está haciendo cálculos termodinámicos sino más bien un balance contable.
13.7- Termodinámica en Ecología
Nos dejamos para el final de la sección los usos más polémicos de conceptos termodinámicos. Esta va a
ser, probablemente, la subsección con más rezongos. Debe decirse, sin embargo, que los ecosistemas
son extremadamente complejos y están extremadamente fuera del equilibrio. La necesidad tiene cara de
hereje: los problemas complejos suelen requerir abordajes osados, y alguna que otra tropelía puede
llegar a ser considerada “collateral damage”. Con todo, aunque no aboguemos por un uso inmaculado
de las ideas termodinámicas, siempre es bueno recordar que el norte de toda ciencia es la coherencia y
que es deseable avanzar con el formalismo sobre las partes más oscuras y peor comprendidas.
Antes que nada debemos aclarar que hay dos enfoques de la ecología. Una visión ortodoxa centrada en
la interrelación entre las poblaciones y de estas con los factores abióticos, que en rigor no usa
termodinámica pero como habla de flujo de energía le vamos a dedicar un par de párrafos, y una visión
más holística, más romántica, más Jaques Cousteau, más Gaia, que despliega una frondosa
terminología termodinámica e incluso arriesga principios como el de máxima producción de entropía,
máxima “acumulación de información” o máximo flujo de energía a los que vamos a dedicar buena
parte de nuestra, ejem, energía.
El flujo de energía en la ecología ortodoxa
En 1942 un tal Lindemann publicó un paper que inició el estudio del “flujo de energía” en ecosistemas.
En ecología “ortodoxa” lo central son las interdependencias entre poblaciones, y central en esto son las
“redes tróficas” (el grafo orientado que indica qué especies comen cada especie). Lindemann trata de
establecer qué pasa con la “energía” a medida que los bichos se comen entre sí, y cuando decimos
“energía” en este contexto estamos hablando de nutrición, como en la subsección anterior. Es decir, en
las “calorías”. Algo así como “las vacas de la Pampa Húmeda comen tantas toneladas de pasto
(biomasa) que les aporta una energía de tantas calorías. Con eso generan tal biomasa de vacas por
46
tantas y tantas calorías” (que siempre son menos que las aportadas por el pasto comido). Se diría, en
paralelo con el discurso en los libros introductorios de física térmica, que el resto de la “energía” se
disipa en forma de bosta.
Humoradas aparte, el enfoque de Lindemann no pretende ser termodinámico. La inspiración de la
teoría es más bien la macroeconomía (el estudio de los balances contables de los países), como se
desprende de las terminologías utilizadas. Por ejemplo: la fijación total de energía por fotosíntesis es
la productividad bruta primaria PBP (compárese con el PBI), la diferencia entre la PBP y la
respiración autótrofa (la respiración de la propia planta, que en esta visión sería el “costo” en la
producción de biomasa vegetal) es la productividad neta primaria PNP, y así siguiendo. La idea es
rastrear la producción de biomasa y su “energía” con vistas a la producción de alimentos. Debe
comprenderse todo esto en su contexto: el mundo venía de una debacle económica sin precedentes y
estaba embarcada en la mayor guerra de la historia (por lo menos hasta ahora). Por otra parte, las
nuevas teorías económicas de Keynes (que impulsaron una comprensión de las cuentas nacionales, que
antes no se seguían9) eran enormemente exitosas y populares: EEUU crecía a todo vapor. La
perspectiva hacia fines de la guerra y la posguerra era que el dominio de la ciencia y la comprensión de
la economía podían terminar con el hambre y evitarían otra guerra como la recién vivida. Durante 15 o
20 años esta expectativa parecía comprobarse con los hechos: una transformación sin precedentes de la
estructura de la economía de los países centrales elevó enormemente la productividad de los campos,
en parte gracias a estudios como el de Lindemann, y se vivieron años de una prosperidad sin
precedentes (ni postcedentes, debe decirse). Por aquellos años de reconfiguración de la arquitectura
financiera internacional se llegó a sugerir reemplazar al oro por la “energía” como reserva de valor
internacional.
Lo cierto es que el flujo agregado de “energía” en los ecosistemas tiene las mismas limitaciones que la
idea correspondiente en nutrición (vean sección 13.6).
La Ecología de Odum, Margalef y Jacques Cousteau
Hacia mediados de los años '50 algunos ecologistas empezaron a usar ideas termodinámicas en
ecología. A partir de los años '70, cuando el sueño de prosperidad eterna de la posguerra se desvanecía
y empezó a ser claro que el mundo es pequeño y arruinable, estas ideas cobraron una gran popularidad.
Odum señala en una entrevista que el factor crucial en ese cambio cultural fue, probablemente, la
llegada de las primeras imágenes de la Tierra vista desde lejos, en especial aquella tomada desde la
Luna. Un mundo fragil como ese no parecía el reino del crecimiento sin límites. Tiene mucha lógica
que una teoría que habla de la irreversibilidad, del aumento de la entropía, pareciese una herramienta
imprescindible para entender esa capita verde y azul suspendida en medio de la nada.
El uso de la termodinámica ha llevado a muchos malos entendidos, desde la afirmación de que el
segundo principio no vale para sistemas biológicos hasta la afirmación de que la biodiversidad y la
evolución “se explican” con termodinámica. En realidad lo que se hace al usar termodinámica en
ecosistemas es verificar las condiciones que los dos principios imponen. La vida en este planeta no
ocurre gracias a la termodinámica sino más bien a pesar de ella. Es decir que la termodinámica no
prohibe la evolución o la biodiversidad, pero tampoco la explica.
9
El primer país que midió su PBI fue la Unión Soviética hacia los años '20. En países capitalistas esas mediciones se
empezaron a hacer a mediados de los '30.
47
El equívoco respecto a la supuesta no validez del segundo principio se debe a que la biósfera es un
sistema abierto, mantenido fuera del equilibrio merced a una “corriente de energía”. Es habitual ver en
textos de termodinámica ecológica decir que “la Tierra recibe del Sol energía de baja entropía y reemite
al espacio energía de alta entropía. Esa corriente de energía que va del ecuador a los polos es la que
necesita la biósfera para sostener los procesos irreversibles que ocurren en ella”. Es facil mistificar a
partir de este tipo de frases que parecen salidas de la película Avatar. No es en absoluto un disparate,
pero conviene entenderla en su contexto y no tratar de hacer extrapolaciones. El flujo de energía al que
alude esa frase tiene muy poco que ver con el flujo de “energía” en las cadenas tróficas estudiadas por
Lindemann. Tampoco con un espíritu estilo Gaia (o llegado el caso, tipo “Espíritu Santo”) moviendo al
mundo. Es una corriente de energía interna en el sentido de la sección 11.3: hay gradientes de
temperatura, por lo tanto hay “producción de entropía”. Parte de esa corriente tiene que ver con las
cadenas tróficas (pero no con las calorías de los alimentos sino más bien con los trabajos originados en
los procesos de fotosíntesis y respiración) pero también con las corrientes oceánicas y con el “ciclo del
agua”.
La evolución de menor a mayor complejidad es probablemente la que genera los mayores equívocos.
Se han sugerido una diversidad de principios “termodinámicos” para dar cuenta de este aspecto
intrigante. Pero es un error suponer que se trata de “explicaciones termodinámicas”. No es que se parta
de los principios de la termodinámica y se demuestren cosas como el principio de máximo flujo de
energía, o de máxima generación de entropía, o de máxima “acumulación de información”. Todos esos
“principios” son propuestas de leyes propias de los ecosistemas, todas son altamente especulativas y
ninguna tiene gran consenso. De hecho no está claro que la “tendencia a la complejidad” pueda
describirse desde la termodinámica, porque esa complejidad alcanza los niveles microscópicos
(moléculas de ADN o de proteínas) y mesoscópicas (células y tejidos). Es decir, hay complejidad en
todas y cada una de las escalas, de modo que los seres vivos no están ni siquiera localmente en
equilibrio (vean la sección 11.1).
Respecto del uso del concepto de “información” en ecología hay que rezongar enérgicamente. Hay un
concepto de “información” en mecánica estadística, bastante abstracto y ni siquiera totalmente
consensuado. Como explicamos en la sección 12.6 es central en el formalismo la idea de “ensemble” y
una asignación de probabilidades a cada microestado. En el equilibrio todos los microestados tienen la
misma probabilidad, por lo tanto si conocemos el macroestado y sabemos que es de equilibrio nuestra
“información” sobre el microestado es mínima. Pero fuera del equilibrio algunos estados son “más
probables” que otros, entonces tenemos más “información” del posible microestado. Hay un cálculo
que se puede hacer en mecánica estadística de la probabilidad de que cierto estado de no equilibrio
ocurra como fluctuación de un estado de equilibrio (aunque no está claro qué significa en la práctica
esa probabilidad). Eso permite hacer un cálculo de la “información” contenida en un sistema
termodinámico. Pero la palabra “información” debe entenderse en ese sentido restringido, no es la
cantidad de megabytes que pueden almacenarse como si se tratase de un pendrive. No es información
como la que se lee de los diarios o la que lleva el Voyager en su famoso disco de oro. En
termodinámica, a partir de cálculos de “exergía” (en este caso, diferencia del potencial de Gibbs entre
las sustancias orgánicas y sus contrapartes inorgánicas si toda la biomasa se quemara) puede hacerse un
cálculo de “información” en el sentido de la mecánica estadística. Algunos autores identifican esa
“información” con la información genética del ecosistema. Este es un típico error por multiplicidad de
significados, como cuando se piensa que al mezclar la baraja se aumenta su entropía porque “se
desordena”, o como pensar que la fuerza de las convicciones de un candidato se mide en newtons.
48
14- Desmantelando tabúes: ¿Cómo se usa la
Termodinámica en Ciencias Naturales?
Las subsecciones de esta sección son preguntas que consideramos, en buena medida, ilegítimas. Usar
un concepto determinado no está ni bien ni mal, es solo más o menos adecuado a los problemas que
queremos resolver, porque ningún concepto de la Física refiere a la realidad: sólo son modelos para
tratar de interpretar esa realidad. Deliberadamente las hemos escrito en el formato en que se oyen por
ahí los tabúes del TEF, cosas como “En el taller no se puede decir que el calor es energía”. Varias de las
palabras que aparecen en este apunte aparecen en otros contextos bajo la forma de “aplicaciones de la
Termodinámica”, aunque muchas veces designando variaciones sutiles (o no tanto) de los
correspondientes conceptos. La divergencia no es en una sola dirección, corresponde a varias ideas
(incompatibles entre sí) que han ido apareciendo a lo largo de la historia de la Termodinámica. ¿Qué
hacemos con lo aprendido en el TEF a la hora de enfrentarnos con esos dialectos de la Termodinámica?
¿Está “mal” decir que el calor entra o sale de los cuerpos?
La primer regla de oro de la física aplicada es: si un conjunto de procedimientos, con su lenguaje, se
usa para resolver cierto tipo de problemas y funciona, entonces está “bien” (léase: es adecuado). Si en
ese contexto el calor está modelizado como algo que entra y sale, que fluye, o lo que sea, entonces usen
esa terminología y esos procedimientos sin culpa, siempre que estén atacando el tipo de problemas
para los cuales se supone que esas ideas funcionan. Ese formalismo es una modelización en el
mismo grado que lo que vimos en este curso.
Ahora bien: si el problema que quieren atacar está por fuera de lo que tradicionalmente se resuelve
usando esos métodos... DUDEN. La termodinámica macroscópica, tal como la vimos en este apunte,
funciona tan bien que no se conocen ejemplos de casos en que sus principios fallen. Se ha aplicado esta
versión a sistemas tan diversos como seres vivos, estrellas o agujeros negros. Y mucha gente muy
ingeniosa ha tratado de encontrarle problemas o contradicciones sin éxito. Por lo tanto, los dos
principios tal como los hemos visto acá son un puerto seguro ante la duda.
Como regla general, la idea de que el calor “fluye” funciona siempre que consideremos un subconjunto
de procesos que, operando cíclicamente, den calor nulo. Por ejemplo, si nos restringimos a presión
constante (lo que suele no estar mal si estudiamos procesos abiertos a la atmósfera) o a volumen
constante (no hay trabajo). Las razones para esto están en el último comentario sobre el Primer
Principio, donde explicamos por qué el calor no puede considerarse función de estado.
¿Está “mal” decir que el calor es una forma de energía?
Si el contexto es la termodinámica contemporanea sí, está mal, en la medida que el calor es un proceso.
Está tan “mal” como decir que el trabajo es energía. Pero en cualquier contexto en que el “calor” sea
considerado una función de estado tiene perfecto sentido pensar a la energía interna como “el calor”
más alguna otra cosa. Remitimos entonces a la pregunta anterior.
Al final ¿Qué “es” el “calor”?
49
El calor es una abstracción humana. Bah, en realidad varias, porque en distintos contextos (aunque
todos ellos sean del ámbito de la física) la palabra “calor” puede ser usado de maneras diferentes. En
otras palabras, el calor es lo que hagamos de él, igual que el amor o la belleza.
Alguno podrá sentir “evidente” que el amor es una abstracción, que no existe como tal, mientras que es
“evidente” que el calor es real. Es la evidencia del sentido común, la misma que lleva tantas veces a
meter la pata. En definitiva ¿Cuál es la evidencia que uno tiene de su existencia? Sólo el efecto de
interacciones sobre porciones de materia, a veces nosotros mismos. Si tocamos la pava caliente nos
quemamos, si nos patean nos duele. Si es “evidente” que nos quemamos porque “el calor pasa de la
pava a nuestra mano” ¿Por qué no convencernos de que el pie del otro tiene “pateadura” que nos es
transmitida durante la patada?
¿Está “mal” considerar que “la energía fluye”?
Para considerar que la “energía” pasa de un lugar a otro atravesando fronteras se necesita que ese ente
al que llamemos “energía” cumpla con dos cosas:
•
•
Esa “energía” tiene que ser conservada, de manera que lo que “aparezca” en algún lado “se
vaya” de algún otro.
Cada porción de energía debe ser pensable como residente en un sitio, o de otro modo no
podría “mudarse”.
La primer condición no parece tan alocada a primera vista: el primer principio dice algo no muy
diferente. Solo que el primer principio es muy específico: es la suma de la energía mecánica más la
energía interna lo que se conserva. En muchos contextos en los que la “energía” fluye eso a lo que se
denomina “energía” suele no ser esa suma; a veces no es ni siquiera una función de estado desde el
punto de la termodinámica contemporanea (ejemplo: el “calor”) y por eso usamos comillas para
nombrar a la “energía” en este apartado. Seguramente el marco en cuestión es tal que esa cantidad
pueda ser considerada una cantidad conservada. Por lo tanto, la validez de ese modelo estará acotada a
ciertos problemas, y nuevamente habrá que ser cuidadoso cada vez que se aplique en contextos
novedosos.
La segunda condición puede parecer una obviedad a quien piense en la “energía” como en una cosa
sustancial. Recordemos que cualquier “energía” en cualquier marco teórico es siempre una cantidad
abstracta inventada por el hombre, así que nada es obvio sobre su naturaleza. Pongamos un ejemplo:
hay una energía potencial asociada a la atracción de la Tierra (la “Energía Potencial Gravitatoria”).
¿Dónde “está” esa energía? ¿En el objeto? ¿En la Tierra? Desparramada entre ellos? La verdad es que
al construír la idea de “Energía Potencial Gravitatoria” no hizo falta asignarle una “posición”, de modo
que en principio no la tiene. Puede ser conveniente asignarle una en algunos contextos, en otros puede
no tener sentido o dar lugar a problemas o inconsistencias.
Por lo tanto, un modelo sustancial para la “energía” puede ser útil, inútil o contraproducente, según el
caso, pero nunca necesario.
¿Es “mejor” la termodinámica actual que los modelos en los que el calor y la energía
50
“fluyen”?
No necesariamente. No puede decidirse si un marco teórico es “mejor” o “peor” que otro sin tener en
cuenta el tipo de problemas que se quiere resolver. Para muchos problemas (como el estudio del
gradiente de temperaturas en un sistema a presión constante) el uso de la termodinámica completa
puede ser demasiado engorroso. Si uno tiene un modelo que permite resolver el problema que uno tiene
entre manos y es mucho más simple que la termodinámica contemporanea, ese modelo es mejor para
resolverlo, en el mismo sentido en que un destornillador es mejor que un cuchillo Tramontina para
aflojar un tornillo, y vice versa para comer un asado.
La termodinámica contemporanea es superior a cualquier otro marco sobre procesos térmicos siempre
que estemos en duda sobre la validez de ese marco para resolver nuestro problema. En caso de duda,
cualquier cosa que pueda fundamentarse seriamente con los principios de la termodinámica es
esencialmente segura.
¿Está “mal” usar átomos, moléculas u otros detalles microscópicos para hacer
razonamientos en termodinámica?
Este es un punto delicado. Lo que obtengamos aplicando rigurosamente termodinámica macroscópica
es muy sólido, pero a veces puede resultar insuficiente. A veces la información microscópica puede
completar información relevante que no puede obtenerse de otro modo. Por otra parte, la mecánica
estadística rigurosa es mucho más compleja que la termodinámica macroscópica, y la física
microscópica usada con poco rigor lleva facilmente a razonamientos equivocados. Nuestro consejo, por
lo tanto, es usar termodinámica macroscópica toda vez que sea posible, y si se necesita en algún punto
usar física microscópica ser cuidadoso. Ese cuidado puede consistir simplemente en usar
procedimientos estandar sólo para resolver problemas estandar y dudar sistemáticamente de cualquier
uso de esas herramientas en contextos novedosos. En ese último caso lo mejor es pedir asesoramiento.
¿Está “mal” mezclar lo microscópico con lo macroscópico?
Es imposible hacer termodinámica a partir de lo microscópico sin, en algún punto, hacer “trampa” y
usar lo macroscópico. Eso significa que encontrar conceptos micro y macro en un mismo contexto no
necesariamente es incorrecto. Pero que ambos niveles aparezcan no significa que estén “mezclados”.
“Mezclarlos” significa hacer cosas como atribuir propiedades macroscópicas a lo microscópico (por
ejemplo, decir que como el agua es transparente las moléculas de agua son transparentes). “Mezclar” es
lo que mata, eso sí está decididamente mal. De todas maneras a veces se hacen engendros útiles.
Nuestro consejo, en ese caso, es que consideren cualquier conclusión que obtengan de tales engendros
como conjeturas provisorias, casi como si viniesen del sentido común, y que busquen modos mejores
de chequearlos.
¿Está “mal” decir que la temperatura es la energía por molécula?
Hablamos algo de esto al exponer las ideas de Boltzman. Recuerden que la base para esta
caracterización es la llamada “equipartición de la energía”, y que este reparto se da no entre las
moléculas sino entre los distintos grados de libertad de estas. Contar grados de libertad no es sencillo:
los modos que se deben incluír y los que no dependen tanto de la temperatura como de la dinámica de
la molécula (cálculo en el marco de la mecánica cuántica). Hay que tener mucha suerte para contar
51
correctamente esos grados de libertad mirando una representación esquemática de una molécula.
Encima uno puede estar justo a una temperatura a la que se está “despertando” un grado de libertad. La
cosa empeora si las moléculas son enormes y complejas como las de una proteína o un polímero, que
tiene tantos modos de vibración que a cualquier temperatura se están “despertando” varios.
En concreto: en un contexto donde tengamos ciertas garantías de cuáles son los modos de vibración
(por ejemplo, porque alguien más ya lo calculó) puede ser útil usar esta idea de que la temperatura es
“la energía por grado de libertad”. Sin esas garantías lo mejor es no pensarlo así. En particular, este
criterio no es adecuado como definición de temperatura.
Al final ¿Qué tienen que ver la entropía, el desorden y la información?
La entropía de la termodinámica no tiene absolutamente nada que ver con desorden. ¿Cómo se
“desordena” un gas? Acá va un típico ejemplo de falacia: un gas agitado, en el que cada parte va a
velocidades diferentes, está más “desordenado” que un gas perfectamente uniforme, por lo tanto tiene
más entropía. ¡NO! De hecho, si el gas agitado se lo deja evolucionar en ausencia de acciones del
entorno, va a evolucionar a un estado de homogeneidad, y por el segundo principio (como el sistema
está aislado la entropía del entorno no cambia) su entropía tuvo que aumentar. Otro: ordenando un
mazo de cartas por palo y de menor a mayor le bajamos la entropía. Un disparate termodinámico: las
variables termodinámicas de una carta no pueden depender del símbolo impreso en ella, La idea de
“desorden” como sinónimo de “entropía” sólo tiene sentido en un contexto muy acotado, como
metáfora para describir ciertos cálculos en teoría cinética. Con la “información” la cosa es aún más
resbaladiza. La asociación viene de un problema tecnológico: cómo separar señal de ruido en una
transmisión. Se supone que algo en equilibrio térmico no puede contener “información” (para
transmitir información se necesita algo como pulsos, algo fuera del equilibrio). Así, hoy en día se usa la
palabra “entropía” en criptografía, lo cual no quiere decir que los mensajes cifrados tengan temperatura
o presión. Moraleja: tomen todas estas asociaciones como metáforas, y tómenlas con pinzas. Y sobre
todo, no las usen como base para un razonamiento físico, porque lo más probable es que concluyan
disparates.
¿Está “mal” no justificar rigurosamente todos los modelos y todas las herramientas que
uno usa?
No, no está “mal”. La rigurosidad es una herramienta metodológica, y como toda herramienta hay que
usarla con juicio. El celo excesivo en el rigor puede resultar paralizante, mientras que el exceso de
laxitud puede llevarnos a cometer errores groseros. Buscar el punto justo de rigor que permite avanzar
con riesgo mínimo en cada paso de la propia investigación tiene algo (o mucho) de arte, y en parte tiene
que ver con el perfil, el estilo y los gustos de cada quien como investigador. En esta materia hemos
expuesto los temas con todo el rigor posible, de manera que ustedes ya saben que existe ese rigor, y
pueden apelar a él cada vez que lo necesiten.
52