CHALEUR



COURS DE THERMODYNAMIQUE

1. Systèmes thermodynamiques

1.1. Variables d'état

1.2. Lois d'état

1.3. Transformation thermodynamique

2. Principes de la thermodynamique

2.1. Principe zéro (principe de l'équilibre thermique)

2.2. Principe premier (principe de conservation de l'énergie)

2.3. Principe deuxième (principe d'évolution)

2.4. Principe troisième (principe de Nernst)

3. Capacités calorifiques

4. Énergie interne

4.1. Travail des forces mécaniques

4.2. Enthalpie

4.3. Équation de Laplace

4.4. Coefficients thermoélastiques

5. Chaleur

5.1. Entropie

6. Relations de Maxwell

6.1. Énergie libre

6.2. Énthalpie libre

7. Équation de continuité

7.1. Loi de Fourier

7.2. Equation de diffusion de la chaleur

8. Rayonnement thermique

8.1. Loi de Stefan-Boltzmann

8.2. Loi de Planck

8.2.1. Première loi de Wien

8.2.2. Deuxième loi de Wien

Avant de continuer, il va à tout prix nous falloir éliminer une deux des plus grandes difficultés dans la bonne compréhension de la thermodynamique (mis à part celle de la différenciation entre les différentielles totales exactes et inexactes qui a déjà été réglée dans le chapitre de Calcul Différentiel Et Intégral) :

- La différence entre la chaleur et la température

- La différence entre l'énergie-travail et l'énergie-chaleur

Comme nous l'avons vu dans le chapitre de Mécanique Des Milieux Continus, la température caractérise un état d'équilibre thermodynamique et traduit l'existence d'une agitation thermique (théorème du Viriel) et elle peut varier lorsque l'extérieur fournit un travail equation. Cependant, l'expérience nous montre que c'est en "chauffant" un système que nous augmentons le plus aisément sa température. Mais qu'est-ce donc la chaleur? :

Considérons un système thermodynamique à l'équilibre, et écrivons son énergie E sous la forme statistique (espérance de la variable aléatoire de l'énergie d'un micro-état i de probabilité equation - voir chapitre de Mécanique Statistique) :

equation   (33.107)

l'énergie étant identifiée avec sa valeur moyenne puisque les fluctuations sont négligeables. Sa variation au cours d'une transformation infinitésimale (que nous supposons à nombre de particules constant) est (différentielle totale) :

equation   (33.108)

equation est le déplacement de l'énergie equation du micro-état equation provoqué par la transformation, et equation la variation de la populationequation de cet état i.

Si au cours de cette transformation infinitésimale, le système reçoit le travail equation et la chaleur equation, son énergie interne s'accroît de :

equation   (33.109)

Nous pouvons maintenant comparer cette dernière relation (exprimant le premier principe de la thermodynamique) avec celle qui la précède (découlant de la mécanique statistique).

Examinons d'abord le cas d'une transformation dans laquelle le système reçoit seulement de la chaleur :

equation   (33.110)

Dans ce cas, aucun des paramètres extérieurs au système ne varie en général dans la transformation de sorte que equation. Nous en déduisons :

equation   (33.111)

Ainsi, lorsqu'un système reçoit seulement de la chaleur, son énergie varie par modification des populations de ses états microscopiques : si la quantité de chaleur reçue est positive, la probabilité des états d'énergie élevée augmente, au détriment de celle des états de plus basse énergie. Enfin, si nous tenons compte que le système doit être à l'équilibre (l'état le plus probable comme nous l'avons démontré en mécanique statistique) dans les états initial et final de la transformation, nous constatons, comme nous pouvions nous y attendre, que la température du système varie : elle a augmenté si la quantité de chaleur reçu est positive (cela se démontre en choisissant une distribution canonique pour décrire les états d'équilibre macroscopique du système).

Cela explique la confusion fréquente entre ces deux concepts très différents que sont température et chaleur. Cette confusion est accentuée par le décalage entre le langage quotidien et la terminologie scientifique. Dans le langage quotidien, lorsque nous parlons de chaleur d'un corps, nous affirmons en réalité que sa température est élevée. La confusion regrettable parce que la notion de chaleur est bien présente en physique, mais que sa signification est autre.

Ainsi, chauffer un système, c'est lui fournir de la chaleur, c'est augmenter son énergie interne (le nombre de micro-états de haute énergie) par des moyens qui ne sont pas purement mécaniques. La chaleur est donc une forme d'énergie particulière!

ENTROPIE

Un système macroscopique isolé tend vers l'équilibre. Il l'atteinte en un temps fini (qui peut être extrêmement grand). L'état d'équilibre est unique: les exceptions à cette affirmation sont trop spéciales pour mériter une digression.

L'existence même d'un état d'équilibre est fondamentale pour la thermodynamique. Cependant, le processus de marche à l'équilibre ne résulte pas d'un dogme: il ne doit pas en exister en physique! Comme toute autre loi, il est soumis à vérification et doit être analysé. Une question, notamment se pose: quelle est la contrepartie microscopique de la marche à l'équilibre, processus macroscopique.

Nous avons vu dans le chapitre de Mécanique Statistique que par définition: l'état d'équilibre qui est l'état qui correspond au plus grand nombre de configurations (micro-états) et est l'état le plus probable.

Ce qui nous avait amené à la relation suivante:

equation   (33.112)

S  représente l'espérance statistique de l'information sur les micro-états et que nous avions appelé "entropie". Il est évident que S a les unités de equation qui comme nous l'avions montré est une constante.

La question qui se pose alors en thermodynamique est: quelle est la constante qui permet de caractériser pour un gaz, fluide ou solide l'espérance mathématique du nombre des états.

Il vient alors en regardant toutes les relations qu'il existe en thermodynamique qu'une seule constante apparaît systématique dès qu'il s'agit de caractériser un état thermodynamique. Il s'agit de la constante de Boltzmann. Donc:

equation   (33.113)

Donc S a les unités de correspondant au rapport J/T qui permet donc de mesure le degré de désordre d'un système au niveau microscopique. Intuitivement: plus l'entropie du système est élevée, moins ses éléments sont ordonnés et capables de produire des effets mécaniques, et plus grande est la part de l'énergie inutilisée ou utilisée de façon incohérente.

L'entropie est une grandeur extensive. Effectivement, nous avions montré que le choix du logarithme dans la loi de Boltzmann venait que l'entropie d'un macro-état était l'espérance sur de l'ensemble des micro-états:

equation   (33.114)

ce qui nous avait amené à:

equation   (33.115)

et montre bien que l'entropie est une grandeur extensive car sommable sur les micro-états (complexions).

Ce qui reste difficile maintenant c'est de savoir si l'énergie dans les unités de l'entropie provient du travail W, de la chaleur Q ou des deux? Au fait la réponse est simple car dans notre développement de la loi de Boltzmann, à aucun moment le système (idéal) étudié n'a fourni un travail. Donc la seule énergie mise en cause est celle de la chaleur.

Ainsi:

equation   (33.116)

Or, l'entropie ne peut pas être donnée par:

equation   (33.117)

car c'est la définition de la chaleur spécifique. Par ailleurs, si le lecteur se rappelle de nos développements en Mécanique Statistique, l'étude se faisait dans un système isolé avec deux cavités. Donc si le passage d'une cavité à l'autre se fait très lentement (de façon à ce qu'il n'y ait pas une détente du gaz) la température restera constante (détente isotherme). Ce qui implique donc la définition:

equation   (33.118)

Pour passer à la forme différentielle il convient de se rappeler que la chaleur Q est une différentielle inexacte. Donc pour une transformation réversible:

equation   (33.119)

Donc l'entropie est une différentielle totale exacte (la chaleur dépend de la manière dont se fait la transformation mais S ne dépend que de l'état final et initial de la chaleur Q) et comme:

equation   (33.120)

Nous avons finalement:

equation   (33.121)

Si le système est dans une transformation adiabatique (sans échange de chaleur et de travail avec l'extérieur) l'entropie est nulle. Sinon, le système prend de l'entropie à l'Univers dans une évolution naturelle.

Ce qui signifie que l'entropie (espérance de l'information intrinsèque) dans un système en contact avec l'extérieur ne peut qu'augmenter ou rester constante.

Ce qui est important c'est que tout processus (non adiabatique) convertissant de l'énergie d'une forme à une autre dans un système isolé en perd obligatoirement une partie sous forme de chaleur.

En ce qui concerne l'Univers... toute la question est de savoir si il s'agit d'un système thermodynamique isolé ou non...

Nous avons alors la relation très utile en mécanique des fluides (et en cosmologie):

equation   (33.122)

qui se nomme "identité thermodynamique" relative à l'énergie interne U ou encore "fonction caractéristique d'un fluide à l'équilibre".

Cette dernière relation est souvent assimilée au premeir principe de la thermodynamique pour des système fermés dont la variation d'énergie potentielle et cinétique globale est constante.


page suivante : 6. Relations de Maxwell