DISTRIBUTIONS STATISTIQUES PHYSIQUES



MÉCANIQUE STATISTIQUE

1. Théorie statistique de l'information

1.1. Entropie infométrique

2. Loi de Boltzmann

2.1. Entropie thermodynamique

3. Distributions statistiques physiques

3.1. Distribution de Maxwell

3.2. Distribution de Maxwell-Boltzmann

3.3. Distribution de Fermi-Dirac

3.4. Distribution de Bose-Einstein

4. Loi de Fick

5. Mouvement brownien

Nous distinguerons quatre différentes statistiques qui proviennent ou non d'effets quantiques et qui conduiront à quatre distributions distinctes connues. Ce sont les distributions de Maxwell, Maxwell-Boltzmann, Fermi-Dirac et de Bose-Einstein. Elles trouvent de nombreuses applications en physique comme le rayonnement du corps noir qui sera démontré dans le chapitre de Thermodynamique.

DISTRIBUTION DE MAXWELL (distribution des vitesses)

Pour un gaz en état d'équilibre, posons la question suivante :Quelle probabilité existe qu'une molécule ait ses composantes de vitesse comprise entre equation et equation , equation et equation , equation et equation dans un repère cartésien habituel ?

Cette probabilité equation dépend de equation (c'est-à-dire : equation) et de equation. Elle ne dépend pas de la position de la molécule puisque le gaz est supposé à l'équilibre par rapport à son centre de masse.

Nous postulons dans un premier temps que equation est proportionnelle à chacun des intervalles equation tel que :

equation   (32.41)

et qu'il n'y a pas de directions privilégiées. Nous pouvons faire une rotation circulaire des axes cartésiens, la probabilité sera inchangée (isotropie de l'espace).

L'isotropie amène que la fonction equation ne dépend pas du vecteur equation, au mieux elle dépend de la norme de cette vitesse, tel que :

equation   (32.42)

Soit equation la probabilité pour une molécule d'avoir sa composante suivant l'axe Ox comprise entre equation et equation alors :

equation   (32.43)

de même :

equation   (32.44)

L'isotropie de l'espace impose :

equation   (32.45)

La loi des probabilités composées implique :

equation   (32.46)

Déterminer les fonctions f et equation relève de la méthodologie mathématique suivante :

equation   (32.47)

Puisque :

equation   (32.48)

Ce qui nous donne finalement :

equation   (32.49)

Le membre de gauche de la dernière égalité dépend uniquement de v , celui de droite uniquement de equation. Le résultat ne peut être qu'une constante que nous noterons equation . Il suit que : 

equation   (32.50)

En intégrant :

equation   (32.51)

Donc :

equation   (32.52)

et posons equation. Il vient donc :

equation   (32.53)

Donc identique :

equation   (32.54)

La loi des probabilités composées impliquant :

equation   (32.55)

Nous avons finalement :

equation   (32.56)

Remarquons que equation est nécessairement négatif sinon la probabilité pour une molécule d'avoir une composante de vitesse infinie serait infinie ce qui voudrait dire que toutes les molécules seraient à vitesse infinie et que l'énergie serait infinie !!!

Nous posons :

equation avec equation   (32.57)

Finalement, il vient que :

equation   (32.58)

Il nous reste à normaliser A. La probabilité pour une molécule d'avoir une composante de vitesse comprise entre equation ou une intensité de vitesse comprise entre equation est égale à equation (100% de chances).

Ainsi en utilisant exactement la même méthode calcul que celle vue dans le chapitre de Statistique pour la loi Normale, nous avons:

equation   (32.59)

Nous avons jusqu'ici parlé en terme de probabilités. Un langage équivalent consiste à chercher, dans une enceinte contenant N molécules, le nombre dN de molécules ayant certaines caractéristiques, à savoir par exemple, le nombre de molécules equationayant une composante de vitesse comprise entre equationet equation. Ce nombre étant bien évidemment égal dans une dimension à : 

equation   (32.60)

Plus généralement :

equation   (32.61)

Pour obtenir dP nous nous plaçons dans l'espace des vitesses c'est-à-dire un repère cartésien de coordonnées equation. Les composantes equation ne sont pas indépendantes puisque liées par la relation :

equation   (32.62)

L'extrémité des vecteurs vitesse equation ayant une intensité de vitesse v, c'est à dire des composantes de vitesse liée par la relation ci-dessus, se trouve dans l'espace des vitesses sur la sphère de rayon v. Il en sera de même pour l'extrémité des vecteurs vitesse ayant une intensité equation.

Dans l'espace des vitesses, nous délimitons une portion d'espace comprise entre la sphère de rayon v et la sphère de rayon equation, de volume égale à equation.

La probabilité equationest proportionnelle à equation c'est-à-dire au volume élémentaire dans l'espace des vitesses. Pour obtenir dP(v), nous devons intégrer equation à tous les vecteurs vitesse possibles c'est à dire ayant leur extrémité entre les deux sphères. Cette intégration est particulièrement simple puisque l'intensité v de la vitesse dans cette espace (inter-volume) est constante. Nous obtenons donc :

equation   (32.63)

et ainsi, dans une enceinte contenant N molécules, le nombre de molécules dN(v) ayant un module de vitesse compris entre v et equation est :

equation   (32.64)

Rappelon maintenant que conformément à ce que nous avons longuement étudié dans le chapitre de Statistique, la valeur moyenne equation d'une grandeur G est le produit de G multipliée (pondérée) par la probabilité d'obtenir G intégré à toutes les valeurs possibles de cette grandeur telle que :

equation   (32.65)

où l'intégrale a été calculée en faisant un changement de variableequation et où nous avons ensuite utilisé une intégration par parties.

Nous avons respectivement:

equation   (32.66)

où l'intégrale a été calculée de la même manière.

Donc :

equation ou equation   (32.67)

La thermodynamique, ou la mécanique des fluides (voir théorème du Viriel) nous donne pour un gaz parfait monoatomique (cf. chapitres de Mécanique Des Milieux Continus et de Thermodynamique), de capacité calorifique et volume constant :

equation   (32.68)

Si nous formulons l'hypothèse que la partie de l'énergie liée à la température est due à l'agitation cinétique des molécules, nous pouvons écrire :

equation   (32.69)

Nous définissons alors la vitesse thermique moyenne par:

equation   (32.70)

Une application pour l'électron dans le cas des semi-conducteurs (où nous approximons certaines relations par une distribution de Maxwell-Boltzmann) donne une vitesse thermique à température ambiante de 120'000 [m/s].

Mais pour en revenir à notre distribution.... Nous avons donc :

equation   (32.71)

Ainsi, nous avons finalement :

equation   (32.72)

Qui est donc la distribution des vitesses dans un gaz monoatomique dont voici un exemple de tracé (les unités des axes en ordonnées sont arbitraires) :

equation
  (32.73)

La relation précédente donne donc la proportion des molécules de gaz ayant à un instant t donné une vitesse v. Nous avons alors pour une direction spatiale (en adoptant les développements précédents on tombe relativement facilement sur ce résultat):

equation   (32.74)

Cette fonction de distribution correspond  donc à une répartition gaussienne (cf. chapitre de Statistiques) et permet donc de définir la vitesse la plus probable (le "mode" comme on dirait en statistiques) notée equation, qui correspond au maximum de la courbe f(v), soit la où la dérivée première est nulle :

equation   (32.75)

Dès lors :

equation   (32.76)

d'où :

equation   (32.77)

et la vitesse moyenne (l'espérance) est alors donnée par :

equation   (32.78)

Nous avons donc une intégrale du type :

equation   (32.79)

Le mieux est de décomposer equation en equation et on intègre par parties. Nous avons alors  :

equation   (32.80)

La dernière intégrale est facilement calculable. C'est la même que dans le chapitre de Statistiques pour la loi de Gauss-Laplace. Donc :

equation   (32.81)

Il vient finalement :

equation   (32.82)

DISTRIBUTION DE MAXWELL-BOLTZMANN (non corrigée)

En physique quantique corpusculaire, nous apprenons que l'énergie d'une particule est quantifiée, c'est à dire que les valeurs possibles pour l'énergie forment un spectre discret. Même si, dans un certain nombre de situations courantes, pour une particule et encore plus pour un système constitué d'un grand nombre de particules, les niveaux d'énergie sont si serrés que nous pouvons traiter, sur le plan mathématique, ce spectre comme continu (approximation du continuum), il n'empêche qu'en toute rigueur ils sont quantifiés. Cette approche quantifiée de distributions physique au niveau corpusculaire de la matière est souvent désignée sous le nom de "statistique quantique".

Une particule, ayant un niveau d'énergieequation, peut être dans différents sous-états.

Nous savons (nous n'avons pas utilisé l'équation de Schrödinger dans le chapitre de Physique Quantique Corpusculaire pour le montrer strictement) que, pour décrire un atome, nous introduisons quatre nombres quantiques, à savoir :

- le nombre quantique principal qui quantifie l'énergie

- le nombre quantique secondaire qui quantifie le moment cinétique

- le nombre quantique magnétique qui quantifie le moment magnétique

- le spin qui quantifie la rotation propre des électrons de l'atome

Ainsi pour une même énergie (pour une valeur particulière du nombre quantique principal), un atome ou un électron peuvent posséder différentes valeurs des nombres quantiques secondaire, magnétique ou de spin.

Pour qualifier la possibilité de sous-états correspondant à une même énergie, nous employons l'expression "dégénérescence" et nous traduisons par la variable equation le nombre de dégénérescences correspondant à un même niveau d'énergieequation.

Nous allons considérer un système composé de N particules qui se placent sur K différents niveaux d'énergie equation. Nous trouvons equation particules sur le niveau d'énergie equation. Nous avons les relations suivantes pour l'énergie totale (que nous notons par la même lettre que celle utilisée en thermodynamique) et pour le nombre de particules (même remarque que pour l'énergie totale) :

equation   (32.83)

Nous supposerons (c'est important) ces quantités constantes. Le système est entièrement déterminé par la distribution equation des particules sur les K niveaux.

Il existe un grand nombre equation de configurations microscopiques possibles qui sont compatibles avec la distribution equation. Il y en a (voir les permutations avec répétition dans le chapitre de Probabilités) :

equation   (32.84)

Mais nous avons négligé la dégénérescence possible des niveaux i. S'il existe equation sous-niveaux dont l'énergie est equation, nous avons alors :

equation   (32.85)

Remarque: equationest donc la dégénérescence de l'état d'énergie equation, à savoir le nombre d'états possédant cette énergie.

En prenant le logarithme, il vient :

equation   (32.86)

et en utilisant la formule de Stirling (cf. chapitre de Méthodes Numériques) :

equation   (32.87)

Nous avons :

equation   (32.88)

Nous recherchons maintenant la distribution la plus probable, c'est-à-dire celle qui maximise equation. Pour trouver l'extremum, nous allons différencier cette expression tel que :

equation   (32.89)

Or, comme :

equation   (32.90)

equation sont des constantes qui permettent de s'assurer de la cohérence de l'analyse dimensionnelle (des unités quoi...).

Il est donc équivalent et nécessaire d'écrire pour prendre en compte également ses paramètres intrinsèques (le fait d'ajouter ainsi des termes nuls est nommé "méthode des multiplicateurs de Lagrange"):

equation   (32.91)

Donc :

equation   (32.92)

ce qui donne après une première simplification (élimination simple de la dérivée des constantes):

equation   (32.93)

Ce qui nous amène à écrire :

equation   (32.94)

Ce qui nous donne finalement :

equation   (32.95)

Mais cela équivaut aussi à rechercher :

equation   (32.96)

d'où :

equation   (32.97)

Rappelons que nous avons pour l'entropie de ce système :

equation   (32.98)

et donc :

equation   (32.99)

et comme :

equation   (32.100)

Nous avons donc :

equation   (32.101)

La thermodynamique nous conduit à (cf. chapitre de Thermodynamique) :

equation   (32.102)

Or, si toutes les particules sont identiques equation donc :

equation   (32.103)

Ce qui finalement conduit à :

equation   (32.104)

et nous amène à :

equation   (32.105)

et donc :

equation et equation   (32.106)

Nous pouvons donc récrire la relation de Maxwell-Boltzmann :

equation   (32.107)

Que nous retrouvons plus fréquemment dans la littérature sous la formes suivante:

equation   (32.108)

et particulièrement sous cette forme:

equation   (32.109)

Nous retrouverons cette relations dans le domaine de la théorie des semi-conducteurs (cf. chapitre d'Électrocinétique) dans le cadre de l'approximation à .

Comme equation, nous avons :

equation   (32.110)

Nous pouvons alors calculer equation et nous obtenons ainsi la "formulation discrète" de la "statistique de Maxwell-Boltzmann":

equation   (32.111)

Cette relation donne donc le rapport entre le nombre de particules qui n'interagissant pas entre elles (par hypothèse) et pouvant prendre les différents états d'énergie discrets equation et le nombre de particules dans un état d'énergie donné equation. Ainsi, connaissant N, il est possible à l'aide de cette relation de connaître le nombre de particules dans un état d'énergie particulier.

Remarque: La statistique de Maxwell-Boltzmann s'applique en l'absence d'interaction entre particules et est donc valable pour un gaz parfait mais ne s'applique pas, par exemple, à un liquide. De plus, elle s'applique aux hautes températures lorsque les effets quantiques sont négligeables. À basse température sont utilisées la statistique de Bose-Einstein pour les bosons et la statistique de Fermi-Dirac pour les fermions (voir plus loin).

Nous appelons le terme au dénominateur, la "fonction de partition canonique". Elle est le plus souvent notée equation tel que :

equation   (32.112)

DISTRIBUTION DE FERMI-DIRAC

Le principe d'indiscernabilité peut avoir des conséquences très importantes sur la statistique. Nous distinguons deux types de particules indiscernables : les bosons (comme le photon) et les fermions (comme l'électron).

Rappels :

R1. Les premiers correspondent à des particules dont la fonction d'onde représentative est toujours symétrique alors que celles des fermions est antisymétrique.

R2. Le principe d'exclusion de Pauli impose que 2 fermions ne peuvent pas se trouver dans le même état quantique. Les bosons, eux le peuvent !

Leurs propriétés respectives ont pour conséquence importante que l'énergie minimale d'un ensemble de N bosons est égale à N fois l'énergie minimale de chaque boson. Alors que pour un ensemble de fermions, l'énergie minimale est égale à la somme des N énergies les plus faibles.

Ces deux types de particules entraînent deux types de statistiques : la statistique de Fermi-Dirac pour les fermions (que nous allons démontrer en premier) et la statistique de Bose-Einstein pour les bosons (qui suivra).

Il n'existe donc qu'une seule manière de répartir N fermions sur les états d'énergies accessibles (au lieu des N! pour les particules discernables). Il ne peut pas y avoir plus de particules equation dans un niveau d'énergie equation qu'il existe de dégénérescence equation. Donc :

equation   (32.113)

Le nombre de combinaisons possible pour un niveau equation, dégénéré equation fois et comportant equation particules est donc la combinatoire equation. Le nombre total de configurations est donc :

equation   (32.114)

La statistique est donc bien différente du cas classique de Maxwell-Boltzmann. En prenant le logarithme du nombre de micro-états et en faisant usage de la formule de Stirling comme plus haut, il vient :

equation   (32.115)

Que nous pouvons déjà simplifier une première fois :

equation   (32.116)

et en différenciant cette expression pour trouver le maximum, nous obtenons :

equation   (32.117)

Terme à terme :

equation   (32.118)

Or, nous avons par conservation et par symétrie :

equation   (32.119)

Donc finalement :

equation   (32.120)

Pour respecter les contraintes sur l'énergie et le nombre de particules, nous utilisons encore une fois la méthode des multiplicateurs de Lagrange :

equationequation   (32.121)

Ce qui nous amène à la distribution de Fermi-Dirac :

equation   (32.122)

Les paramètres equation et equation jouent le même rôle que dans la distribution de Maxwell-Boltzmann. Nous avons ainsi :

equation et equation   (32.123)

Nous avons alors :

equation   (32.124)

Ainsi, en physique quantique, la statistique de Fermi-Dirac désigne le nombre de fermions indiscernables sur les états d'énergie d'un système à l'équilibre thermodynamique dégénéré (donc le nombre de fermions occupant le niveau d'énergie donné!).

Pour les systèmes macroscopiques, les niveaux d'énergie sont si serrés (ou tellement nombreux) que nous pouvons considérer le spectre d'énergies comme continu (approximation du continuum).

Nous raisonnerons donc dans ce contexte de continuum, ce qui nous permet d'écrire en normant aux nombres de particules mises en jeu (tout ce que l'on demande à la fonction c'est de nous dire comment sont réparties les N particules) :

equation   (32.125) 

ou:

equation   (32.126)

pour la fonction de Fermi-Dirac avec le tracé correspondant plus bas de la distribution.

Cette relation est très importante par exemple dans la théorie de semi-conducteurs (cf. chapitre d'Electrocinétique) qui est à la base de l'électronique du 20ème et 21ème siècles.

De manière numérique, nous pouvons simuler l'évolution de l'allure de la distribution (qui n'est pas une distribution dans le sens mathématique du terme) en fonction de l'énergie et de la température. Pour cela, nous supposons pour simplifier que la constante de Boltzmann vaut 1 et que le potentiel chimique mu vaut 2 (nous notons que celui-ci est en toute rigueur fonction de la température). Ainsi, nous pouvons écrire le petit programme suivant sous Matlab :

clear all;kb=1; % Constante de Boltzmann
mu=2; % Potentiel Chimique
T=0.001:0.1:1; % " Gradient " de température pour le programme
for j=1:length(T)
beta(j)=1/(kb*T(j));
epsilon=0.1:0.1:4; % L'énergie avec le pas
for i=1:length(epsilon)
Nf(i,j)=1/(exp(beta(j)*(epsilon(i)-mu))+1); % Nb(epsilon,beta) moyen de fermions au
end % niveau d'énergie epsilon
hold on %
plot(epsilon,Nf(:,j));
pause(0)
end

equation
  (32.127)

Au zéro absolu equation nous voyons que nous avons une marche. A cette température, les niveaux d'énergie dégénéres sont occupés à bloc en partant du niveau d'énergie le plus bas jusqu'à un certain niveau représentant la chute de la marche. Nous disons alors que le gaz de fermions est "complétement dégenéré".

La fonction de Fermi-Dirac, au zéro absolu, vaut donc 1 si E est inférieur à equation et 0 pour les valeurs supérieures (le système choisit sont état d'énergie minimale où les N particules occupent les N états de plus basse énergie).

Evidemment, dans les hautes énergies d'excitation (ou hautes températures) la probabilité (rapport) d'occupation d'un état est très faible et donc il n'est pas important d'appliquer le principe de Pauli (la probabilité que deux électrons veuillent occuper le même niveau d'énergie est très faible). Pour ces raisons, ce régime limite entre le comportement quantique et classique est appelé parfois "régime classique" et la haute température correspondante à l'excitation énergétique est appelée "température de Fermi".

Le potentiel chimique est quant à lui par définition le dernier niveau énergétique occupé au zéro absolu (la fameuse marche d'escalier!). Nous le notons en physique equation (et à l'opposé equation en chimie...) et nous l'appelons "niveau de Fermi". Nous voyons alors immédiatement que quelque soit la température:

equation   (32.128)

la probabilité d'occupation par les électrons est donc de 1/2 dans ce niveau. La définition du niveau de Fermi peut alors être donnée par:

equation   (32.129)

La principale application aux solides de cette statistique est la modélisation des phénomènes de transport électronique (gaz d'électrons) : théorie des métaux, des semi-conducteurs, population des niveaux d'énergie et propriétés de conduction (cf. chapitre d'Electrocinétique).

DISTRIBUTION DE BOSE-EINSTEIN

Les bosons sont d'autres particules quantiques qui peuvent indistinctement se placer sur tous les niveaux d'énergie. Le principe de Pauli ne s'y applique donc pas! Dans ce cas, le nombre d'objet à permuter est equation (les equation particules et les equation intervalles entre les niveaux). Parce que les particules sont indiscernables et les niveaux et sous niveaux permutables, il faut diviser par equation puis aussi par equation Le nombre de configurations sur un niveau equation, equation fois dégénéré qui contient equation particules indiscernables est ainsi égal à :

equation   (32.130)

Son logarithme avec usage de la formule de Stirling et après simplification est donné par :

equation   (32.131)

Le maximum de equation correspond à annuler equation, soit :

equation   (32.132)

Pour respecter les contraintes sur l'énergie et le nombre de particules, nous utilisons encore une fois la méthode des multiplicateurs de Lagrange :

equation   (32.133)

et donc :

equation   (32.134)

qui est la distribution statistique de Bose-Einstein. Cette distribution diverge lorsque:

equation   (32.135)

C'est la "condensation de Bose-Einstein". Dans cet état, tous les bosons se retrouvent dans le même état.

Les paramètres equation et equation jouent le même rôle que dans la distribution de Maxwell-Boltzmann et Fermi-Dirac. Nous avons ainsi :

equation et equation   (32.136)

Le nombre (moyen) de bosons est alors donné par:

equation   (32.137)

à comparer avec le nombre (moyen) de fermions au même niveau d'énergie (fonction de Fermi-Dirac):

equation   (32.138)

Ainsi, en mécanique quantique, la statistique de Bose-Einstein désigne la distribution statistique de bosons indiscernables (tous similaires) sur les états d'énergie d'un système à l'équilibre thermodynamique.

Pour les systèmes macroscopiques, les niveaux d'énergie sont si serrés (ou tellement nombreux) que nous pouvons considérer le spectre d'énergies comme continu (approximation du continuum).

Nous raisonnerons donc dans ce contexte, ce qui nous permet d'écrire en normant aux nombres de particules mises en jeu (tout ce que l'on demande à la fonction c'est de nous dire comment sont réparties les N particules):

equation   (32.139)

pour la fonction de Bose-Einstein. Elle n'est donc définie que pour les énergies supérieures au potentiel chimique (sinon quoi elle est négative!).

De manière numérique, nous pouvons simuler l'évolution de l'allure de la distribution en fonction de l'énergie et de la température. Pour cela, nous supposons pour simplifier que la constante de Boltzmann vaut 1 et que le potentiel chimique m2 (nous notons que celui-ci est dans l'absolu fonction de la température). Ainsi, nous pouvons écrire le petit programme suivant sous Matlab :

clear all;kb=1; % Constante de Boltzmann
mu=2; % Potentiel Chimique
T=0.001:0.1:1; % " Gradient " de température pour le programme
for j=1:length(T)
beta(j)=1/(kb*T(j));
epsilon=0.1:0.1:4;
for i=1:length(epsilon)
Nf(i,j)=1/(exp(beta(j)*(epsilon(i)-mu))-1); % Nb(epsilon,beta) moyen de fermions au
end % niveau d'énergie epsilon
hold on %
plot(epsilon,Nf(:,j));
pause(0)
end

equation
  (32.140)

À haute température, lorsque les effets quantiques ne se font plus sentir, la statistique de Bose-Einstein, comme la statistique de Fermi-Dirac qui régit les fermions, tend vers la statistique de Maxwell-Boltzmann:

equation
  (32.141)

Aux basses températures, cependant, les statistiques de Bose-Einstein et de Fermi-Dirac diffèrent entre elles. Nous nous plaçons, par exemple, à température nulle : dans la première, nous attendons alors que le niveau de plus basse énergie contienne tous les bosons, tandis que dans la seconde, les niveaux de plus basse énergie contiennent equation fermions.

Par ailleurs, à température nulle (273.15 [°K]), la statistique de Bose-Einstein montre de manière évidente que toutes les particules doivent occuper le même état quantique : celui de plus basse énergie. Ce phénomène est observable à l'échelle macroscopique et constitue un "condensat de Bose-Einstein".

La statistique de Bose-Einstein est utile à la compréhension des phénomènes électromagnétiques ondulatoire car les photons sont des Bosons (rayonnement du corps noir, interaction matière/rayonnement). Elle est très largement utile à l'étude des phénomènes vibrationnels dans les solides (les phonons suivent la statistique de Bose-Einstein). Elle a aussi été utilisée pour expliquer les transitions de phase dans l'Hélium (phénomène à très basse température).

Remarques:

R1. La statistique de Bose-Einstein a été introduite par Satyendranath Bose en 1920 pour les photons et généralisée aux atomes par Albert Einstein en 1924.

R2. Un résultat mathématique appelé "théorème spin-statistique" relie le spin d'une particule et le type de statistique qu'elle suit. Il stipule que les particules de spin entier sont des bosons, alors que les particules de spin demi-entier sont des fermions. La démonstration de ce théorème ne se trouve pas encore sur le présente site Internet à ce jour.

Pour terminer, voici un résumé simplifié des choses qui peut éventuellement aider à une meilleure compréhension:

Particules

Statistiques

Particularités

Bosons
(photons, gluons…)

Statistique de Bose-Einstein

equation

Particules indiscernables
Aucune contrainte sur le nombre de particules par état

Fermions
(électron, proton, neutrino…)

Statistique de Fermi-Dirac

equation

Particules sont indiscernables
Le nombre de particules par état à 0 ou 1

Classique

Statistique de Maxwell-Boltzmann

equation

Particules sont discernables
Aucune contrainte sur le nombre de particules par état

Tableau: 321 - Similitudes des différentes distributions quantiques

 

equation
  (32.142)


page suivante : 4. Loi de Fick