Méthode de Darwin-Fowler

En mécanique statistique, la méthode de Darwin-Fowler est utilisée pour obtenir les fonctions de distribution avec une probabilité moyenne. Il a été développé par Charles Galton Darwin et Ralph H. Fowler en 1922-1923[1],[2].

Les fonctions de distribution sont utilisées en physique statistique pour estimer le nombre moyen de particules occupant un niveau d'énergie (également appelés nombres d'occupation). Ces distributions sont principalement obtenues pour un système considéré dans un état de probabilité maximale dont les nombres d'occupation moyens sont connus. Ces occupations moyennes peuvent être obtenues par la méthode de Darwin-Fowler. Pour des systèmes à la limite thermodynamique (grand nombre de particules), comme en mécanique statistique, les résultats sont identiques à ceux obtenus par une méthode de maximisation.

Méthode de Darwin-Fowler

Dans la plupart des ouvrages de mécanique statistique, les fonctions de distribution statistique f {\displaystyle f} dans les statistiques de Maxwell-Boltzmann, les statistiques de Bose-Einstein, les statistiques de Fermi-Dirac, sont obtenues en déterminant celles pour lesquelles le système est dans un état de probabilité maximale. Mais il est parfois préférable d'obtenir celles qui ont simplement une probabilité moyenne de se réaliser, bien que les résultats soient généralement identiques pour des systèmes qui disposent d'un grand nombre d'éléments, comme c'est le cas en mécanique statistique. La méthode pour obtenir les fonctions de distribution avec probabilité moyenne a été développée par CG Darwin et Fowler[2] et est donc connue sous le nom de méthode de Darwin-Fowler. C'est la procédure générale la plus fiable pour obtenir des fonctions de distribution statistiques. Étant donné que la méthode utilise une variable de sélection (un facteur introduit pour chaque élément permettant une procédure de dénombrement), la méthode est également connue sous le nom de méthode de Darwin-Fowler des variables de sélection. On rappellera qu'une fonction de distribution de probabilité n'est pas la même chose que la probabilité elle-même- cf. Distribution de Maxwell–Boltzmann, Distribution de Bose–Einstein, Distribution de Fermi–Dirac. On notera également que la fonction de distribution f i {\displaystyle f_{i}} qui est une mesure de la fraction d'états qui sont effectivement occupés, est donnée par f i = n i / g i {\displaystyle f_{i}=n_{i}/g_{i}} ou n i = f i g i {\displaystyle n_{i}=f_{i}g_{i}} , où g i {\displaystyle g_{i}} est la dégénérescence du niveau d'énergie i {\displaystyle i} d'énergie ε i {\displaystyle \varepsilon _{i}} et n i {\displaystyle n_{i}} est le nombre d'états occupant ce niveau (par exemple dans les statistiques de Fermi-Dirac 0 ou 1). L'énergie totale est E {\displaystyle E} et le nombre total d'éléments N {\displaystyle N} sont donnés par E = i n i ε i {\displaystyle E=\sum _{i}n_{i}\varepsilon _{i}} et N = n i {\displaystyle N=\sum n_{i}} .

La méthode de Darwin–Fowler est présentée dans les textes de E. Schrödinger[3], Fowler[4] et Fowler et EA Guggenheim[5], de K. Huang[6], et de HJW Müller–Kirsten[7]. La méthode est également discutée et utilisée pour la dérivation de la condensation de Bose-Einstein dans le livre de RB Dingle[8].

Statistiques classiques

Pour N = i n i {\displaystyle N=\sum _{i}n_{i}} éléments indépendants avec n i {\displaystyle n_{i}} au niveau de l'énergie ε i {\displaystyle \varepsilon _{i}} et E = i n i ε i {\displaystyle E=\sum _{i}n_{i}\varepsilon _{i}} pour un système canonique dans un bain de chaleur avec température T {\displaystyle T} nous fixons

Z = arrangements e E / k T = arrangements i z i n i , z i = e ε i / k T . {\displaystyle Z=\sum _{\text{arrangements}}e^{-E/kT}=\sum _{\text{arrangements}}\prod _{i}z_{i}^{n_{i}},\;\;\;z_{i}=e^{-\varepsilon _{i}/kT}.}

La moyenne sur toutes les combinaisons est le nombre moyen d'occupations

( n i ) av = j n j Z Z = z j z j ln Z . {\displaystyle (n_{i})_{\text{av}}={\frac {\sum _{j}n_{j}Z}{Z}}=z_{j}{\frac {\partial }{\partial z_{j}}}\ln Z.}

Insérons une variable de sélection ω {\displaystyle \omega } en réglant

Z ω = i ( ω z i ) n i . {\displaystyle Z_{\omega }=\sum \prod _{i}(\omega z_{i})^{n_{i}}.}

Dans les statistiques classiques, les N {\displaystyle N} éléments sont (a) distinguables et peuvent être arrangés par paquets de n i {\displaystyle n_{i}} éléments au niveau ε i {\displaystyle \varepsilon _{i}} dont le numéro est

N ! i n i ! , {\displaystyle {\frac {N!}{\prod _{i}n_{i}!}},}

de sorte que dans ce cas

Z ω = N ! n i i ( ω z i ) n i n i ! . {\displaystyle Z_{\omega }=N!\sum _{n_{i}}\prod _{i}{\frac {(\omega z_{i})^{n_{i}}}{n_{i}!}}.}

En tenant compte de (b) la dégénérescence g i {\displaystyle g_{i}} de niveau ε i {\displaystyle \varepsilon _{i}} , cette expression devient

Z ω = N ! i = 1 ( n i = 0 , 1 , 2 , ( ω z i ) n i n i ! ) g i = N ! e ω i g i z i . {\displaystyle Z_{\omega }=N!\prod _{i=1}^{\infty }\left(\sum _{n_{i}=0,1,2,\ldots }{\frac {(\omega z_{i})^{n_{i}}}{n_{i}!}}\right)^{g_{i}}=N!e^{\omega \sum _{i}g_{i}z_{i}}.}

La variable de sélection ω {\displaystyle \omega } permet de choisir le coefficient de ω N {\displaystyle \omega ^{N}} lequel est Z {\displaystyle Z} . Ainsi

Z = ( i g i z i ) N , {\displaystyle Z=\left(\sum _{i}g_{i}z_{i}\right)^{N},}

et donc

( n j ) av = z j z j ln Z = N g j e ε j / k T i g i e ε i / k T . {\displaystyle (n_{j})_{\text{av}}=z_{j}{\frac {\partial }{\partial z_{j}}}\ln Z=N{\frac {g_{j}e^{-\varepsilon _{j}/kT}}{\sum _{i}g_{i}e^{-\varepsilon _{i}/kT}}}.}

Ce résultat concorde avec la valeur la plus probable obtenue par maximisation et ne comporte aucune approximation et s'avère donc exact. Il démontre ainsi la puissance de cette méthode de Darwin-Fowler.

Statistiques quantiques

Nous avons comme ci-dessus

Z ω = ( ω z i ) n i , z i = e ε i / k T , {\displaystyle Z_{\omega }=\sum \prod (\omega z_{i})^{n_{i}},\;\;z_{i}=e^{-\varepsilon _{i}/kT},}

n i {\displaystyle n_{i}} est le nombre d'éléments dans le niveau d'énergie ε i {\displaystyle \varepsilon _{i}} . Étant donné que dans les statistiques quantiques, les éléments sont indiscernables, aucun calcul préliminaire du nombre de façons de diviser les éléments en paquets n 1 , n 2 , n 3 , . . . {\displaystyle n_{1},n_{2},n_{3},...} est requis. Donc la somme {\displaystyle \sum } se réfère uniquement à la somme des valeurs possibles de n i {\displaystyle n_{i}} .

Dans le cas des statistiques de Fermi-Dirac, nous avons

n i = 0 {\displaystyle n_{i}=0} ou n i = 1 {\displaystyle n_{i}=1}

par état. Il y a g i {\displaystyle g_{i}} états pour le niveau d'énergie ε i {\displaystyle \varepsilon _{i}} . Par conséquent nous avons

Z ω = ( 1 + ω z 1 ) g 1 ( 1 + ω z 2 ) g 2 = ( 1 + ω z i ) g i . {\displaystyle Z_{\omega }=(1+\omega z_{1})^{g_{1}}(1+\omega z_{2})^{g_{2}}\cdots =\prod (1+\omega z_{i})^{g_{i}}.}

Dans le cas des statistiques de Bose-Einstein, nous avons

n i = 0 , 1 , 2 , 3 , . {\displaystyle n_{i}=0,1,2,3,\ldots \infty .}

Par la même procédure que précédemment on obtient

Z ω = ( 1 + ω z 1 + ( ω z 1 ) 2 + ( ω z 1 ) 3 + ) g 1 ( 1 + ω z 2 + ( ω z 2 ) 2 + ) g 2 . {\displaystyle Z_{\omega }=(1+\omega z_{1}+(\omega z_{1})^{2}+(\omega z_{1})^{3}+\cdots )^{g_{1}}(1+\omega z_{2}+(\omega z_{2})^{2}+\cdots )^{g_{2}}\cdots .}

Mais

1 + ω z 1 + ( ω z 1 ) 2 + = 1 ( 1 ω z 1 ) . {\displaystyle 1+\omega z_{1}+(\omega z_{1})^{2}+\cdots ={\frac {1}{(1-\omega z_{1})}}.}

Donc

Z ω = i ( 1 ω z i ) g i . {\displaystyle Z_{\omega }=\prod _{i}(1-\omega z_{i})^{-g_{i}}.}

Résumant les deux cas et rappelant la définition de Z {\displaystyle Z} , on a que Z {\displaystyle Z} est le coefficient de ω N {\displaystyle \omega ^{N}} dans

Z ω = i ( 1 ± ω z i ) ± g i , {\displaystyle Z_{\omega }=\prod _{i}(1\pm \omega z_{i})^{\pm g_{i}},}

où les signes + s'appliquent aux statistiques de Fermi-Dirac et les signes - aux statistiques de Bose-Einstein.

Ensuite, nous devons évaluer le coefficient de ω N {\displaystyle \omega ^{N}} dans Z ω . {\displaystyle Z_{\omega }.} Dans le cas d'une fonction ϕ ( ω ) {\displaystyle \phi (\omega )} qui peut être étendu comme

ϕ ( ω ) = a 0 + a 1 ω + a 2 ω 2 + , {\displaystyle \phi (\omega )=a_{0}+a_{1}\omega +a_{2}\omega ^{2}+\cdots ,}

le coefficient de ω N {\displaystyle \omega ^{N}} est obtenu à l'aide du théorème des résidus de Cauchy ,

a N = 1 2 π i ϕ ( ω ) d ω ω N + 1 . {\displaystyle a_{N}={\frac {1}{2\pi i}}\oint {\frac {\phi (\omega )d\omega }{\omega ^{N+1}}}.}

On note que le coefficient Z {\displaystyle Z} dans ce qui précède peut être obtenu comme

Z = 1 2 π i Z ω ω N + 1 d ω 1 2 π i e f ( ω ) d ω , {\displaystyle Z={\frac {1}{2\pi i}}\oint {\frac {Z_{\omega }}{\omega ^{N+1}}}d\omega \equiv {\frac {1}{2\pi i}}\int e^{f(\omega )}d\omega ,}

f ( ω ) = ± i g i ln ( 1 ± ω z i ) ( N + 1 ) ln ω . {\displaystyle f(\omega )=\pm \sum _{i}g_{i}\ln(1\pm \omega z_{i})-(N+1)\ln \omega .}

En différenciant on obtient

f ( ω ) = 1 ω [ i g i ( ω z i ) 1 ± 1 ( N + 1 ) ] , {\displaystyle f'(\omega )={\frac {1}{\omega }}\left[\sum _{i}{\frac {g_{i}}{(\omega z_{i})^{-1}\pm 1}}-(N+1)\right],}

et

f ( ω ) = N + 1 ω 2 1 ω 2 i g i [ ( ω z i ) 1 ± 1 ] 2 . {\displaystyle f''(\omega )={\frac {N+1}{\omega ^{2}}}\mp {\frac {1}{\omega ^{2}}}\sum _{i}{\frac {g_{i}}{[(\omega z_{i})^{-1}\pm 1]^{2}}}.}

On évalue maintenant les dérivées première et seconde de f ( ω ) {\displaystyle f(\omega )} au point fixe ω 0 {\displaystyle \omega _{0}} auquel f ( ω 0 ) = 0. {\displaystyle f'(\omega _{0})=0.} . Cette méthode d'évaluation de Z {\displaystyle Z} autour du point de selle ω 0 {\displaystyle \omega _{0}} est connue comme la méthode de descente la plus raide. On obtient alors

Z = e f ( ω 0 ) 2 π f ( ω 0 ) . {\displaystyle Z={\frac {e^{f(\omega _{0})}}{\sqrt {2\pi f''(\omega _{0})}}}.}

Nous avons f ( ω 0 ) = 0 {\displaystyle f'(\omega _{0})=0} et donc

( N + 1 ) = i g i ( ω 0 z i ) 1 ± 1 {\displaystyle (N+1)=\sum _{i}{\frac {g_{i}}{(\omega _{0}z_{i})^{-1}\pm 1}}}

(le +1 étant négligeable puisque N {\displaystyle N} est large). Nous verrons dans un instant que cette dernière relation est simplement la formule

N = i n i . {\displaystyle N=\sum _{i}n_{i}.}

On obtient le nombre moyen d'occupation ( n i ) a v {\displaystyle (n_{i})_{av}} en calculant

( n j ) a v = z j d d z j ln Z = g j ( ω 0 z j ) 1 ± 1 = g j e ( ε j μ ) / k T ± 1 , e μ / k T = ω 0 . {\displaystyle (n_{j})_{av}=z_{j}{\frac {d}{dz_{j}}}\ln Z={\frac {g_{j}}{(\omega _{0}z_{j})^{-1}\pm 1}}={\frac {g_{j}}{e^{(\varepsilon _{j}-\mu )/kT}\pm 1}},\quad e^{\mu /kT}=\omega _{0}.}

Cette expression donne le nombre moyen de N {\displaystyle N} éléments dans le volume V {\displaystyle V} qui occupent à température T {\displaystyle T} le niveau à une particule ε j {\displaystyle \varepsilon _{j}} avec dégénérescence g j {\displaystyle g_{j}} (voir par exemple probabilité a priori ). Pour que la relation soit fiable, il faut vérifier que les contributions d'ordre supérieur diminuent initialement en amplitude de sorte que l'expansion autour du point de selle donne effectivement une expansion asymptotique.

Notes et références

  1. (en) « Darwin–Fowler method », Encyclopedia of Mathematics (consulté le )
  2. a et b Darwin et Fowler, « On the partition of energy », Phil. Mag., vol. 44,‎ , p. 450–479, 823–842 (DOI 10.1080/14786440908565189)
  3. E. Schrödinger, Statistical Thermodynamics, Cambridge University Press,
  4. R. H. Fowler, Statistical Mechanics, Cambridge University Press,
  5. R. H. Fowler et E. Guggenheim, Statistical Thermodynamics, Cambridge University Press,
  6. K. Huang, Statistical Mechanics, Wiley,
  7. H. J. W. Müller–Kirsten, Basics of Statistical Physics, World Scientific, (ISBN 978-981-4449-53-3)
  8. R. B. Dingle, Asymptotic Expansions: Their Derivation and Interpretation, Academic Press, , 267–271 p. (ISBN 0-12-216550-0)

Bibliographie

  • (en) Jagdish Mehra et Helmut Rechenberg, The Historical Development of Quantum Theory, Springer Science & Business Media, (ISBN 9780387951805, lire en ligne)
  • icône décorative Portail de la physique