読書感想文『統計力学I,II』

http://www.gakushuin.ac.jp/~881791/statbook/
色々思うとこがあって、買って読んでみた。以下、疑問点と妄想


1)4-1-6節
エルゴード仮説に基づく統計力学の基礎付けを批判している節なのだけど、
『さらに、一般的な古典力学の系において、ミクロカノニカル測度以外にもエルゴード的な不変測度は(一般には無数に)存在する。よって、エルゴード性によってミクロカノニカル分布を特別に選び出すことはできないのだ』
という一文は謎。

http://www.gakushuin.ac.jp/~881791/statbook/QandA.html#ergodicity1
に、もうちょっと詳しく書いてある。
『要するに、エネルギーが U と U + DU の範囲にあるような状態(古典系だから、相空間の点)にどのような重みをつければいいかという問題だから、これは相空間上の測度を選ぶ問題です。通常の平衡統計力学につながる「正解」は、(p, q 座標についての)ルベーグ測度を選ぶことですが、なぜルベーグ測度を特に選ぶかの理由を考えなくてはいけません。ひとつの基準は、力学の時間発展について不変な測度を選ぶこと。ところが、ちょっと考えれば分かるように、不変測度なんていくらでもあります。そこで、不変測度のなかでもエルゴード性を満たすエルゴード測度を選ぶという考えがあるわけですが、(そもそも大自由度の一般の力学系で、ミクロカノニカル測度がエルゴード的かどうかを判定するのは、人類には全く歯が立たない超難問だし)ミクロカノニカル測度以外にもエルゴード的な測度はたくさんある。 』

(統計力学と関係なく)古典力学に於いて、相空間に入れる自然な測度として普通考えられるのは、Liouville測度のはず。Liouville測度が自然な理由はsymplectic構造にのみ依存してハミルトニアンに依存しない不変測度だからだと思う。周期軌道の上に局在しているような不変測度は、明らかにハミルトニアンに依存している。ルベーグ測度になるのは、標準的なsymplectic構造を考えればLiouville測度がルベーグ測度と一致するからに過ぎない。測度がハミルトニアンに依存してはいけない物理的な理由というのもないとは思うけども、このへんを著者がどう考えてるかは明確ではない(数学的には、Liouville測度は特権的に自然だと思うけど)。

#細かいこと言うと、ハミルトニアンに依存しない不変測度って他に無いの?という疑問はあるけど、答えは知らない

#他のsymplectic構造はどうなんだという疑問には、多分偶数次元ユークリッド空間に入るSymplectic構造で許されるものはどんなものか数学者が調べてそうな気がする。おそらく一意なんだろう。あるいは、局所的な話を考えてるんだとかいう正当化もできるかもしれない。まあ、どーでもいい

(追記1)何が謎なのか、はっきり理解できた。通常、エルゴード仮説が古典統計力学を導くという時には、時間発展で不変な分布関数を考えている(従って、分布関数がfでLioville測度がdμとすると、"統計力学的測度"はfdμ。fは等エネルギー面上で定数になるというのがエルゴード仮説の帰結)のに対して、著者は、時間発展で不変な測度を考えようとしている。後者は対象が広すぎて、エルゴード仮説だけでは確かに、ミクロカノニカル測度を選び出すことはできない。けど、普通は分布関数しか考えないよねというのが、正しい突っ込み(と思う)。で、分布関数で見る方が自然だというのは、量子論との類似性からじゃないと言えないだろう(追記3参照)というのが、著者の言いたいことな気がした


2)4-1-6節
同じ節。本とは順序が前後するけれど、エルゴード仮説に対する、もう一つの批判。時間平均といっても、無限時間の平均を計算することは物理的には無意味なので、有限時間での平均を考えねばならないが、例え小さな系でも、粒子が系を稠密に覆うには、膨大な時間がかかり、有限時間平均がアンサンブル平均をよく近似するには、非常に大きな時間幅を取る必要がある(例えば、著者の見積もりでは、1辺10cmの立方体内に二粒子がある系で10^18年以上で、宇宙の年齢を軽く超える)。従って、長時間平均というものは、物理的にnonsenseという主張。


この主張自体は、エルゴード仮説に対する批判として、よくあるものな気がする。けど、この議論は、いささかnaive。細かく見ると、著者の主張は二つあって
・少数粒子系ですら、有限時間平均の収束は非常に遅い(だろう)
・粒子数が増えれば増えるほど、有限時間平均の収束は急激に遅くなる(だろう。しかし統計力学は粒子数が多いほど自然に構築されるべきで、これは全くおかしい)
一見これらは正しそうだけど、本当に?少なくとも、本に書いてある議論だけから、そんなことを言っていいとは思えない


エルゴード仮説のヘビーユーザというと、古典MD(分子動力学)をやってる人たちだと思うのだけど、MDでは、アンサンブル平均を出すのに、エルゴード仮説を頼りに長時間平均を用いる(と教科書によく書いている。実は、MDをまともに使ったり、コード書いたことはない。てか、能勢熱浴ではカノニカル分布に収束するのだから、アンサンブル平均でもよくねとか思う。カノニカル分布に収束したかの判定が難しいのか)。MDで使う粒子数は、数百万〜数億が現在の標準だろう(2008年頃にarxivに90億粒子のMDをやったという論文が出ていた記憶がある)。系のサイズは、それに応じて相当小さいものということになる。どれくらいの時間の平均を取るかというと、大体数千〜数万ステップ(1ステップ1分で、丸一日走らせても、1440ステップにしかならないので、まあそんなもんだろう)くらいで、これは、まともなタイムステップなら、ピコ秒とかナノ秒とかに相当し、とにかく1secよりずっと短い。

著者の主張が正しければ、必要な時間はもっとずっと大きいはず。勿論、シミュレーションなので、ほんとに収束してるの?という疑惑はある。MD屋さんも収束には注意を払ってはいるけれど、彼らは収束しつつあることを証明しているわけではない。ただ、アンサンブル平均がでれば、揺らぎから比熱がでるし、Green-Kubo公式を介して輸送係数も出るし、MDが広く使われていることを思えば、それなりの検証は受けてると考えるのが妥当な気がする。まあ、MDやったことないので、こういう計算したらこんな値が出るとかいえないし、実感として、どれくらい信頼できる値が出るとかもいえないのだけど

(追記2)ここの批判が的外れな理由を書いてなかった。エルゴード仮説で決定できるのは、「もし平衡状態にあるなら許される分布はどのようなものであるか」であって、「どのように平衡状態に達するか」は教えてくれない(というか、単純に考えると、平衡状態には達しないはず)。
http://www.gakushuin.ac.jp/~881791/statbook/QandA.html#irreversibility1
には、『平衡への接近の問題はきわめてデリケートで、エルゴード性を認めても解決はしません。』と書きながら『そもそも、エルゴード性で保証される緩和時間は異様に長く、実際問題としての意味をなさないという点があります。』と書かれていて意味不明だけど、エルゴード仮説は緩和時間については何も教えてくれないというのが正解。ただそれでも、「素朴に考えると時間平均がアンサンブル平均に収束するまで膨大な時間がかかるだろう」という著者の指摘は面白い(というか、MDが正しいなら、この指摘は間違ってるはずなのだけど、どこが間違っているか分からない)


3)4-1-3節
前の節に戻る。等重率の原理の説明と、それを正当化する言い訳が、長々と書いてある。元々、本を購入した動機は、
http://www.gakushuin.ac.jp/~881791/statbook/QandA.html#ergodicity1
にあった
『古典系の等重率の原理に到達する一つの自然な流れは、もちろん、量子系を出発点とすることです。教科書にもあるように、量子系で、「エネルギーがほぼ U の状態は、ほとんどがそっくり」ということを拠り所にして、量子系の等重率の原理を要請。そこで、古典極限をとれば、古典系の等重率の原理になります。 』
という一文が気になったから。単純にvon Neumann方程式を考えて、密度行列が時間発展で不変とすると、密度行列がハミルトニアンと可換ということまでは言える。けど、密度行列の固有値(=各固有状態に対する重み)が全部等しいなんて事はいえないわけで、極論すると、任意の(0でない)解析関数に対して、一個ずつアンサンブルが作れる(逆に、そういう変なアンサブルが実現したら、何が起こるか、何ができるか考えてみるのは面白いかもしれないけど)。と思うのだけど、何か等重率を正当化する理屈があるのかと期待したのだった。


しかし、そんなものはなかった。実際には、等重率を正当化するというより、
『簡単化し過ぎることを恐れずに言い切れば、マクロな熱力学の体系と整合するように、ミクロな(量子)力学の体系に確率分布を導入したのが、平衡統計力学なのだ。』
『ここで導入した等重率の原理に基づく確率モデルは、あくまで平衡状態のマクロま性質を記述するための理論的な方便にすぎないということだ。現実の平衡状態が、確率によって用意されているとか、等重率の原理に正確に従っているというふうに考えるべきではない』
とか書いてあって、これでは、エルゴード仮説で説得された人を、どうこう言えないのではないか。"怪しさ"的には、等重率もエルゴード仮説も似たようなもんで、「エルゴード仮説を基礎にする立場と、等重率を基礎にする立場があって、厳密に考え出すと、どっちもおかしいよ!」っていうくらいが公平な立場かと思った。最近エルゴード仮説が人気ない(?)のは、量子統計力学で困るからじゃないかと個人的には思う。


(追記3)よく考えると、ここの記述は間違ってる。等重率は同一のエネルギーを持つ状態は等しい重みを持つという話なので、もし、密度行列がρ=f(H)と書けるなら(Hはハミルトニアン)、Hの固有値Eの状態|i>と|i'>について(つまり、H|i>=E|i>、H|i'>=E|i'>が成り立つ)、
ρ|i>=f(E)|i>,ρ|i'>=f(E)|i'>
が成り立って、同一のエネルギーに対しては、同じ重みを持つ。問題は、ハミルトニアンの関数(一般にミクロカノニカルアンサンブルでは、デルタ関数的なものを考えるので解析的であることを要求するのもよくない)としては書けないけど、ハミルトニアンと可換な密度行列がある場合。結局、等重率が言っていることは、保存量は自明なもの(つまり、ハミルトニアンの関数で書けるもの)しかないということ、つまり系が全く非可積分ということと同じ。これは要するに、エルゴード仮説の場合と同じ構造で、エルゴード仮説の場合は、「時間発展が各等エネルギー面上でLiouville測度に関してエルゴード的ならば、ハミルトニアンとPoisson可換な関数は、等エネルギー面上で定数になる」ことを保障するというのが本質(ただしエルゴード仮説十分条件ではあるものの必要条件ではない)。だからまあ、上で『怪しさ"的には、等重率もエルゴード仮説も似たようなもん』と書いたのはひどく正確で、厳密に考えると、これらの性質は成り立たない場合もあるのだけど、ほとんどのケースでは成り立つ。ややこしいのは、理論的に綺麗に解ける統計力学の模型は、大抵これらの性質を満たさないという点。現実には保存量というのは大抵小さな摂動で消えてしまう(調和結晶などという理想系は存在せず必ず非調和項があるとか)というのが、ありえる説明なんだろうけど、FPU格子とKAM定理の例などもあるので、事はそこまで単純ではない(歴史的にはFPU格子が、この単純な幻想を破壊したらしい)。


4)9-2-2節
初めて見る話だった。一般の系で、BoltzmannエントロピーS=k log(W)が、熱力学的エントロピーと一致することの「証明」。基本的には、よくある状態数の対数とれば、相加性を満たすよね、示量性も満たすよねとかいう話を精密化したもの。log(W)が熱力学的エントロピーの"公理"(9.1.1節)を満たし、エントロピーの相加性から、比例係数(つまりBoltzmann定数)も系によらず一意に決まらないといけないという論法。実際のとこ、断熱準静的過程の下での不変性を言えば、ほとんどおわり。


(追記4)その後、下のLieb-Yngvasonの論文をまじめに読んで考えてみると、この証明を数学的に厳密なものにするには、"ミクロに見た断熱過程"が、ちゃんと論文の"断熱過程の公理"を満たすことを示す必要があるだろうと思った。まあ、物理の教科書なので、数学的厳密さにこだわりすぎても仕方ないけど、もやもやした部分が残る


http://d.hatena.ne.jp/hiroki_f/20110113
で「注意深く統計力学のボルツマンエントロピーの導出をみると、ボツルマンエントロピーの式と熱力学のエントロピー理想気体についての考察によって導かれている。つまり、理想気体以外の場合にボルツマンエントロピーを適用するのは推論でしかない。」と書いてあるけど、これでいいんじゃないかなぁ。


ところで、このエントロピーの公理と、それを満たす関数が本質的に一意であることは、
熱力学 ― 現代的な視点から
http://www.gakushuin.ac.jp/~881791/td/
を見てねと書いてある。今更熱力学の本を買うのもなぁと思って、よく調べたら、元ネタはLieb-Yngvasonの論文みたいなことが書いてある。関連するのは、
The Physics and Mathematics of the Second Law of Thermodynamics
http://arxiv.org/abs/cond-mat/9708200
A Guide to Entropy and the Second Law of Thermodynamics
http://arxiv.org/abs/math-ph/9805005
A Fresh Look at Entropy and the Second Law of Thermodynamics
http://arxiv.org/abs/math-ph/0003028
The Mathematical Structure of the Second Law of Thermodynamics
http://arxiv.org/abs/math-ph/0204007
あたり。熱力学の公理を与えてやったぜヒャッハーという論文らしい。まあ、読んでないんだけど。このへん踏まえてると、p306の「このようにして、平衡状態Sを別の平衡状態S'に移す手続きを断熱操作と呼ぶ。記号的には、S->S'と書く」という記述が、Lieb-Yngvasonの公理を意識してのものなんだなぁとか分かった。しかし論文の単調性条件(「X->Yならば、S(X)<=S(Y)」)は、本では、「断熱準静的過程での不変性」と「内部エネルギーUの増加関数であること」の二つに分けられてる。論文の方がsimpleでよいと思うのだけど、こういう風にした理由が不明


とりあえず、これらの論文が出たのと、わたしが熱力学を勉強したのは同時期だったので、知らなくても仕方ない



以下、未来の(平衡)統計力学はどうあるべきかという妄想。ミクロカノニカル分布やカノニカル分布の導出で、知る限り一番スマートなのは、S=-k_B \sum p_{i} \log p_iの変分が適当な制約条件の下で0になることから出すものだと個人的には思ってる。Sがエントロピーであることを知ってれば、Sの変分が0になることを要請するのは自然だけれども、仮にSがエントロピーと一致することを言えたとしても、それは熱力学前提の知識なので、力学だけから熱力学を導出したいという、統計力学の目標は達成されない。で、平衡状態でSの変分が0になることを言う必要があるけど、それを言うには多分、ミクロな系が平衡状態にどうやって到達するかを説明しないといけなくて、それは本質的に時間の不可逆性の起源を説明するという、とても難しい問題を解決しなければならず、今のとこ実質的に不可能なので、現在の統計力学の基礎付けは、どうしても不自然なものになってるというのが、わたしの見解。

今のとこある種の不可逆性を出すtrickとして知られているものは、時間に依存するHamiltonianを持ち込むというものじゃないかと思う(線形応答理論とか)。これは非常に成功してる手法と思うけど、非可逆性を導くという観点からは、インチキじゃないかと思う。まあ、わたしの統計力学周りの知識は学部で習ったことが全てで、最近の研究は知らないので、別の技もあるかもしれないけど。量子論で考えれば、von Neumannエントロピーはユニタリー変換で不変なので、エントロピーが変化するためには、どこかから非ユニタリーな変換を持ち込まないといけない。非ユニタリー的な過程については、人類はまだ多くのことを理解してないけど、このへんの理解が進めば、時間の不可逆性の問題も勝手に解決するのではないかと妄想している。



どーでもいいけど、2冊で6700円で、本屋に平積みになってたので、結構売れてるのだろう。多分、理系学生の多くが、統計力学を履修するので、年間1~2万部程度は売れてそう。てことは、年間一億円程度の売り上げ。おいしいな!熱力学の方が売れそうだから、+1億円くらいか