「葵先輩、毎日同じことの繰り返しって、エントロピー的にどうなんですか?」
陸が唐突に質問した。
「定常過程の話だね」葵が答えた。
「定常過程?」由紀が聞いた。
「時間が経っても統計的性質が変わらない過程。例えば、毎日同じパターンで生活する」
葵はノートに図を描いた。
「でも、完全に同じじゃない。少しずつ変化がある」
「そこでエントロピーレートが重要になる」
「エントロピーレート?」
「単位時間あたりのエントロピー増加量。H'(X) = lim_{n→∞} H(X_n|X_1,...,X_{n-1})/n」
陸が混乱した。「複雑すぎる」
「簡単に言うと、新しい情報が毎秒どれくらい生まれるか、だ」
由紀が理解し始めた。「予測可能性と関係あるんですか?」
「まさに。エントロピーレートが低いほど、予測しやすい」
葵は例を出した。
「天気は、ある程度パターンがある。晴れの翌日も晴れが多い」
「マルコフ連鎖ですか?」由紀が言った。
「そう。現在の状態が分かれば、過去全部を知る必要はない」
「効率的ですね」
「エントロピーレートは、このマルコフ性を定量化する」
陸が別の角度から聞いた。「じゃあ、俺の人生のエントロピーレートは?」
葵が笑った。「高いかもね。予測不可能だから」
「それって褒めてる?」
「どちらとも取れる。高エントロピーレートは、変化に富むということ」
由紀が考えた。「でも、低すぎると退屈ですよね」
「そう。完全に予測可能なら、エントロピーレートはゼロ。何も新しいことが起きない」
葵は式を書いた。
「H'(X) ≤ H(X)。等号は独立な場合だけ」
「相関があると、エントロピーレートは下がる」
「過去から学べるってこと?」由紀が確認した。
「正確。過去を知ることで、未来の不確実性が減る」
陸が興奮した。「じゃあ、歴史を学ぶのは、エントロピーレートを下げるため?」
「面白い解釈だ」葵が認めた。「パターンを見つけることで、予測可能性が上がる」
「でも」由紀が心配そうに言った。「パターンに頼りすぎると、新しい変化に対応できない」
「過学習だ」葵が指摘した。「機械学習でも同じ問題がある」
「過学習?」
「訓練データのパターンを覚えすぎて、新しいデータに対応できなくなる」
陸が理解した。「バランスが大事なんだ」
「そう。適度な規則性と、適度な変化」
葵は窓の外を見た。
「人生も、エントロピーレートが重要かもしれない」
「どういう意味ですか?」由紀が聞いた。
「低すぎると退屈、高すぎると混乱。適切なレートが、充実感を生む」
陸が頷いた。「毎日少しずつ新しいこと」
「新しいことばかりだと疲れるけど、同じことばかりだとつまらない」
由紀がノートにまとめた。「エントロピーレートは、変化と安定のバランス」
「美しいまとめだ」葵が言った。
「情報理論って」陸が言った。「人生の指針にもなるんだな」
「道具は道具だけど、洞察は得られる」
葵は最後に付け加えた。
「エントロピーレートは、情報源の本質を表す。人間も、一種の情報源だ」
「どんな情報を発信してるか」由紀が考えた。
「そして、どれくらいの速度で新しい情報を生み出してるか」
「俺は高レート」陸が言った。
「私は中レート」由紀が続けた。
「私は…」葵が考え込んだ。「状況に応じて変わる、適応的なレートかな」
三人は笑った。
時間は流れ続ける。エントロピーも増え続ける。でも、そのレートは選べるかもしれない。
今日も、彼らは新しい1ビットを生み出した。