ミラが今日も静かにノートに数字を書いている。
「何を測ってるの?」由紀が覗き込んだ。
ミラが書いた。「Entropy」
「エントロピー」葵が翻訳した。「不確実性の尺度だ」
「不確実性を測る?」
「そう。ミラは、身の回りのあらゆる現象のエントロピーを測ってる」
由紀がノートを見た。「天気、サイコロ、会話の話題...」
「全てに確率分布がある。そして、エントロピーが計算できる」葵が説明した。
ミラが式を書いた。
「H(X) = -Σ p(x) log₂ p(x)」
「これがシャノンエントロピー」葵が言った。「確率分布から、平均的な情報量を計算する」
「難しそう」由紀が顔をしかめた。
「具体例で考えよう」葵がホワイトボードに描いた。「コインを投げる。表が出る確率は?」
「半々だから、0.5」
「正解。では、エントロピーは?」
葵が計算した。「H = -0.5 log₂ 0.5 - 0.5 log₂ 0.5 = 1 bit」
「1 bitの不確実性がある」
ミラが頷いて、次の例を書いた。「Biased coin: p=0.9」
「偏ったコイン。表が90パーセント出る」葵が続けた。「エントロピーは?」
由紀が計算に挑戦した。「H = -0.9 log₂ 0.9 - 0.1 log₂ 0.1 ≈ 0.47 bit」
「正解。公平なコインより低い」
「不確実性が減ったから?」
「そう。結果がある程度予測できると、エントロピーは下がる」
ミラが新しい例を書いた。「Dice: 6 outcomes」
「サイコロは6通り。全て等確率なら」葵が計算した。「H = log₂ 6 ≈ 2.58 bits」
「コインより高い」由紀が気づいた。
「選択肢が多いほど、不確実性が増す。でも、これは等確率の場合だ」
ミラがさらに書いた。「Weighted dice」
「もし、1の目が出る確率が高い不正なサイコロなら、エントロピーは下がる」
由紀が理解し始めた。「予測可能性が上がるから」
「完璧。エントロピーは、最も予測しにくい時に最大になる」
葵が重要な定理を述べた。「等確率分布が、エントロピーを最大化する」
「なぜ?」
「どの結果も同じ確率なら、最も不確実だから」
ミラが日常の例を書いた。「Lunch menu entropy」
「面白い」葵が笑った。「毎日同じものを食べる人は、エントロピーがゼロに近い」
「いろんなものをランダムに食べる人は、高エントロピー」由紀が続けた。
「そう。ミラは、そういう日常のエントロピーを測ってる」
由紀がミラのノートを見た。「先輩の行動パターン、部室の話題、天気...」
「全て確率現象として扱える」葵が言った。「そして、エントロピーで不確実性を定量化できる」
「でも、なんで測るの?」由紀が聞いた。
ミラが静かに答えた。「...予測するため」
葵が補足した。「エントロピーが分かれば、どれくらい情報が必要か分かる」
「情報が必要?」
「そう。高エントロピーな現象を圧縮するには、多くのビットが必要。低エントロピーなら、少ないビットで済む」
由紀が驚いた。「ファイル圧縮と関係あるんですか?」
「大いに。ファイルのエントロピーが、理論的な圧縮限界を決める」
ミラが書いた。「Shannon's source coding theorem」
「シャノンの情報源符号化定理」葵が説明した。「エントロピー未満には圧縮できない」
「すごい」
「でも、エントロピーすれすれまでは圧縮できる。それが理論限界だ」
由紀がまとめた。「エントロピーを測ることは、不確実性を知ること。そして、それに対処する方法を考えること」
「正解」葵が認めた。
ミラが微笑んだ。彼女にとって、世界はエントロピーの集まりだった。
「私も測ってみようかな」由紀が言った。「自分の生活のエントロピー」
「面白いかもね」葵が賛成した。
三人は、それぞれの不確実性を測り始めた。エントロピーを知ることは、世界を理解する第一歩だった。