エントロピーを測る少女

エントロピーの概念を通じて、不確実性と情報量の関係を理解する物語。

  • #entropy
  • #uncertainty
  • #information measurement
  • #Shannon entropy

ミラが今日も静かにノートに数字を書いている。

「何を測ってるの?」由紀が覗き込んだ。

ミラが書いた。「Entropy」

「エントロピー」葵が翻訳した。「不確実性の尺度だ」

「不確実性を測る?」

「そう。ミラは、身の回りのあらゆる現象のエントロピーを測ってる」

由紀がノートを見た。「天気、サイコロ、会話の話題...」

「全てに確率分布がある。そして、エントロピーが計算できる」葵が説明した。

ミラが式を書いた。

「H(X) = -Σ p(x) log₂ p(x)」

「これがシャノンエントロピー」葵が言った。「確率分布から、平均的な情報量を計算する」

「難しそう」由紀が顔をしかめた。

「具体例で考えよう」葵がホワイトボードに描いた。「コインを投げる。表が出る確率は?」

「半々だから、0.5」

「正解。では、エントロピーは?」

葵が計算した。「H = -0.5 log₂ 0.5 - 0.5 log₂ 0.5 = 1 bit」

「1 bitの不確実性がある」

ミラが頷いて、次の例を書いた。「Biased coin: p=0.9」

「偏ったコイン。表が90パーセント出る」葵が続けた。「エントロピーは?」

由紀が計算に挑戦した。「H = -0.9 log₂ 0.9 - 0.1 log₂ 0.1 ≈ 0.47 bit」

「正解。公平なコインより低い」

「不確実性が減ったから?」

「そう。結果がある程度予測できると、エントロピーは下がる」

ミラが新しい例を書いた。「Dice: 6 outcomes」

「サイコロは6通り。全て等確率なら」葵が計算した。「H = log₂ 6 ≈ 2.58 bits」

「コインより高い」由紀が気づいた。

「選択肢が多いほど、不確実性が増す。でも、これは等確率の場合だ」

ミラがさらに書いた。「Weighted dice」

「もし、1の目が出る確率が高い不正なサイコロなら、エントロピーは下がる」

由紀が理解し始めた。「予測可能性が上がるから」

「完璧。エントロピーは、最も予測しにくい時に最大になる」

葵が重要な定理を述べた。「等確率分布が、エントロピーを最大化する」

「なぜ?」

「どの結果も同じ確率なら、最も不確実だから」

ミラが日常の例を書いた。「Lunch menu entropy」

「面白い」葵が笑った。「毎日同じものを食べる人は、エントロピーがゼロに近い」

「いろんなものをランダムに食べる人は、高エントロピー」由紀が続けた。

「そう。ミラは、そういう日常のエントロピーを測ってる」

由紀がミラのノートを見た。「先輩の行動パターン、部室の話題、天気...」

「全て確率現象として扱える」葵が言った。「そして、エントロピーで不確実性を定量化できる」

「でも、なんで測るの?」由紀が聞いた。

ミラが静かに答えた。「...予測するため」

葵が補足した。「エントロピーが分かれば、どれくらい情報が必要か分かる」

「情報が必要?」

「そう。高エントロピーな現象を圧縮するには、多くのビットが必要。低エントロピーなら、少ないビットで済む」

由紀が驚いた。「ファイル圧縮と関係あるんですか?」

「大いに。ファイルのエントロピーが、理論的な圧縮限界を決める」

ミラが書いた。「Shannon's source coding theorem」

「シャノンの情報源符号化定理」葵が説明した。「エントロピー未満には圧縮できない」

「すごい」

「でも、エントロピーすれすれまでは圧縮できる。それが理論限界だ」

由紀がまとめた。「エントロピーを測ることは、不確実性を知ること。そして、それに対処する方法を考えること」

「正解」葵が認めた。

ミラが微笑んだ。彼女にとって、世界はエントロピーの集まりだった。

「私も測ってみようかな」由紀が言った。「自分の生活のエントロピー」

「面白いかもね」葵が賛成した。

三人は、それぞれの不確実性を測り始めた。エントロピーを知ることは、世界を理解する第一歩だった。