「ねえ、葵先輩。コイントスって本当にランダムなんですか?」
放課後の情報理論クラブの部室で、由紀は机の上でコインを回しながら尋ねた。
「いい質問だね」葵はノートを開き、丁寧に書かれた図を指差した。「物理的には決定論的かもしれない。でも情報理論では、予測できない結果を『ランダム』と呼ぶんだ」
「つまり、知識の問題?」
「そう。エントロピーって概念を聞いたことある?」
由紀は首を横に振った。葵は簡単な図を描き始める。
「2つの箱を想像して。一つには白い球だけが100個。もう一つには白と黒が50個ずつ。どちらから球を取り出すとき、結果がより予測しにくい?」
「50個ずつの方です」
「正解。その『予測しにくさ』を数値化したものがエントロピー。シャノンという研究者が定式化した」
その時、陸が勢いよくドアを開けた。
「やっべー!遅刻した!今日の部活、何やってるの?」
「ランダムとエントロピーの話」葵が答えた。
「ランダム?俺、めっちゃランダムだよ!行動が予測できないって言われる」
由紀は笑った。「でも陸くん、いつも遅刻するでしょ?それ、予測可能じゃない?」
「うっ、確かに」
葵がノートに数式を書いた。「H(X) = -Σ p(x) log p(x)。これがエントロピーの式。確率p(x)で起こる事象xがあるとき、平均的な不確実性を表す」
「難しそう…」由紀が顔を曇らせる。
「具体例で考えよう。陸が時間通りに来る確率を0.1、遅刻する確率を0.9とする」
「リアルすぎる!」陸が叫んだ。
「この場合、エントロピーは約0.47ビット。でも、もし陸がいつも確実に遅刻するなら、確率は1.0で、エントロピーは0になる」
「確実だと、エントロピーがゼロ?」由紀が驚いた。
「そう。完全に予測できる事象には、情報的な驚きがない。不確実性がゼロだから」
陸が考え込んだ。「じゃあ俺、もっとランダムに行動すべき?」
「それは違う意味で問題だけどね」葵が微笑んだ。「でも面白い視点だ。通信システムでは、高エントロピーの信号は圧縮しにくい。逆に低エントロピー、つまりパターンのある信号は圧縮できる」
由紀の目が輝いた。「だからzipファイルは、パターンのあるデータをうまく小さくできるんですね」
「正確には、エントロピーが圧縮の限界を決める。これがシャノンの源符号化定理だ」
「待って」陸が手を挙げた。「じゃあ、完全にランダムなデータは圧縮できないってこと?」
「その通り。ランダムノイズを圧縮しようとしても、基本的には無理だ。すでに最大エントロピー状態だから」
由紀はコインを再び見つめた。「じゃあこのコイン、本当にランダムなら、投げる結果は1ビットのエントロピーを持つ…」
「正解!表と裏が等確率なら、まさに1ビット」
「情報理論って、不確実性を数学で扱うんですね」
葵が頷いた。「そう。情報とは、不確実性を減らすもの。メッセージを受け取ると、エントロピーが下がる。それが情報の本質だよ」
陸が真剣な顔をした。「じゃあ俺、明日は確実に時間通りに来る」
「それ、昨日も言ってたよ」由紀が笑った。
「…俺のエントロピー、まだまだ高いってことか」
三人の笑い声が、放課後の部室に響いた。