エントロピーって何?教えてアオイ先輩!

エントロピー、不確実性、そして情報理論が世界を理解するのにどう役立つかの探求。

  • #entropy
  • #uncertainty
  • #information measure
  • #Shannon entropy

「先輩、エントロピーって何ですか?」

由紀は放課後の教室で、葵に尋ねた。情報理論クラブに入って初めての質問だった。

「良い質問だね。エントロピーは、不確実性の量を測るものだ」

「不確実性の量…?」

葵はノートに簡単な図を描いた。「例えば、明日の天気を予測するとしよう。晴れか雨か、どちらかだとする」

「はい」

「もし、明日は100パーセント晴れだと確信していたら、どう感じる?」

「安心します。傘を持たなくていいから」

「そう。そこには不確実性がない。エントロピーはゼロだ」

由紀が頷く。「逆に、晴れと雨が50パーセントずつなら?」

「その通り。最も不確実な状態。エントロピーは最大になる」葵はグラフを描き加えた。「2つの選択肢が等しく確からしいとき、エントロピーは1ビットだ」

「ビット?データの単位ですよね」

「情報理論では、情報量の単位でもある。1ビットは、2つの選択肢から1つを選ぶ情報量」

由紀は考え込んだ。「じゃあ、選択肢が増えたら?」

「良い質問。サイコロを考えてみよう。6つの目があって、どれが出るかわからない」

「6つの選択肢…」

「エントロピーは log₂(6) で、約2.58ビットになる」葵が式を書いた。

「log₂って何ですか?」

「2を何回掛けたら6になるか、という意味。2の2.58乗がおよそ6だ」

「なんで2なんですか?」

「ビットが2進数だから。でも自然対数を使えば、単位は『ナット』になる。本質は同じだ」

由紀がノートに書き写す。「でも、なんで対数なんですか?」

葵が微笑んだ。「良い疑問だね。情報量は加法性を持つ。2つの独立なイベントの情報量は、それぞれの和になる。確率は掛け算になるけど、対数をとると足し算になる」

「ああ、log(a×b) = log(a) + log(b)!」

「正解。だから対数が自然な尺度なんだ」

由紀は少し考えて、また質問した。「でも、もしサイコロが細工されていて、1の目が出やすかったら?」

「鋭いね。その場合、エントロピーは低くなる。一般的な式は H(X) = -Σ p(x) log₂ p(x) だ」

「p(x)は確率…」

「そう。各結果の確率で重み付けした平均。偏った分布ほど、エントロピーは低い」

葵はホワイトボードに例を書いた。

「例: p(1)=0.5, p(2)=0.1, p(3)=0.1, p(4)=0.1, p(5)=0.1, p(6)=0.1 H = -0.5×log₂(0.5) - 5×(0.1×log₂(0.1)) H ≈ 2.16ビット」

「2.58より小さい!」

「そう。1の目が出やすいとわかっているから、不確実性が減る。情報量も減る」

由紀が興奮気味に言った。「じゃあ、エントロピーが高いほど、予測が難しいってことですね」

「まさに。そして、エントロピーが高いほど、そのシステムから得られる情報の潜在量が大きい」

「情報の潜在量…」

「何かを伝えるとき、受信者の不確実性が大きいほど、メッセージの価値は高い。既に知っていることを伝えても、情報量はゼロだ」

由紀は窓の外を見た。「だから、ニュースは珍しい出来事を伝えるんですね」

「その通り。高エントロピーなイベントほど、ニュース価値が高い」

「エントロピー、なんだか面白いです」

葵が優しく笑った。「情報理論の入り口はここから。エントロピーは全ての基礎だ」

「もっと勉強したいです」

「次は、エントロピーと符号化の関係を教えるよ」

由紀は胸が高鳴った。情報理論という新しい世界が、目の前に広がっていた。