「葵先輩、質問があります」
由紀の言葉に、葵が振り返った。
「その質問、相互情報量が高そうだね」
「相互情報量?」
「二つの変数が、どれだけ情報を共有しているかを測る指標だ」
ミラが静かに近づき、ノートに式を書いた。
「I(X;Y) = H(X) - H(X|Y)」
「相互情報量は、Yを知ることで、Xの不確実性がどれだけ減るかを示す」葵が説明する。
由紀が考えた。「つまり、関連性が強いほど、相互情報量が大きい?」
「正確。完全に独立なら相互情報量はゼロ。完全に同じなら、エントロピーと等しい」
ミラが別の例を書く。「天気と傘」
「良い例だ」葵が続ける。「天気と傘の使用。これらは高い相互情報量を持つ。雨なら傘を使う確率が上がる」
由紀がノートに書く。「相互情報量は相関を測る?」
「相関より広い概念だ。線形関係だけでなく、あらゆる統計的依存を捉える」
「例えば?」
葵は図を描いた。
「XとYが線形関係なくても、非線形な依存があれば、相互情報量は高い」
ミラが追加した。「Correlation ⊂ Mutual Information」
「相関は相互情報量の特殊ケースだ」葵が説明する。
由紀が興奮した。「じゃあ、会話でも使えますか?」
「まさに。良い質問は、高い相互情報量を持つ」
「どういうことですか?」
「質問Qと答えAの相互情報量が高いなら、Qを聞くことで、Aについて多くを学べる」
由紀が理解した。「だから先輩は『その質問、相互情報量が高そうだね』って言ったんですね」
「そう。君の質問は、僕の答えと強く関連している。つまり、有益な情報交換になる」
ミラが微笑んで書いた。「Communication = information exchange」
「コミュニケーションは情報交換だ」葵が訳す。「相互情報量が高いほど、効率的な交換になる」
由紀が別の例を考えた。「じゃあ、『今日は何曜日?』という質問は?」
「相手が既に曜日を知っているなら、相互情報量は低い。でも知らないなら高い」
「だから、質問の価値は相手の知識に依存する」
「正解。これが主観的相互情報量だ」
葵は別の図を描いた。
「ベン図で表すと、相互情報量はXとYの重なり部分だ」
「重なりが大きいほど、共通情報が多い」
ミラがノートに追加した。「I(X;Y) = I(Y;X)」
「相互情報量は対称だ」葵が説明する。「XがYについて教えてくれる量と、YがXについて教えてくれる量は同じだ」
由紀が感心した。「これって、KLダイバージェンスと違いますね」
「鋭い観察だ。KLダイバージェンスは非対称。でも相互情報量は対称。それが美しい」
「友情みたい」由紀が言った。
葵が微笑む。「良い比喩だ。良い友情は、相互に情報を交換する。相互情報量が高い関係だ」
ミラが頷いた。珍しく、言葉を発する。
「我々三人も、高い相互情報量を持つ」
由紀と葵が驚いた。ミラが自分から話すのは稀だ。
「ミラ、それは最高の褒め言葉だ」葵が言った。
由紀が微笑む。「情報理論で友情を語れるなんて、素敵です」
三人は笑った。彼らの相互情報量は、今日も高まっている。