「葵先輩、質問があります」
由紀は部室の窓際で、二つの変数の関係を示すグラフを眺めていた。
「何だい?」
「二つの変数が全く無関係なとき、情報理論ではどう表現するんですか?」
葵はノートを開いた。「相互情報量という概念がある。I(X;Y)と書く。XとYがどれだけ情報を共有しているかを測る」
「共有?」
「そう。例えば、私が黙っていても、由紀が私の気分を察することができるなら、そこには相互情報量がある」
由紀は考え込んだ。「でも、完全に察せないときは?」
「相互情報量はゼロ。つまり、XとYは統計的に独立だ」
その時、ミラが静かに入ってきて、ホワイトボードに式を書いた。
「I(X;Y) = H(X) - H(X|Y)」
「ミラの式、完璧だ」葵が頷いた。「XのエントロピーからYを知った後の条件付きエントロピーを引いたもの。つまり、Yを知ることでXの不確実性がどれだけ減るか」
由紀の目が輝いた。「だから、伝わらないことが伝わる瞬間って…」
「相互情報量がゼロから正になる瞬間だね」
ミラがもう一つ書いた。「I(X;Y) = I(Y;X)」
「対称的なんだ」由紀が驚く。
「そう。XがYについて持つ情報量と、YがXについて持つ情報量は等しい。これはKLダイバージェンスとは違う性質だ」
由紀はノートに図を描き始めた。「じゃあ、二人が全く無関係だったけど、何かのきっかけで相関し始める…」
「まさに。相互情報量が増加する。通信路が開通する瞬間だ」
ミラが小さく微笑んだ。彼女はいつもこういう抽象的な議論を楽しんでいるようだった。
葵が続けた。「面白いのは、相互情報量は常に非負だということ。I(X;Y) ≥ 0。つまり、変数を観測することで不確実性が増えることはない」
「当たり前のような、でも深い…」
「データ処理不等式というものもある。X→Y→Zという順序で情報が処理されるとき、I(X;Z) ≤ I(X;Y)。情報は処理の過程で失われるが、増えることはない」
由紀がノートに鎖を描いた。「伝言ゲームみたいですね。各段階で情報は減るだけで、元のメッセージについて真の情報が増えることはない」
「正確だ。だから直接的なコミュニケーションの方が、仲介者を通すより一般的に良い。各処理ステップが潜在的なボトルネックになる」
由紀が真剣な顔をした。「じゃあ、誤解って何ですか?情報理論的には」
葵は少し考えた。「誤解は、受信者が間違った条件付き確率を持っている状態かな。相互情報量を正しく計算できていない」
ミラがノートに書いた。「Channel noise creates wrong mutual information」
「ノイズが誤った相互情報を作る」葵が翻訳した。
由紀は窓の外を見た。「人と人の間にも、相互情報量があるんですね」
「そう。会話、表情、行動。全てが信号だ。そして相互情報量が高いほど、理解し合える」
「でも完全に理解することは…」
「不可能かもしれない。でも、相互情報量を増やす努力はできる」
葵が考え深く付け加えた。「機械学習では、相互情報量の最大化が一般的な目的関数だ。モデルは入力から可能な限り関連情報を抽出しようとする」
「AIも、よりよいコミュニケーション方法を学んでいるんですね」由紀が考えた。
ミラが立ち上がり、由紀に小さなメモを渡した。
「Perfect communication = maximum mutual information. But humans are not perfect channels.」
由紀はメモを大切に受け取った。
「伝わらないことが伝わる瞬間。それは相互情報量がゼロじゃないと気づく瞬間なんですね」
葵が微笑んだ。「良い理解だ。情報理論は、人間関係の数学でもある」
ミラが頷いた。三人の間には、確かに正の相互情報量があった。
放課後の部室に、静かな理解の空気が流れた。