伝わらないことが伝わる瞬間

関係における情報内容と意味のある告白の関連を調べる。

  • #mutual information
  • #correlation
  • #independence
  • #shared uncertainty

「葵先輩、質問があります」

由紀は部室の窓際で、二つの変数の関係を示すグラフを眺めていた。

「何だい?」

「二つの変数が全く無関係なとき、情報理論ではどう表現するんですか?」

葵はノートを開いた。「相互情報量という概念がある。I(X;Y)と書く。XとYがどれだけ情報を共有しているかを測る」

「共有?」

「そう。例えば、私が黙っていても、由紀が私の気分を察することができるなら、そこには相互情報量がある」

由紀は考え込んだ。「でも、完全に察せないときは?」

「相互情報量はゼロ。つまり、XとYは統計的に独立だ」

その時、ミラが静かに入ってきて、ホワイトボードに式を書いた。

「I(X;Y) = H(X) - H(X|Y)」

「ミラの式、完璧だ」葵が頷いた。「XのエントロピーからYを知った後の条件付きエントロピーを引いたもの。つまり、Yを知ることでXの不確実性がどれだけ減るか」

由紀の目が輝いた。「だから、伝わらないことが伝わる瞬間って…」

「相互情報量がゼロから正になる瞬間だね」

ミラがもう一つ書いた。「I(X;Y) = I(Y;X)」

「対称的なんだ」由紀が驚く。

「そう。XがYについて持つ情報量と、YがXについて持つ情報量は等しい。これはKLダイバージェンスとは違う性質だ」

由紀はノートに図を描き始めた。「じゃあ、二人が全く無関係だったけど、何かのきっかけで相関し始める…」

「まさに。相互情報量が増加する。通信路が開通する瞬間だ」

ミラが小さく微笑んだ。彼女はいつもこういう抽象的な議論を楽しんでいるようだった。

葵が続けた。「面白いのは、相互情報量は常に非負だということ。I(X;Y) ≥ 0。つまり、変数を観測することで不確実性が増えることはない」

「当たり前のような、でも深い…」

「データ処理不等式というものもある。X→Y→Zという順序で情報が処理されるとき、I(X;Z) ≤ I(X;Y)。情報は処理の過程で失われるが、増えることはない」

由紀がノートに鎖を描いた。「伝言ゲームみたいですね。各段階で情報は減るだけで、元のメッセージについて真の情報が増えることはない」

「正確だ。だから直接的なコミュニケーションの方が、仲介者を通すより一般的に良い。各処理ステップが潜在的なボトルネックになる」

由紀が真剣な顔をした。「じゃあ、誤解って何ですか?情報理論的には」

葵は少し考えた。「誤解は、受信者が間違った条件付き確率を持っている状態かな。相互情報量を正しく計算できていない」

ミラがノートに書いた。「Channel noise creates wrong mutual information」

「ノイズが誤った相互情報を作る」葵が翻訳した。

由紀は窓の外を見た。「人と人の間にも、相互情報量があるんですね」

「そう。会話、表情、行動。全てが信号だ。そして相互情報量が高いほど、理解し合える」

「でも完全に理解することは…」

「不可能かもしれない。でも、相互情報量を増やす努力はできる」

葵が考え深く付け加えた。「機械学習では、相互情報量の最大化が一般的な目的関数だ。モデルは入力から可能な限り関連情報を抽出しようとする」

「AIも、よりよいコミュニケーション方法を学んでいるんですね」由紀が考えた。

ミラが立ち上がり、由紀に小さなメモを渡した。

「Perfect communication = maximum mutual information. But humans are not perfect channels.」

由紀はメモを大切に受け取った。

「伝わらないことが伝わる瞬間。それは相互情報量がゼロじゃないと気づく瞬間なんですね」

葵が微笑んだ。「良い理解だ。情報理論は、人間関係の数学でもある」

ミラが頷いた。三人の間には、確かに正の相互情報量があった。

放課後の部室に、静かな理解の空気が流れた。