共通の「びっくり」を探しに行こう

相互情報量が、二人が真に共有している理解を定量化する方法を発見する。

  • #mutual information
  • #shared information
  • #correlation
  • #independence

「二人って、気が合うよね」

陸が由紀と葵を見て言った。

「そうかな?」由紀が首をかしげる。

「いや、マジで。よく同じタイミングで同じこと考えてる」

葵が面白そうに笑った。「それ、情報理論で説明できるよ」

「また情報理論か」陸が笑う。

「相互情報量という概念がある」葵がノートを開いた。「二つの変数が、どれだけ共通の情報を持つかを測る」

由紀が興味を示した。「共通の情報?」

「そう。独立な変数なら、相互情報量はゼロ。完全に依存していれば、大きくなる」

葵は図を描いた。

「例えば、陸の遅刻と天気。もし完全に無関係なら、天気を知っても陸の遅刻は予測できない」

「実際は雨の日に遅刻しやすいけどな」陸が認めた。

「つまり、相関がある。その相関の強さが、相互情報量だ」

由紀がノートに書き留める。「式はあるんですか?」

「I(X;Y) = H(X) - H(X|Y)

Xのエントロピーから、Yを知った後のXの条件付きエントロピーを引いたもの」

「条件付きエントロピー?」

「Yを観測した後に残る、Xの不確実性。もしYがXについて多くを教えてくれるなら、条件付きエントロピーは小さくなる」

陸が考え込んだ。「じゃあ、俺と由紀の行動の相互情報量は?」

葵が笑った。「測ってみる価値はあるね。もし二人がよく似た行動パターンなら、相互情報量は高い」

「どうやって測るんですか?」由紀が聞く。

「実際のデータを集めて統計を取る。例えば、同時に同じ本を読んだ回数、似た意見を持った議題の割合、とか」

陸がスマホを取り出した。「位置情報とかも使えそう」

「プライバシーの問題があるけどね」葵が釘を刺した。「でも概念としては面白い。親しい友人は、高い相互情報量を持つはずだ」

由紀がふと思いついた。「完全に独立な人って、いるんですか?」

「完全には難しい。同じ社会、同じ文化に生きていれば、何らかの相関は生まれる」

陸が言った。「じゃあ、ミラは?あいつ、誰とも行動パターンが似てない」

「ミラは特殊だね」葵が認めた。「もしかしたら、私たちとは異なる情報源から学んでいるのかも」

由紀が興味深そうに聞く。「相互情報量って、友情の指標になりますか?」

「面白い視点だ。高い相互情報量は、共通理解があることを示す。でも、それだけが友情じゃないよね」

「どういうこと?」

「完全に同じ思考をする二人は、相互情報量は高いけど、新しい情報を交換しない。多様性も大事だ」

陸が頷いた。「確かに。俺たち三人、全然違うタイプだけど、だから面白いのかも」

葵が補足した。「適度な相関と、適度な独立性。それがバランスの良い関係だね」

由紀がノートを見直した。「I(X;Y) = I(Y;X)って、対称なんですね」

「そう。相互情報量は対称性がある。XからYへの情報も、YからXへの情報も同じ」

「KL距離とは違う」陸が思い出した。

「良く覚えてたね。相互情報量は、真の情報的な重なりを測る」

窓の外で、二羽の鳥が同じタイミングで飛び立った。

「あの鳥たち、相互情報量高そう」陸が指差した。

「群れで飛ぶ鳥は、確かに高い相関を持つ」葵が言った。

由紀が微笑んだ。「私たちも、見えない情報を共有してるんですね」

「そう。それが、一緒にいることの意味かもしれない」

三人は静かに、共通の"びっくり"を感じていた。