あなたと私の共有情報

共有情報の概念を通じて、人と人との繋がりを理解する。

  • #shared information
  • #common knowledge
  • #joint entropy
  • #conditional entropy

「ねえ、俺たち三人の共有情報って、どれくらいあると思う?」

陸が突然聞いた。

「共有情報?」由紀が首を傾げる。

葵が興味を示した。「面白い質問だ。情報理論的に定義してみよう」

「どう定義するの?」

「まず、各人の持つ情報をエントロピーH(X)、H(Y)、H(Z)とする」

陸が考えた。「俺がX、由紀がY、葵先輩がZ?」

「そう。そして、全員が知っている情報の量が、共有情報だ」

由紀が聞いた。「どう計算するんですか?」

「結合エントロピーH(X,Y,Z)を考える」葵がノートに書いた。「これは、三人全体の不確実性」

「三人分を足すだけじゃないの?」

「違う。重複する情報があるから」

葵が式を書いた。

「H(X,Y,Z) ≤ H(X) + H(Y) + H(Z)

等号は、完全に独立な場合のみ」

「共有情報があると、結合エントロピーは小さくなる?」

「正確。同じ情報を重複して数えないから」

陸が聞いた。「じゃあ、共有情報の量は?」

「H(X) + H(Y) + H(Z) - H(X,Y,Z)が一つの定義」

由紀が理解し始めた。「個別のエントロピーの和から、結合エントロピーを引く」

「そう。減った分が、共有されている情報」

陸が具体例を求めた。「例えば?」

「三人とも情報理論部にいる。これは共有情報」葵が説明した。「この事実は、三人が独立に持つ必要がない」

「一度知れば、全員が知っている」

「そう。だから、エントロピーは1倍分だけ」

由紀が言った。「でも、私だけが知ってることもある」

「それは条件付きエントロピーH(Y|X,Z)だ」葵が解説した。「他の二人の情報を知った後の、由紀の残り情報」

「プライベートな情報」

「そういうこと」

陸が考え込んだ。「共有情報が増えると、仲が良いってこと?」

「とも言える」葵が慎重に答えた。「でも、個別の情報も大切だ」

「なぜ?」

「完全に共有したら、誰か一人だけで十分になる」

由紀が理解した。「個性がなくなる」

「そう。最適なのは、適度な共有と、適度な独自性」

陸が笑った。「バランスが大事ってこと?」

「情報理論的にもそうだ」葵が頷いた。

由紀が聞いた。「先輩、私たちの共有情報、増えてますか?」

「増えてると思う。一緒に過ごす時間が長いから」

「どうやって増やすの?」

「経験を共有する。同じ本を読む、同じ問題を解く、同じ場所に行く」

陸が付け加えた。「同じ失敗をする」

「それも大事」葵が認めた。「共有された経験が、コミュニケーションを効率化する」

由紀がまとめた。「共有情報が多いと、少ない言葉で通じ合える」

「まさに。これが相互情報量とも関係する」

陸が窓の外を見た。「俺たち、これからどれだけ共有情報を増やせるかな」

「無限に増やせる」葵が答えた。「時間がある限り」

「でも、卒業したら?」

「物理的に離れても、共有情報は残る」

由紀が静かに言った。「記憶として」

「そう。共有された過去は、消えない」

陸が笑った。「じゃあ、今のうちにたくさん共有しとこう」

「賛成」由紀が頷いた。

葵も微笑んだ。「あなたと私の共有情報。それが、私たちを繋ぐ」

三人は頷いた。見えないけれど、確かに存在する繋がり。それが共有情報だ。