「陸、さっきの説明、全然分からなかった」
由紀が困惑していた。
「え、めっちゃ丁寧に説明したのに!」陸が反論する。
葵が割って入った。「陸の説明は、エントロピーが高すぎるんだ」
「エントロピーが高い?」
「予測不可能ってこと。次に何が来るか分からない」
ミラが静かにノートを開いた。そこには、陸の説明が書き起こされていた。
「で、符号化って、あれだよ、データを小さくするやつ。でも暗号化とは違って、いや、似てるかも。とにかく、圧縮?いや、効率化?」
「見てのとおり、文の構造が定まらない。話題が飛ぶ。不確実性が高い」葵が分析する。
「でも、俺の頭の中では繋がってるんだけど」
「それが問題。送信者の内部状態と、受信者の解釈にギャップがある」
由紀がメモを取った。「高エントロピーの言葉って、情報量が多いんじゃないんですか?」
「良い質問」葵が頷いた。「理論上、エントロピーが高いメッセージは多くの情報を運べる。でも、それは受信者が正しく解釈できる前提だ」
ミラが式を書いた。「H(X|Y) = H(X) - I(X;Y)」
「条件付きエントロピー。Yを知った後のXの不確実性。もしYが混乱を招くなら、むしろ不確実性が増える場合もある」
陸が納得できない顔をした。「じゃあ、低エントロピーで話せばいいの?」
「極端に低いのも問題だ」葵が別の例を挙げた。「『はい、はい、そうですね、なるほど』。これは予測可能すぎて、情報量がほぼゼロ」
「じゃあ、どうすれば?」
「適度なエントロピー。文脈に依存しつつ、新しい情報を加える。予測できる部分と、驚きの部分のバランスだ」
由紀がノートを見返した。「先輩の説明は、いつも分かりやすいですよね」
「それは、エントロピーが最適化されてるからかもしれない」
ミラが別の紙を見せた。そこには葵の説明が書き起こされていた。
「符号化は、データを効率的に表現する技術です。暗号化とは異なり、秘匿性ではなく効率性が目的です」
「構造が明確。話題が一貫。適度な冗長性がある」葵が自己分析する。
陸が笑った。「先輩、自分の説明を分析するの?」
「メタ認知は重要だ」
由紀が考え込んだ。「じゃあ、人それぞれ最適なエントロピーレベルが違うんですか?」
「そう。受信者の知識、文脈、期待に依存する。同じメッセージでも、相手によってエントロピーが変わる」
ミラが追加のメモを書いた。「Compression requires understanding」
「圧縮には理解が必要」葵が翻訳する。「共有知識があるほど、効率的に伝えられる」
陸が真剣に聞いた。「じゃあ、俺は由紀との共有知識が足りなかったんだ」
「おそらく。でも、それは時間をかけて育てるものだ」
由紀が微笑んだ。「今日の会話で、少し共有知識が増えた気がします」
「相互情報量が増加した」葵が頷く。
陸が立ち上がった。「よし、もう一回説明してみる。今度は低エントロピーで」
「待って」葵が止めた。「低すぎるのもダメだって言ったでしょ」
「じゃあ、中エントロピー?」
「適度にね」
ミラが微笑んで、メモを残した。「Optimal entropy = understanding + surprise」
最適なエントロピーは、理解と驚きの和。
由紀はそれを読んで、深く頷いた。コミュニケーションは、エントロピーの調整なのかもしれない。相手に合わせて、予測可能性と新規性のバランスを取る。それが伝わるということなのだろう。