「物語って、どうやって生まれるんだろう」
由紀が突然言った。
「哲学的だね」葵が興味を示した。
「いや、情報理論的に考えてたんです。物語も、確率過程として扱えるかなって」
S教授が通りかかって、足を止めた。「面白い視点だ」
「教授!」
「物語は、確率的に生成できる。マルコフ連鎖を使えばね」
陸が首をひねった。「マルコフ?」
「現在の状態が、次の状態を決める確率モデルだ」葵が説明した。
教授がホワイトボードに描いた。「例えば、『晴れ』の次は70%で『晴れ』、30%で『雨』」
「これが状態遷移」
「物語も同じだ。『主人公が学校にいる』という状態から、次は『教室に行く』か『屋上に行く』か。確率で決まる」
由紀が興奮した。「じゃあ、確率を設定すれば、物語が自動生成できる?」
「理論的には可能だ。実際、そういうアルゴリズムもある」
陸が挑戦した。「やってみよう!」
教授が微笑んだ。「では、簡単な例から。登場人物の行動を確率で決める」
葵がノートに書いた。「状態:部室、図書館、カフェ」
「遷移確率を設定する。部室から図書館へ50%、カフェへ30%、部室に留まる20%」
「なるほど」由紀がサイコロを取り出した。
「じゃあ、振ってみる。最初は部室」
サイコロを振った。「4。図書館に移動」
「次は図書館から。図書館からは、部室へ40%、カフェへ40%、図書館に留まる20%」
「2。部室に戻った」
陸が笑った。「これで物語?単調じゃない?」
「そう。単純なマルコフ連鎖は、記憶がない。過去の経緯を考慮しない」教授が指摘した。
「じゃあ、どうすればいいんですか?」
「高次マルコフモデルを使う。直前だけじゃなく、過去数ステップを考慮する」
葵が補足した。「もしくは、隠れマルコフモデル。見えない内部状態を持つ」
「内部状態?」由紀が聞いた。
「例えば、キャラクターの気分。『楽しい』『悲しい』という内部状態が、行動に影響する」
教授が図を描いた。「内部状態が遷移し、それが観測可能な行動を生成する」
「深い」陸が感心した。
「でも」由紀が疑問を持った。「確率だけで生成した物語は、面白いんですか?」
「鋭い質問だ」教授が認めた。「実は、完全にランダムな物語は、つまらない」
「なぜ?」
「意外性と納得性のバランスが必要だから」
葵が説明した。「予測可能すぎると退屈。完全にランダムだと意味不明」
「適度な予測可能性が、物語を面白くする」
教授が重要な点を述べた。「良い物語は、エントロピー率が適切だ」
「エントロピー率?」
「一ステップあたりの平均情報量。高すぎるとカオス、低すぎると単調」
由紀が理解した。「だから、作家は直感的にバランスを取ってるんだ」
「そう。確率モデルとして最適化してる」
陸が例を出した。「ミステリーは、意外性が高いけど、後から見ると全部繋がってる」
「完璧な例だ」教授が褒めた。「伏線が、条件付き確率を変える」
「伏線?」
「ある情報を得ると、次の展開の確率が変わる。これが伏線の機能だ」
葵がまとめた。「P(結末|伏線あり) ≠ P(結末|伏線なし)」
「伏線が、確率分布を変える」
由紀が感動した。「物語も、確率論で説明できるんですね」
「全てではないがね」教授が微笑んだ。「でも、構造の一部は確率モデルで捉えられる」
「じゃあ、僕たちの日常も、確率的にありえる物語?」陸が聞いた。
「まさに。人生は、確率過程の連続だ」
「でも、完全には予測できない」
「そう。それが面白さでもある」
四人は頷いた。確率的にありえる物語。それは、情報理論が照らす、新しい物語の見方だった。