「陸、また同じ話してる」
由紀が笑った。
「え、そう?」陸が驚く。
「三回目。コーヒーの話」
葵が興味を示した。「会話のパターンだ。人間は、同じ遷移を繰り返す」
「遷移?」
「話題から話題への移動。これがマルコフ連鎖に似ている」
ミラがノートを開き、会話の流れを図示し始めた。
「見て」葵が指差す。「『今日の天気』から『コーヒー』へ。『コーヒー』から『カフェ』へ。確率的な遷移だ」
由紀が考えた。「でも、昨日の話も影響しませんか?」
「それが興味深い点だ。純粋なマルコフ連鎖なら、直前の状態だけに依存する。でも、人間の会話はもっと複雑だ」
「どう複雑?」
「高次のマルコフ連鎖。複数の過去の状態を参照する」
陸が聞いた。「何個くらい前まで覚えてる?」
「研究によると、平均3〜5文前まで。それ以前は、文脈としては薄れる」
ミラがメモを見せた。「Working memory = limited context window」
「作業記憶が、文脈ウィンドウを制限する」葵が説明を続ける。「だから、会話は近い過去に強く依存し、遠い過去には弱く依存する」
由紀がノートに書き込んだ。「じゃあ、会話の予測も可能?」
「ある程度はね。次の話題を確率的に予測できる」
「例えば?」
葵が試した。「陸、今何を言おうとしてる?」
「え?」陸が戸惑う。
「コーヒーの話が出たから、次は『あのカフェ行きたい』でしょ?」
「当たった!」陸が驚く。
「これがマルコフ連鎖の予測。遷移確率が高いパスを選ぶ」
由紀が笑った。「でも、そんなに単純じゃないですよね?」
「もちろん。人間はランダム性も持つ。突然話題を変えたり、予期しないことを言ったり」
陸が意図的に話題を変えた。「ところで、量子力学って…」
「ほら」葵が笑った。「低確率遷移が起きた」
「でも、それはそれで情報量が高い」由紀が付け加えた。
「そう。予測できない発言ほど、高エントロピー。情報を多く運ぶ」
ミラが新しい図を描いた。会話の状態遷移図。矢印の太さが確率を表す。
「美しい」葵が感心した。「会話の構造が見える」
由紀が質問した。「じゃあ、会話を最適化できますか?」
「どういう意味で?」
「予測可能すぎず、ランダムすぎず。最適なバランス」
葵が頷いた。「それが良い会話だ。適度な驚きと、適度な連続性」
「遷移確率が0.3〜0.7くらい?」陸が冗談めかして言った。
「面白い仮説だ。でも、実際はもっと複雑。文脈、関係性、目的。全てが影響する」
ミラがメモを追加した。「Good conversation = balance between predictability and surprise」
「良い会話は、予測可能性と驚きのバランス」葵が翻訳する。
由紀が考え込んだ。「じゃあ、私たちの会話は?」
「おそらく、適度にマルコフ的で、適度にランダムだ」
「完璧に予測できたら、つまらないもんね」陸が言った。
「そう。不確実性が、会話を面白くする」
四人は少し沈黙した。でも、それも会話の一部だ。沈黙という状態から、次の話題へ遷移する確率を、それぞれが計算している。
由紀が口を開いた。「次は何の話をしよう?」
「それは」葵が微笑んだ。「確率的に決まる」
陸が笑った。「でも、ちょっとだけ自由意志で選ぼう」
ミラが頷いた。静かに、でも確かに。
会話は流れる。マルコフ連鎖のように、でも完全にはそうではなく。過去に依存しながら、未来を創造する。それが人間の対話なのだろう。
「じゃあ」由紀が決めた。「次は、教授Sの話をしよう」
新しい状態への遷移。確率は低かったが、それでも起きた。会話は続く。予測と驚きの間を、揺らぎながら。