二人の会話はマルコフ連鎖

会話がマルコフ連鎖のパターンに従うことを発見し、会話記憶の限界を探る。

  • #Markov property in conversation
  • #context dependence
  • #memory depth
  • #predictability in dialogue

「陸、また同じ話してる」

由紀が笑った。

「え、そう?」陸が驚く。

「三回目。コーヒーの話」

葵が興味を示した。「会話のパターンだ。人間は、同じ遷移を繰り返す」

「遷移?」

「話題から話題への移動。これがマルコフ連鎖に似ている」

ミラがノートを開き、会話の流れを図示し始めた。

「見て」葵が指差す。「『今日の天気』から『コーヒー』へ。『コーヒー』から『カフェ』へ。確率的な遷移だ」

由紀が考えた。「でも、昨日の話も影響しませんか?」

「それが興味深い点だ。純粋なマルコフ連鎖なら、直前の状態だけに依存する。でも、人間の会話はもっと複雑だ」

「どう複雑?」

「高次のマルコフ連鎖。複数の過去の状態を参照する」

陸が聞いた。「何個くらい前まで覚えてる?」

「研究によると、平均3〜5文前まで。それ以前は、文脈としては薄れる」

ミラがメモを見せた。「Working memory = limited context window」

「作業記憶が、文脈ウィンドウを制限する」葵が説明を続ける。「だから、会話は近い過去に強く依存し、遠い過去には弱く依存する」

由紀がノートに書き込んだ。「じゃあ、会話の予測も可能?」

「ある程度はね。次の話題を確率的に予測できる」

「例えば?」

葵が試した。「陸、今何を言おうとしてる?」

「え?」陸が戸惑う。

「コーヒーの話が出たから、次は『あのカフェ行きたい』でしょ?」

「当たった!」陸が驚く。

「これがマルコフ連鎖の予測。遷移確率が高いパスを選ぶ」

由紀が笑った。「でも、そんなに単純じゃないですよね?」

「もちろん。人間はランダム性も持つ。突然話題を変えたり、予期しないことを言ったり」

陸が意図的に話題を変えた。「ところで、量子力学って…」

「ほら」葵が笑った。「低確率遷移が起きた」

「でも、それはそれで情報量が高い」由紀が付け加えた。

「そう。予測できない発言ほど、高エントロピー。情報を多く運ぶ」

ミラが新しい図を描いた。会話の状態遷移図。矢印の太さが確率を表す。

「美しい」葵が感心した。「会話の構造が見える」

由紀が質問した。「じゃあ、会話を最適化できますか?」

「どういう意味で?」

「予測可能すぎず、ランダムすぎず。最適なバランス」

葵が頷いた。「それが良い会話だ。適度な驚きと、適度な連続性」

「遷移確率が0.3〜0.7くらい?」陸が冗談めかして言った。

「面白い仮説だ。でも、実際はもっと複雑。文脈、関係性、目的。全てが影響する」

ミラがメモを追加した。「Good conversation = balance between predictability and surprise」

「良い会話は、予測可能性と驚きのバランス」葵が翻訳する。

由紀が考え込んだ。「じゃあ、私たちの会話は?」

「おそらく、適度にマルコフ的で、適度にランダムだ」

「完璧に予測できたら、つまらないもんね」陸が言った。

「そう。不確実性が、会話を面白くする」

四人は少し沈黙した。でも、それも会話の一部だ。沈黙という状態から、次の話題へ遷移する確率を、それぞれが計算している。

由紀が口を開いた。「次は何の話をしよう?」

「それは」葵が微笑んだ。「確率的に決まる」

陸が笑った。「でも、ちょっとだけ自由意志で選ぼう」

ミラが頷いた。静かに、でも確かに。

会話は流れる。マルコフ連鎖のように、でも完全にはそうではなく。過去に依存しながら、未来を創造する。それが人間の対話なのだろう。

「じゃあ」由紀が決めた。「次は、教授Sの話をしよう」

新しい状態への遷移。確率は低かったが、それでも起きた。会話は続く。予測と驚きの間を、揺らぎながら。