期待と現実のダイバージェンス

誤り訂正符号と、冗長性がメッセージを伝送エラーから守る方法を理解する。

  • #expected value
  • #variance
  • #prediction error
  • #model update

「今日のテスト、絶対70点は取れると思ってたのに」

陸が結果を見てがっくりしている。

「何点だった?」由紀が聞く。

「55点。期待外れもいいところだ」

葵が静かに言った。「期待値と観測値の乖離。これも情報理論的に分析できる」

「マジで?慰めにもならんわ」

「いや、聞いてくれ」葵がノートを開いた。「期待値E[X]は、確率で重み付けした平均だ」

「で?」

「陸の主観的期待値は70点。でも客観的な確率分布から計算すると、実はもっと低かったかもしれない」

由紀が補足する。「つまり、陸くんの予測モデルが楽観的だったってこと?」

「うっ、図星かも」

その時、ミラが静かに近づき、ノートに書いた。

「Variance = E[(X - E[X])²]」

「分散」葵が説明した。「期待値からのばらつき。これが大きいと、予測が難しい」

「俺の実力、分散が大きいのか?」陸が聞いた。

「おそらく。調子の波が激しいんだろう」

由紀が計算を始めた。「過去5回のテストが、50、65、40、70、55点なら、平均は56点」

「期待したの70点なのに、現実は56点か」

「さらに、分散は約130。標準偏差は約11.4点」

葵が解説した。「つまり、56±11点くらいが実力の範囲。70点は、1.2標準偏差上。起こりうるけど、期待するほど頻繁じゃない」

陸が納得した顔をした。「自分の実力を過大評価してたんだ」

「人間は、楽観バイアスを持ちやすい」葵が言った。「主観的期待値が、客観的期待値より高くなる」

ミラが新しいメモを見せた。「Bayesian update: prior → posterior」

「ベイズ更新」由紀が読んだ。「事前分布を、観測データで更新する」

「そう。今回の55点という情報で、陸は自分のモデルを更新すべきだ」

「つまり、次からは現実的な期待を持てってこと?」

「それが学習」葵が頷いた。「期待と現実のずれを認識し、モデルを修正する」

由紀がふと思った。「でも、期待値より上を目指すのは悪いことじゃないですよね?」

「もちろん。目標と期待は違う」

「目標は70点でいい。でも、現実的な期待は56点くらい。その差を努力で埋める」

陸が真剣な表情をした。「なるほど。期待を下げるんじゃなくて、現実を正しく認識する」

「正確」葵が認めた。「情報理論は冷酷に見えるけど、実は希望も与える」

「どういうこと?」

「分散が大きいということは、改善の余地も大きい。練習の仕方を変えれば、期待値を上げられる」

ミラが微笑んだ。珍しい表情だった。

「期待と現実のダイバージェンスは、成長の原動力」葵が続けた。「ずれがゼロなら、学ぶ必要がない」

由紀がノートに書いた。「失望=情報。次に活かせる」

「ポジティブすぎ?」陸が笑った。

「いや、情報理論的には正しい」葵が認めた。「予測誤差が大きいほど、学習信号が強い」

陸が立ち上がった。「よし、次のテストまでに、自分のモデルを鍛え直す」

「データ収集も大事だぞ。小テストで細かく測定して、分散を減らす」

「分散減らすって、安定させるってこと?」

「そう。実力のばらつきを抑える」

ミラが最後に書いた。「Consistency > occasional peaks」

「一発当てるより、安定が大事」由紀が訳した。

「わかった。地道にやるよ」

四人は片付けを始めた。期待と現実の間には、常にダイバージェンスがある。でも、それを測定し、理解し、修正する。それが成長だ。