「今日のテスト、絶対70点は取れると思ってたのに」
陸が結果を見てがっくりしている。
「何点だった?」由紀が聞く。
「55点。期待外れもいいところだ」
葵が静かに言った。「期待値と観測値の乖離。これも情報理論的に分析できる」
「マジで?慰めにもならんわ」
「いや、聞いてくれ」葵がノートを開いた。「期待値E[X]は、確率で重み付けした平均だ」
「で?」
「陸の主観的期待値は70点。でも客観的な確率分布から計算すると、実はもっと低かったかもしれない」
由紀が補足する。「つまり、陸くんの予測モデルが楽観的だったってこと?」
「うっ、図星かも」
その時、ミラが静かに近づき、ノートに書いた。
「Variance = E[(X - E[X])²]」
「分散」葵が説明した。「期待値からのばらつき。これが大きいと、予測が難しい」
「俺の実力、分散が大きいのか?」陸が聞いた。
「おそらく。調子の波が激しいんだろう」
由紀が計算を始めた。「過去5回のテストが、50、65、40、70、55点なら、平均は56点」
「期待したの70点なのに、現実は56点か」
「さらに、分散は約130。標準偏差は約11.4点」
葵が解説した。「つまり、56±11点くらいが実力の範囲。70点は、1.2標準偏差上。起こりうるけど、期待するほど頻繁じゃない」
陸が納得した顔をした。「自分の実力を過大評価してたんだ」
「人間は、楽観バイアスを持ちやすい」葵が言った。「主観的期待値が、客観的期待値より高くなる」
ミラが新しいメモを見せた。「Bayesian update: prior → posterior」
「ベイズ更新」由紀が読んだ。「事前分布を、観測データで更新する」
「そう。今回の55点という情報で、陸は自分のモデルを更新すべきだ」
「つまり、次からは現実的な期待を持てってこと?」
「それが学習」葵が頷いた。「期待と現実のずれを認識し、モデルを修正する」
由紀がふと思った。「でも、期待値より上を目指すのは悪いことじゃないですよね?」
「もちろん。目標と期待は違う」
「目標は70点でいい。でも、現実的な期待は56点くらい。その差を努力で埋める」
陸が真剣な表情をした。「なるほど。期待を下げるんじゃなくて、現実を正しく認識する」
「正確」葵が認めた。「情報理論は冷酷に見えるけど、実は希望も与える」
「どういうこと?」
「分散が大きいということは、改善の余地も大きい。練習の仕方を変えれば、期待値を上げられる」
ミラが微笑んだ。珍しい表情だった。
「期待と現実のダイバージェンスは、成長の原動力」葵が続けた。「ずれがゼロなら、学ぶ必要がない」
由紀がノートに書いた。「失望=情報。次に活かせる」
「ポジティブすぎ?」陸が笑った。
「いや、情報理論的には正しい」葵が認めた。「予測誤差が大きいほど、学習信号が強い」
陸が立ち上がった。「よし、次のテストまでに、自分のモデルを鍛え直す」
「データ収集も大事だぞ。小テストで細かく測定して、分散を減らす」
「分散減らすって、安定させるってこと?」
「そう。実力のばらつきを抑える」
ミラが最後に書いた。「Consistency > occasional peaks」
「一発当てるより、安定が大事」由紀が訳した。
「わかった。地道にやるよ」
四人は片付けを始めた。期待と現実の間には、常にダイバージェンスがある。でも、それを測定し、理解し、修正する。それが成長だ。