メインコンテンツへスキップ

4.2.1 確率ロードマップ:AI に不確実性の言語を与える

確率と統計は、モデルがなぜ信頼度を出すのか、データがなぜ揺れるのか、そして学習がなぜ正解/不正解だけでなく loss を使うのかを説明します。

まずマップを見る

確率統計学習マップ

この小章の流れです。

確率統計章フロー

用語最初に問うこと
確率この事象はどれくらい起きそうか
分布多くのランダムな結果はどんな形になるか
推論データを見た後、何を結論できるか
エントロピー結果はどれくらい不確かか
交差エントロピー予測確率分布はどれくらい外れているか
KL ダイバージェンス2つの分布はどれくらい違うか

最小ループを動かす

probability_first_loop.py を作ります。Python 標準ライブラリだけを使います。

import math

labels = [1, 0, 1, 1]
predicted_probs = [0.9, 0.2, 0.6, 0.8]

losses = []
for y, p in zip(labels, predicted_probs):
loss = -(y * math.log(p) + (1 - y) * math.log(1 - p))
losses.append(loss)

cross_entropy = sum(losses) / len(losses)
print("cross_entropy:", round(cross_entropy, 3))
print("predicted_probs:", predicted_probs)

出力:

cross_entropy: 0.266
predicted_probs: [0.9, 0.2, 0.6, 0.8]

交差エントロピーが低いほど、予測確率がラベルに近いということです。ここで確率とモデル学習が直接つながります。

この順番で学ぶ

順番読むまず見ること
14.2.2 確率基礎事象、条件付き確率、ベイズ更新
24.2.3 確率分布ベルヌーイ、二項、正規分布
34.2.4 統計的推論MLE、MAP、信頼度、A/B テスト
44.2.5 情報理論エントロピー、交差エントロピー、KL ダイバージェンス
54.2.6 歴史的基礎Bayes、Fisher、Shannon、EM の位置づけ

合格ライン

確率用語がどんな不確実性を測っているかを説明でき、分類器の 0.93 が有用でも絶対的な真実ではないと説明できれば合格です。