メインコンテンツへスキップ

7.6.1 微調整ロードマップ:データ、LoRA、評価

微調整は、サンプルで訓練してモデルの振る舞いを変える方法です。安定したタスクパターン、繰り返し使う形式、ドメインの文体、行動習慣に向いています。非公開知識の不足を直す最初の手段ではなく、その場合は RAG が合うことが多いです。

まず意思決定ループを見る

大規模モデル微調の章の関係図

微調の意思決定と評価のループ図

微調整エンジニアリングループ漫画

重要語:LoRA は low-rank adapter、QLoRA は量子化された LoRA、PEFT は parameter-efficient fine-tuning です。全重みを更新せず、少数の追加パラメータを訓練することでコストを下げます。

微調整ルートチェックを動かす

訓練を始める前に、このチェックを動かします。Prompt ベースライン、検証セット、失敗ログがない微調整は、良くなったか判断しづらくなります。

case = {
"private_facts": False,
"format_drift": True,
"stable_task": True,
"labeled_examples": 120,
}

if case["private_facts"]:
route = "RAG first"
elif case["format_drift"] and case["stable_task"] and case["labeled_examples"] >= 50:
route = "fine-tuning candidate"
else:
route = "prompt baseline first"

print("route:", route)
print("minimum_before_training:", ["prompt baseline", "validation set", "failure log"])

出力:

route: fine-tuning candidate
minimum_before_training: ['prompt baseline', 'validation set', 'failure log']

1 回に 1 つだけ値を変えて再実行します。たとえば private_factsTrue にすると、判断はまず RAG に移るはずです。

この順番で学ぶ

手順読む内容実践アウトプット
1微調整概要Prompt、RAG、微調整をいつ使うか書き分ける
2LoRA / QLoRAどのパラメータを訓練し、なぜ安くなるか説明する
3その他の PEFTフル微調整だけが選択肢ではないと理解する
4微調整実践訓練/検証サンプルと 1 つの実行コマンドを用意する
5データラベリング形式、重複、リーク、境界例を点検する

合格ライン

微調整を試す理由、比較対象のベースライン、訓練に使っていない検証セットを示せれば、この章は合格です。

出口ミニプロジェクトは、小さな instruction tuning 計画です。固定タスクを 1 つ選び、数十から数百件のサンプルを準備し、Prompt ベースラインを定義し、LoRA/QLoRA 実行後に形式安定性または精度を比較します。