メインコンテンツへスキップ

11.0 学習チェックリスト:自然言語処理

このページは印刷用チェックリストとして使います。詳しい説明が必要なときは、第 11 章入口ページ に戻ってください。

NLP ポートフォリオ証拠パック

2時間の初回通読

時間やることここまで言えたら止める
20 分テキストからタスクへの流れを見る「NLP は生テキストから始まり、評価可能な出力で終わる。」
25 分ラベル評価スクリプトを動かす「予測ラベルと期待ラベルを比較できる。」
25 分11.1 テキスト前処理をざっと読む「cleaning は意味によって助けにも害にもなる。」
25 分分類、抽出、生成のロードマップをざっと読む「タスクは出力で定義される。」
25 分タスク出力図を読む「出力タイプから指標を選べる。」

必ず残す証拠

証拠最小版
text_cleaning.pycleaning、tokenization、before/after 例
label_guide.mdlabel 定義、境界ケース、正例と反例
classification_report.md指標、混同行列またはエラー表、モデル比較
extraction_examples.jsonl元文、抽出フィールド、検証結果
failure_cases.md紛らわしいラベル、欠損フィールド、根拠なし事実、悪い要約
README.mdタスク目標、実行コマンド、入出力、指標、制限

品質ゲート

ゲート合格条件
Label/schema boundarylabels または fields に positive、negative、edge examples がある。
Baselinerule、TF-IDF、simple model、LLM baseline が同じ fixed eval cases で動く。
Factuality生成 summary/answer が fluency だけでなく source evidence で確認される。
Error reviewconfusion、missing fields、unsupported facts、bad summaries に cause と next test がある。

章を出る前の質問

  • 生テキストが token とモデル入力になる流れを説明できますか?
  • training や prompting の前にラベル境界を定義できますか?
  • タスクが分類、抽出、検索、生成のどれを必要とするか判断できますか?
  • 要約や回答の事実一貫性を評価できますか?
  • 伝統的 NLP 手法で足りる場合と、LLM が役立つ場合を説明できますか?

答えがすべて「はい」なら、NLP の考え方を Prompt、RAG、Agent memory、マルチモーダル作業により安定して使えます。