10.0 学習チェックリスト:コンピュータビジョン
このページは印刷用チェックリストとして使います。詳しい説明が必要なときは、第 10 章入口ページ に戻ってください。

2時間の初回通読
| 時間 | やること | ここまで言えたら止める |
|---|---|---|
| 20 分 | 出力粒度の階段図を見る | 「分類、検出、セグメンテーションは出力が違う。」 |
| 25 分 | ピクセルラボを動かす | 「サイズ、チャンネル、RGB、グレー値を確認できる。」 |
| 25 分 | 10.1 画像基礎をざっと読む | 「前処理はモデルが見るデータを変える。」 |
| 25 分 | 分類、検出、セグメンテーションのロードマップをざっと読む | 「どの指標がどのタスクに対応するか分かる。」 |
| 25 分 | デバッグループを読む | 「構造を疑う前に、データとラベルを確認する。」 |
必ず残す証拠
| 証拠 | 最小版 |
|---|---|
opencv_demo.py または pixel_lab.py | 画像読み込みまたは生成、前処理、保存出力 |
vision_dataset.md | データ源、クラス、サンプル数、アノテーション方法、制限 |
eval_results.md | accuracy/F1、mAP、IoU/Dice、OCR hit rate、または選んだ指標 |
failure_cases.md | 失敗画像、原因候補、修正方向 |
README.md | タスク目標、実行コマンド、入出力例、シナリオ境界 |
品質ゲート
| ゲート | 合格条件 |
|---|---|
| Visual trace | 元画像、処理画像、予測画像、失敗画像が対応するファイル名で保存されている。 |
| Annotation | dataset notes が classes、boxes または masks、source、split、既知の annotation uncertainty を定義している。 |
| Metric fit | accuracy/F1、mAP、IoU/Dice、OCR hit rate が task output に合っている。 |
| Real-world boundary | report に lighting、angle、camera/source、latency、image size、device limits がある。 |
章を出る前の質問
- 分類、検出、セグメンテーション、OCR を出力形状で説明できますか?
- 元画像、処理後画像、予測可視化を示せますか?
- アノテーション品質が指標に影響する理由を説明できますか?
- accuracy/F1、mAP、IoU、Dice を正しいタスクに選べますか?
- Demo が実画像で失敗する理由を説明できますか?
答えがすべて「はい」なら、第 12 章のマルチモーダル方向へ視覚能力をつなげられます。