メインコンテンツへスキップ

10.0 学習チェックリスト:コンピュータビジョン

このページは印刷用チェックリストとして使います。詳しい説明が必要なときは、第 10 章入口ページ に戻ってください。

ビジョンポートフォリオ証拠パック

2時間の初回通読

時間やることここまで言えたら止める
20 分出力粒度の階段図を見る「分類、検出、セグメンテーションは出力が違う。」
25 分ピクセルラボを動かす「サイズ、チャンネル、RGB、グレー値を確認できる。」
25 分10.1 画像基礎をざっと読む「前処理はモデルが見るデータを変える。」
25 分分類、検出、セグメンテーションのロードマップをざっと読む「どの指標がどのタスクに対応するか分かる。」
25 分デバッグループを読む「構造を疑う前に、データとラベルを確認する。」

必ず残す証拠

証拠最小版
opencv_demo.py または pixel_lab.py画像読み込みまたは生成、前処理、保存出力
vision_dataset.mdデータ源、クラス、サンプル数、アノテーション方法、制限
eval_results.mdaccuracy/F1、mAP、IoU/Dice、OCR hit rate、または選んだ指標
failure_cases.md失敗画像、原因候補、修正方向
README.mdタスク目標、実行コマンド、入出力例、シナリオ境界

品質ゲート

ゲート合格条件
Visual trace元画像、処理画像、予測画像、失敗画像が対応するファイル名で保存されている。
Annotationdataset notes が classes、boxes または masks、source、split、既知の annotation uncertainty を定義している。
Metric fitaccuracy/F1、mAP、IoU/Dice、OCR hit rate が task output に合っている。
Real-world boundaryreport に lighting、angle、camera/source、latency、image size、device limits がある。

章を出る前の質問

  • 分類、検出、セグメンテーション、OCR を出力形状で説明できますか?
  • 元画像、処理後画像、予測可視化を示せますか?
  • アノテーション品質が指標に影響する理由を説明できますか?
  • accuracy/F1、mAP、IoU、Dice を正しいタスクに選べますか?
  • Demo が実画像で失敗する理由を説明できますか?

答えがすべて「はい」なら、第 12 章のマルチモーダル方向へ視覚能力をつなげられます。