0.1 30分 AI クイック体験

**まず流れを感じます:**入力 -> モデル -> 出力 -> 確認。用語の暗記はまだ不要です。
いちばん速いノーコード体験
使える AI チャットまたは画像ツールを開き、次を入力します。
初心者に RAG をたとえ話で説明して。
次に「初心者」を「開発者」に変えて、出力の違いを見ます。目的は AI が賢いかどうかを判定することではありません。小さな入力変更が、構成、語彙、例、自信の出し方をどう変えるかを見ることです。
| 変更するもの | 確認するもの |
|---|---|
読者:初心者 -> 開発者 | 例と語彙が変わるか |
制約:80字以内 を追加 | 長さと焦点を守るか |
形式:3つの箇条書き を追加 | 出力が読みやすくなるか |
証拠:限界を1つ含めて を追加 | 保証できないことを説明するか |
この小さな比較が、講座全体の最初の習慣です。1回の出力だけを見ないでください。条件を1つ変え、比較し、より良い結果を残します。
任意の Colab 体験
Google Colab を開き、新しい Notebook で実行します。
!pip install transformers torch pillow requests -q
from transformers import pipeline
from PIL import Image
import io
import requests
classifier = pipeline("image-classification", model="google/vit-base-patch16-224")
url = "https://upload.wikimedia.org/wikipedia/commons/thumb/2/26/YellowLabradorLooking_new.jpg/1200px-YellowLabradorLooking_new.jpg"
image = Image.open(io.BytesIO(requests.get(url, headers={"User-Agent": "Mozilla/5.0"}).content))
for row in classifier(image)[:3]:
print(f"{row['label']:30s} {row['score']:.1%}")
出力の形:
Labrador retriever 95.6%
golden retriever 1.0%
kuvasz 0.5%
数値は環境によって変わります。重要なのは、ラベルと信頼度が順位付きで出る形です。
結果を読む
| 初学者の問い | 実用的な答え | 深い信号 |
|---|---|---|
| 入力は何か | URL から取得した1枚の画像 | 実システムでは種類、サイズ、出所、プライバシーを確認する |
| モデルは何か | 事前学習済み画像分類器 | 学習設定にあるラベルしか扱えない |
| 出力は何か | 上位ラベルとスコア | 高スコアは事実の証明ではなく、モデルの信頼度 |
| どこで失敗するか | download、install、model loading で失敗し得る | 信頼できる AI 作業にはログ、代替手段、再現可能な環境が必要 |
Colab が失敗しても、ここで1日使い切らないでください。エラーを保存し、ノーコード体験を先に終え、第1章で terminal、Python、環境を学んでから戻ります。
メモを1つ残す
短いメモを作り、4 行だけ書きます。
試した入力:
観察した出力:
変えた条件:
出力の変化:
ここでの AI は魔法ではありません。入力を渡し、学習済みモデルが処理し、出力を確認します。経験者は、依存関係のインストール時間、モデル download、入力検証、モデルの限界、証拠の残し方という隠れた工程にも注意してください。次は最小環境を準備します。