メインコンテンツへスキップ

0.1 30分 AI クイック体験

30分AIクイック体験ループ

**まず流れを感じます:**入力 -> モデル -> 出力 -> 確認。用語の暗記はまだ不要です。

いちばん速いノーコード体験

使える AI チャットまたは画像ツールを開き、次を入力します。

初心者に RAG をたとえ話で説明して。

次に「初心者」を「開発者」に変えて、出力の違いを見ます。目的は AI が賢いかどうかを判定することではありません。小さな入力変更が、構成、語彙、例、自信の出し方をどう変えるかを見ることです。

変更するもの確認するもの
読者:初心者 -> 開発者例と語彙が変わるか
制約:80字以内 を追加長さと焦点を守るか
形式:3つの箇条書き を追加出力が読みやすくなるか
証拠:限界を1つ含めて を追加保証できないことを説明するか

この小さな比較が、講座全体の最初の習慣です。1回の出力だけを見ないでください。条件を1つ変え、比較し、より良い結果を残します。

任意の Colab 体験

Google Colab を開き、新しい Notebook で実行します。

!pip install transformers torch pillow requests -q

from transformers import pipeline
from PIL import Image
import io
import requests

classifier = pipeline("image-classification", model="google/vit-base-patch16-224")
url = "https://upload.wikimedia.org/wikipedia/commons/thumb/2/26/YellowLabradorLooking_new.jpg/1200px-YellowLabradorLooking_new.jpg"
image = Image.open(io.BytesIO(requests.get(url, headers={"User-Agent": "Mozilla/5.0"}).content))

for row in classifier(image)[:3]:
print(f"{row['label']:30s} {row['score']:.1%}")

出力の形:

Labrador retriever              95.6%
golden retriever 1.0%
kuvasz 0.5%

数値は環境によって変わります。重要なのは、ラベルと信頼度が順位付きで出る形です。

結果を読む

初学者の問い実用的な答え深い信号
入力は何かURL から取得した1枚の画像実システムでは種類、サイズ、出所、プライバシーを確認する
モデルは何か事前学習済み画像分類器学習設定にあるラベルしか扱えない
出力は何か上位ラベルとスコア高スコアは事実の証明ではなく、モデルの信頼度
どこで失敗するかdownload、install、model loading で失敗し得る信頼できる AI 作業にはログ、代替手段、再現可能な環境が必要

Colab が失敗しても、ここで1日使い切らないでください。エラーを保存し、ノーコード体験を先に終え、第1章で terminal、Python、環境を学んでから戻ります。

メモを1つ残す

短いメモを作り、4 行だけ書きます。

試した入力:
観察した出力:
変えた条件:
出力の変化:

ここでの AI は魔法ではありません。入力を渡し、学習済みモデルが処理し、出力を確認します。経験者は、依存関係のインストール時間、モデル download、入力検証、モデルの限界、証拠の残し方という隠れた工程にも注意してください。次は最小環境を準備します。