成為神經網路

不只觀看 AI 如何思考
用你的大腦扮演每一個元件

入門
🧠

Human Forward Pass

你就是一個 CNN 神經元。看到 3×3 像素區塊,你能判斷裡面的特徵是什麼嗎?

⭐ 簡單 · 約 3 分鐘
NEW
📉

損失函數遊樂場

拖動滑桿改變預測值,看 MSE/CrossEntropy/Huber 如何反應。手動梯度下降到最低點。

⭐ 簡單 · 互動式圖表
NEW
🎨

多模態感知室

看 AI 怎麼「看」圖片。CNN 各層特徵圖視覺化+文字-圖片相似度匹配。

⭐⭐ 中等 · 視覺化
NEW
⛓️

反向傳播模擬器

手動計算梯度,看權重一步步更新。用你的大腦成為 SGD 優化器。

⭐⭐⭐ 進階 · 手動計算
實驗
🔬

Model Lobotomy Lab

親手「切除」神經元。看模型從 98% 準確率崩壞到隨機猜測的過程。

⭐⭐ 中等 · 互動式
進階
👁️

Attention Head 解剖台

視覺化 Transformer 的注意力機制。修改 attention weight,看語意如何改變。

⭐⭐⭐ 進階 · 可手動修改
探索
🌌

Embedding 太空漫步

在向量空間中漫遊。發現「國王 − 男人 + 女人 = 王后」的魔法。

⭐⭐ 中等 · 視覺化探索

🛤️ AI 修煉之路 — 第二章

0 / 4 模組完成

🧠 Human Forward Pass

🧠 你就是神經元

在真正的 CNN 中,每個卷積核掃描圖片的一小塊區域(3×3 pixel patch),偵測邊緣、紋理、角落等特徵。

現在,來做這件事。

系統會隨機生成一個數字,你需要一塊一塊地辨識特徵,完成一次人肉前向傳播。

🔬 Model Lobotomy Lab

點擊任何非輸入層的神經元來「切除」它。觀察模型的預測能力如何崩壞——或者意外地變好。

🧬 神經網路 點擊節點切除/恢復

🔢 輸入數字

🎯 模型預測

?
Predicted Class

📊 信心分佈

📈 影響統計

0
已切除
98.2%
估算準確率

👁️ Attention Head 解剖台

🧩 Attention Heads

💡 點擊矩陣中的格子可以手動增加該 attention weight

💡 這個 Head 在幹嘛?

選擇一個 Head 來查看解釋

📝 修改後的語意

點擊矩陣修改 weight 後,觀察語意變化

-

🌌 Embedding 太空漫步

🎯 選中的詞

點擊圖中的詞彙查看詳情

📍 最近鄰居

點擊詞彙後會顯示 5 個最近的鄰居

📉 損失函數遊樂場

損失函數衡量模型預測和真實值的差距。拖動滑桿改變預測值 ŷ,觀察不同損失函數的反應。

🎯 參數控制


0.80

0.30

📊 損失值

📈 損失曲線(固定 y=0.8,x 軸 = ŷ)

⛳ 梯度下降挑戰

點擊「一步 SGD」讓預測值沿著梯度方向移動。嘗試在 5 步內把 MSE 降到 < 0.01!

步數: 0 | lr=0.5

🎨 多模態感知室

AI 怎麼「看」東西?CNN 的每一層就像戴不同的眼鏡——第一層看邊緣,中間層看紋理,深層看整體結構。

🖼️ 選擇圖片

🔍 CNN 各層特徵

🔗 文字-圖片匹配 (CLIP 概念)

輸入描述文字,看系統對每張圖片的匹配分數

⛓️ 反向傳播模擬器

你就是 SGD 優化器。一個簡單的 2 層網路:Input → w1 → Hidden → w2 → Output。手動算梯度並更新權重。

🧮 網路結構

📋 目前狀態

🧠 你來算:∂Loss/∂w2 = ?

載入中...

正確: 0/0