0

BÀI 7 — VECTOR CALCULUS (Gradient – nền tảng để AI “học”)

🎯 Mục tiêu

Hiểu:

Đạo hàm là gì Gradient là gì Tại sao AI học được (gradient descent) 🧠 1. ĐẠO HÀM (Derivative) 📌 Ý nghĩa

👉 Đạo hàm = tốc độ thay đổi

📌 Ví dụ

👉 đạo hàm:

f(x)=2x

🎯 Ý nghĩa x tăng → f(x) tăng nhanh thế nào giúp tìm điểm tối ưu 🧠 2. GRADIENT (QUAN TRỌNG NHẤT) 📌 Định nghĩa Ảnh chụp Màn hình 2026-04-28 lúc 15.38.36.png

🎯 Ý nghĩa

👉 Gradient = hướng tăng nhanh nhất của hàm

📌 Ví dụ Ảnh chụp Màn hình 2026-04-28 lúc 15.39.02.png 👉 gradient:

∇f=(2x,2y)

🧠 3. TRỰC GIÁC (RẤT QUAN TRỌNG)

👉 Hãy tưởng tượng:

bạn đứng trên núi gradient chỉ hướng leo lên nhanh nhất

👉 còn:

-gradient = đi xuống nhanh nhất 🔥 4. GRADIENT DESCENT (AI HỌC NHƯ THẾ NÀO) 📌 Công thức

x=x−η∇f(x)

🎯 Ý nghĩa x: tham số model η (eta): learning rate ∇f: gradient

👉 cập nhật để giảm lỗi

🧠 5. Ví dụ ML thật

Model:

y = ax + b

👉 Loss:

error = (y_pred - y_true)^2

👉 dùng gradient:

cập nhật a, b 🔥 6. TẠI SAO CÁI NÀY QUAN TRỌNG?

👉 Vì:

Neural Network = gradient descent Deep Learning = backpropagation 🧠 Insight level cao

👉 AI = tối ưu hàm:

minimize loss 🔥 BÀI TẬP ✍️ Bài 1 (cơ bản)

Tính đạo hàm: Ảnh chụp Màn hình 2026-04-28 lúc 15.39.52.png

✍️ Bài 2 (gradient)

Cho: Ảnh chụp Màn hình 2026-04-28 lúc 15.39.37.png

👉 Tính gradient

✍️ Bài 3 (tư duy)

👉 Tại sao:

phải đi theo -gradient mà không phải gradient? ✍️ Bài 4 (level AI)

👉 Nếu learning rate quá lớn thì sao?

🚀 Nếu bạn hiểu bài này

👉 bạn đã hiểu:

cách AI học cách training model nền tảng deep learning


All rights reserved

Viblo
Hãy đăng ký một tài khoản Viblo để nhận được nhiều bài viết thú vị hơn.
Đăng kí