AI Literacy Training

Kiến thức nền tảng về AI

Các khái niệm cơ bản về AI.

AI Cơ bản Hallucination Token & Context Window Prompt & Context Engineering
Khái niệm cốt lõi

AI không "suy nghĩ" — AI dự đoán xác suất

AI Language Model là mô hình thống kê được huấn luyện trên hàng tỷ văn bản. Với mỗi input, AI tính xác suất cho từng token tiếp theo rồi chọn token có khả năng xuất hiện cao nhất. Không có tư duy, không có hiểu biết thực sự — chỉ là pattern matching cực kỳ tinh vi ở quy mô khổng lồ.

Ví dụ minh họa

🌤️ "Bầu trời có màu gì?"

🤖
AI không nhìn thấy bầu trời, không hiểu vật lý tán xạ ánh sáng Rayleigh, không có mắt hay nhận thức.

AI quét qua hàng tỷ câu văn và phát hiện: trong training data, cụm "bầu trời" + "màu xanh" đồng xuất hiện với tần suất áp đảo → AI chọn "màu xanh" không phải vì hiểu, mà vì xác suất cao nhất.

Phân bổ xác suất khi AI nhận prompt "Bầu trời có màu..."

xanh (lam) — xuất hiện nhiều nhất trong corpus 78%
xám — context mưa/bão 14%
đỏ/cam — context hoàng hôn 6%
các màu khác 2%
AI vs Con người
🤖 AI — Language Model
  • 📊 Khớp pattern thống kê
  • 📚 Kiến thức từ training data
  • 🔢 Tối ưu xác suất token tiếp theo
  • ❌ Không có nhận thức thực sự
  • ❌ Không hiểu nhân quả
  • ❌ Không "thấy" hay "cảm nhận" thế giới
🧠 Con người
  • 👁️ Tri giác thực tế qua 5 giác quan
  • 💡 Hiểu nhân quả, logic, context
  • 🌱 Học từ trải nghiệm sống
  • ✅ Nhận thức về bản thân
  • ✅ Tư duy sáng tạo độc lập
  • ✅ Biết mình không biết gì
💡 Kết luận quan trọng: Khi AI trả lời "đúng", đó là vì câu trả lời đó xuất hiện nhiều trong training data — không phải vì AI hiểu vấn đề. Đây là lý do tại sao AI có thể trả lời sai một cách tự tin, và tại sao hallucination xảy ra.
Định nghĩa

Hallucination là gì?

AI tạo ra thông tin sai lệch, bịa đặt hoặc không có cơ sở thực tế — nhưng trình bày với giọng điệu tự tin như thể đó là sự thật. Tên gọi "hallucination" (ảo giác) phản ánh bản chất: AI "nhìn thấy" thứ không tồn tại.

Tại sao hallucination xảy ra?

Đây là hệ quả trực tiếp của cơ chế xác suất:

Cách giảm thiểu   ↗ Nguồn: Anthropic Docs

Kỹ thuật cơ bản

Basic

Kỹ thuật nâng cao

Advanced
⚠️ Quan trọng: Không có kỹ thuật nào loại bỏ hoàn toàn hallucination — đây là giới hạn cơ bản của kiến trúc LLM hiện tại. Với quyết định quan trọng, luôn cross-check bằng nguồn độc lập.
Token là gì?

Token — đơn vị ngôn ngữ của AI

AI không xử lý từng ký tự, cũng không xử lý từng từ hoàn chỉnh. AI chia văn bản thành các "mảnh" nhỏ gọi là token — thường là một từ ngắn, cụm ký tự, hoặc một phần của từ dài. Mọi phép tính và dự đoán của AI đều diễn ra ở đơn vị token, không phải chữ cái.

Case study nổi tiếng: "Strawberry"

🍓 GPT không đếm được chữ "r" trong "strawberry"

GPT-3/4 tách từ "strawberry" thành 2 token:

strawberry straw + berry

Khi hỏi: "Chữ 'r' xuất hiện mấy lần trong 'strawberry'?"
GPT trả lời: "2 lần"  (thực tế: 3 lần)

Lý do: AI "nhìn" thấy straw (có 1 chữ r) + berry (có 1 chữ r) = đếm được 2. AI không thấy từng ký tự — chỉ thấy token. Đây là ví dụ điển hình AI giỏi pattern matching nhưng không thực sự "hiểu".

Ví dụ tokenization

Mỗi màu = 1 token riêng biệt

"hello world"
hello world
2 tokens
"tokenization"
tokenization
2 tokens
"unhappiness"
unhappiness
3 tokens
"xin chào"
xin chào
4 tokens
"trí tuệ nhân tạo"
trí tu nhân tạo
8 tokens
⚖️ Cùng nghĩa — chênh lệch token
🇺🇸 Tiếng Anh 3 tokens
"Artificial Intelligence"
Artificial Intelligence
3 / 10
🇻🇳 Tiếng Việt 8 tokens
"Trí tuệ nhân tạo"
Trí tu nhân tạo
8 / 10
🇺🇸 Tiếng Anh 2 tokens
"Thank you"
Thank you
2 / 6
🇻🇳 Tiếng Việt 5 tokens
"Cảm ơn bạn"
Cảm ơn bạn
5 / 6
🔢 Cùng 1 nghĩa — tiếng Việt tốn gấp ~2.5–3x token so với tiếng Anh. Dấu thanh (í, ệ, ạ, ơ...) bị tách thành token riêng do bảng mã Unicode. Viết prompt bằng tiếng Anh sẽ tiết kiệm đáng kể chi phí khi dùng API tính tiền theo token.
🌍 Xếp hạng ngôn ngữ tốn token nhất (so với tiếng Anh)
Ngôn ngữ Hệ chữ viết Gấp x lần Mức độ
🇬🇧 Tiếng Anh Latin 1x
🇫🇷 🇩🇪 Châu Âu Latin (có dấu) ~1.2x
🇻🇳 Tiếng Việt Latin + dấu thanh ~3x
🇹🇭 Tiếng Thái Thai script ~4x
🇮🇩 🇵🇭 Indo / Filipino Latin (ít dấu) ~2x
🇨🇳 Tiếng Trung Hán tự (CJK) ~4–5x
🇸🇦 Tiếng Ả Rập Arabic script ~5x
🇮🇳 Hindi / Bengali Devanagari ~6–8x
💡 Tại sao tiếng Anh luôn rẻ nhất? Tokenizer của các mô hình lớn (GPT, Claude, Gemini) được huấn luyện chủ yếu trên dữ liệu tiếng Anh → học cách nén tiếng Anh hiệu quả nhất. Các ngôn ngữ ít xuất hiện trong training data bị tách vụn hơn nhiều. Đây là một dạng bất bình đẳng ngôn ngữ trong AI hiện tại.
Context Window — bộ nhớ làm việc của AI

Context window là số token tối đa AI có thể xử lý trong một lần. Nó bao gồm cả input (prompt + tài liệu) lẫn output (câu trả lời). Vượt quá giới hạn → AI cắt bỏ nội dung cũ nhất — không phải "quên" như con người, mà là hoàn toàn không còn nhìn thấy.

⚠️ Context window vượt giới hạn có dẫn đến Hallucination không?

Hai hiện tượng khác nhau nhưng có liên quan. Khi vượt giới hạn, AI không "bịa ra" nội dung bị cắt — nó đơn giản là không thấy nữa. Tuy nhiên, khi mất context, AI có thể tự điền vào chỗ trống bằng xác suất → sinh ra thông tin sai → đây mới là hallucination. Mất context là nguyên nhân, hallucination là hệ quả có thể xảy ra.
Model Nhà phát triển Context Window So sánh tương đối
Claude Sonnet 4.6
Mới nhất
Anthropic 200K
Claude Opus 4.6 Anthropic 200K
GPT-5.4
ChatGPT Standard
OpenAI 272K
GPT-5.4
API / Codex
OpenAI 1M
Gemini 2.0 Flash Google 1M
Gemini 1.5 Pro Google 1M
📏 1M tokens ≈ ~750.000 từ tiếng Anh ≈ toàn bộ 7 cuốn Harry Potter. 200K tokens ≈ một cuốn sách dày hoặc ~150 trang tài liệu kỹ thuật.

💰 Token = đơn vị tính giá API. Càng nhiều token input/output → chi phí càng cao. Với tiếng Việt, chi phí cao hơn ~3–4x do token dày hơn.
Tại sao cần kỹ thuật này?

Garbage in — Garbage out

AI hoạt động dựa trên xác suất, không tự hiểu ý định của bạn. Input mơ hồ → AI đoán mò → output kém. Prompt & Context Engineering là kỹ năng kiểm soát input để lấy được output tốt nhất có thể từ AI.

2 tầng kỹ thuật
Tier 1 · Prompt Engineering
Tầng input — cách viết lệnh cho AI
Tối ưu cách viết instruction — vai trò, ví dụ mẫu, ràng buộc, format, chuỗi suy luận. Tác động ở từng request riêng lẻ.
Thiết kế input
Zero / Few-shotCung cấp ví dụ mẫu để AI học theo
Role · PersonaGán danh tính chuyên gia cho AI
Negative promptingChỉ rõ những gì KHÔNG được làm
CounterexampleVí dụ sai + lý do sai để tránh lặp
Template patternĐịnh nghĩa format output cố định
Reasoning — Kỹ thuật lập luận
Chain of ThoughtYêu cầu AI suy luận từng bước trước khi kết luận
Tree / Graph of ThoughtKhám phá nhiều nhánh suy luận, backtrack nếu sai
DecompositionChia câu hỏi lớn thành chuỗi prompt nhỏ
Độ tin cậy
Self-consistencyChạy nhiều lần → lấy câu trả lời xuất hiện nhiều nhất
Self-critiqueYêu cầu AI tự review và chỉ ra lỗi trong output của mình
Tier 2 · Context Engineering
Tầng context window — bao gồm toàn bộ Tier 1
Tối ưu toàn bộ context window — không chỉ viết prompt tốt mà còn kiểm soát thông tin gì được đưa vào, khi nào, và bao nhiêu token. Tier 2 bao gồm mọi thứ của Tier 1.
Nguyên tắc thực hành — người dùng làm được ngay
  • Đính kèm đúng file cần thiết — không nhét thừaChỉ đưa vào tài liệu liên quan đến câu hỏi hiện tại. Nhét quá nhiều → AI bị nhiễu, token lãng phí.
  • Viết background rõ ràng ở đầu chatVí dụ: "Tao là Growth Manager, team 5 người, đang chạy campaign cho game casual ở VN. Context: ..." — AI sẽ trả lời sát thực tế hơn nhiều.
  • Tóm tắt hội thoại cũ trước khi tiếp tụcChat quá dài → AI bắt đầu quên nội dung đầu. Hãy paste tóm tắt: "Ở trên tao đã quyết định X, Y, Z. Tiếp theo..." thay vì kéo dài 1 chat.
  • Biết khi nào nên bắt đầu chat mớiMỗi chat là 1 context window riêng. Chủ đề khác nhau → chat mới. Đừng trộn nhiều task không liên quan vào 1 chat dài — AI sẽ lẫn lộn.
Checklist trước khi gửi prompt quan trọng
💡 Tier 1 đủ dùng cho 90% tác vụ hàng ngày. Tier 2 cần thiết khi xử lý tài liệu dài, cần AI nhớ thông tin qua nhiều phiên, hoặc muốn AI làm việc với dữ liệu ngoài (vd: file Excel, ảnh campaign plan, báo cáo hiệu suất...).
Dẫn nhập

AI tiên tiến đến đâu cũng có giới hạn không thể vượt qua

Những giới hạn này không phải kỹ thuật — chúng là giới hạn cốt lõi về mặt sinh học và triết học. Hiểu được điều này giúp bạn biết khi nào nên dựa vào AI, và khi nào phải dựa vào chính mình.

🧬
Không có đồng bộ thần kinh & hiệu chỉnh thực tại
Thiếu vòng phản hồi cảm xúc thời gian thực

Khi người nói chuyện với người, tế bào gương (mirror neurons) kích hoạt liên tục — không chỉ giúp ta hiểu lời nói, mà còn giúp ta cảm nhận được trạng thái cảm xúc của người kia. Đây là lý do khi thấy ai đó đau, ta có cảm giác nhói theo. Khi thấy ai cười thật, ta muốn cười theo.

Trong giao tiếp, cơ chế này tạo ra một vòng phản hồi thời gian thực: người nói quan sát liên tục — ánh mắt, nét mặt, tư thế, nhịp thở của người nghe — và tự động điều chỉnh cách diễn đạt. Thấy người nghe nhăn mặt → đơn giản hóa. Thấy gật đầu → đi sâu hơn. Thấy nhìn đi chỗ khác → đổi chủ đề.

AI hoàn toàn không có vòng phản hồi này. Nó phát ra văn bản vào khoảng trống — không biết bạn đang gật đầu hay nhăn mặt, đang hiểu hay đang mất hút. Nó có thể giải thích sai tầm, dùng từ ngữ quá phức tạp, đi quá sâu vào chi tiết không cần thiết — mà không hề hay biết. Nó không thấy bạn đang bối rối.
Không có chiều sâu lịch sử & sự đánh đổi
Ngôn ngữ mất đi trọng lượng khi không có hậu quả

Mối quan hệ người-người được xây đắp qua thời gian — và thời gian đó tạo ra thứ không thể sao chép: lịch sử chung. Những trò đùa nội bộ (câu chuyện chỉ hai người hiểu, một cái nhìn là bật cười), ký ức chia sẻ, những lúc cùng vượt qua khó khăn. Chúng tạo ra chiều sâu mà không câu chữ nào diễn đạt được đầy đủ.

Quan trọng hơn — mọi cuộc trò chuyện giữa người với người đều có sự đánh đổi thực sự (real stakes). Nói sai có thể làm tổn thương người kia. Nói thiếu suy nghĩ có thể mất đi mối quan hệ. Bị phán xét, bị hiểu lầm, bị nhớ mãi. Chính sự đánh đổi này buộc ta phải lựa chọn từ ngữ có trách nhiệm, phải thực sự lắng nghe trước khi nói.

AI không giận, không bị tổn thương, không bỏ đi, không nhớ lần sau. Không có gì bị mất khi bạn nói bừa với AI. Điều này nghe có vẻ tiện — nhưng thực ra nó làm mất đi trọng lượng của ngôn ngữ. Khi lời nói không có hậu quả, nó không còn là sự giao tiếp thật sự nữa — nó chỉ là input và output.
🗣️
Giới hạn bản thể của ngôn ngữ
Triết lý Wittgenstein — không phải mọi câu hỏi đều có đáp án

Con người có ngôn ngữ phi từ vựng — cảm giác cơ thể, linh cảm, trực giác. AI chỉ có ngôn ngữ. Đôi khi một lập luận hoàn hảo của AI vẫn khiến ta thấy "sai sai" — đó là lúc trực giác đang lên tiếng, và nó thường đúng.

Wittgenstein phân loại câu hỏi thành 3 loại:

✅ Loại 1 — Kiểm chứng được
"Con mèo ở đâu?"
Có đáp án thực tế, kiểm chứng được. AI trả lời tốt.
✅ Loại 2 — Logic / Toán học
"2 + 2 = ?"
Có đáp án theo hệ thống logic. AI trả lời tốt.
⚠️ Loại 3 — Ngữ pháp giả trang
"Ý nghĩa cuộc sống là gì?"
Trông như câu hỏi nhưng không có đáp án cố định. Mang tính cá nhân, triết học, ngữ cảnh.
⚠️ Hiểm họa: AI không phân biệt được Loại 3. Nó tự tin trả lời "Quyết định này có đúng không?", "Tao có nên làm vậy không?" — như thể đó là câu hỏi có đáp án cố định. Nó tạo ra ảo giác của sự hiểu biết.
📚
Tháp nhận thức — DIKW
Dữ liệu → Thông tin → Tri thức → Trí tuệ

AI có thể cung cấp cho bạn Dữ liệuThông tin với tốc độ và khối lượng khổng lồ. Nhưng để leo lên 2 tầng trên, không có đường tắt.

🧘
Trí tuệ (Wisdom)
Biết điều gì đúng trong bối cảnh cụ thể của cuộc đời mình
👤 Chỉ con người
💡
Tri thức (Knowledge)
Hiểu sâu, kết nối được các thông tin với nhau và với thực tế
👤 Chỉ con người
📊
Thông tin (Information)
Dữ liệu đã được xử lý, có cấu trúc và ngữ cảnh
🤖 AI làm được
🗄️
Dữ liệu (Data)
Sự kiện thô, số liệu, văn bản chưa qua xử lý
🤖 AI làm được
Để biến Thông tin thành Tri thức và Trí tuệ, thông tin bắt buộc phải đi qua quá trình nghiền ngẫm, va chạm thực tế và đúc kết của chính bộ não con người. Không có đường tắt cho việc này.

Nếu bạn chỉ copy-paste output của AI mà không nghiền ngẫm — bộ não của bạn chỉ là một căn phòng chứa đầy rác dữ liệu.
🧠 Điểm cốt lõi: AI là công cụ cực kỳ mạnh ở tầng Dữ liệu và Thông tin. Nhưng Tri thức và Trí tuệ — thứ thực sự tạo nên giá trị của bạn — chỉ đến từ việc bạn tự va chạm, tự đúc kết, tự chịu trách nhiệm với quyết định của mình.