📒Phần 1: Vector – Linh hồn của Trí tuệ nhân tạo (Series From 0 to Transformer)

📒Phần 1: Vector – Linh hồn của Trí tuệ nhân tạo (Series From 0 to Transformer)

Bạn có bao giờ thắc mắc tại sao ChatGPT lại "hiểu" được những gì bạn nói, dù nó chỉ là một cỗ máy khô khan không?

🚀 Tại sao lại là Vector?

Chào mừng bạn đến với tập đầu tiên trong series "Từ số 0 đến Transformer". Mục tiêu của chúng mình rất rõ ràng: Giải mã toàn bộ toán học đằng sau những mô hình AI đình đám nhất hiện nay. Và điểm xuất phát không đâu khác chính là: Vector.

Tại sao lại bắt đầu từ đây? Bởi vì trong thế giới của AI, máy tính hoàn toàn không "nhìn" thấy hình ảnh hay "đọc" được chữ cái như mắt người. Mọi dữ liệu, từ một câu thả thính, một bức ảnh selfie cho đến một đoạn nhạc, tất cả đều phải được "số hóa" thành các vector. Nếu không hiểu về vector, bạn sẽ mãi mãi chỉ nhìn thấy bề nổi của AI mà không bao giờ chạm được vào bộ não thực sự của nó.

🏹 Từ "Mũi tên" đến "Danh sách số"

Hồi còn đi học phổ thông, chúng mình thường được dạy rằng: Vector là một mũi tên trong không gian, có hướng và độ dài nhất định. Ví dụ trên hệ tọa độ Oxy, một vector đi sang phải 3 đơn vị và lên trên 2 đơn vị thì đầu mũi tên dừng lại ở điểm (3, 2).

Nhưng trong lĩnh vực AI, chúng ta cần một góc nhìn thực dụng và "đời" hơn. Vector đơn giản là một danh sách các con số có thứ tự. Mũi tên chỉ là cách chúng ta hình dung cho trực quan thôi, còn bản chất của nó chính là dãy số [3, 2].

Khi bạn có 2 số, bạn có không gian 2 chiều (mặt phẳng). Khi có 3 số, bạn có không gian 3 chiều. Nhưng bạn biết không, trong các mô hình AI thực tế, người ta dùng hàng nghìn, thậm chí hàng chục nghìn con số cho duy nhất một vector. Lúc này chúng ta không thể vẽ ra giấy được nữa, nhưng mọi quy tắc toán học vẫn hoạt động y hệt. Đây chính là không gian đa chiều, nơi mà trí tuệ nhân tạo thực sự "sống" và làm việc.

🔢 3 phép tính nền tảng bạn buộc phải nhớ

Để làm chủ được AI, bạn chỉ cần nắm vững 3 phép tính cơ bản sau đây.

Đầu tiên là Phép cộng Vector: Chúng ta cộng từng thành phần tương ứng với nhau. Về mặt ý nghĩa hình học, nó giống như việc bạn nối đuôi các đặc điểm lại để tạo ra một đặc điểm mới tổng hợp hơn.

Thứ hai là Nhân vô hướng (Scalar Multiplication): Đó là khi bạn nhân một vector với một số thực. Phép tính này giúp bạn phóng to hoặc thu nhỏ tầm ảnh hưởng của thông tin nhưng vẫn giữ nguyên hướng đi của nó.

Và cuối cùng, quan trọng nhất chính là Tích vô hướng (Dot Product). Đây được coi là "trái tim" của cơ chế Attention trong mô hình Transformer. Phép tính này trả về một con số duy nhất cho biết độ tương đồng giữa hai thông tin. Nếu tích vô hướng lớn, hai thông tin đó đang rất giống nhau hoặc liên quan chặt chẽ. Nếu bằng 0, chúng hoàn toàn không liên quan (vuông góc). Còn nếu âm, chúng đang đối lập nhau hoàn toàn.

✨ Phép màu mang tên Embedding

Trong các mô hình như GPT, mỗi từ ngữ (gọi là token) sẽ được biểu diễn bằng một vector hàng nghìn chiều, gọi là Embedding. Điều kỳ diệu nằm ở chỗ: các từ có nghĩa gần nhau sẽ có các vector nằm sát cạnh nhau trong không gian số.

Ví dụ, vector của từ "Mèo" và "Chó" sẽ ở rất gần nhau vì chúng đều là thú cưng. Trong khi đó, vector của "Mèo" và "Ô tô" sẽ nằm cực kỳ xa nhau. Thậm chí, toán học có thể nắm bắt được cả logic của ngôn ngữ. Một ví dụ kinh điển mà ai học AI cũng phải biết: Nếu bạn lấy vector "Vua" trừ đi đặc tính "Đàn ông" rồi cộng thêm đặc tính "Phụ nữ", kết quả thu được sẽ nằm ngay sát nút vector "Nữ hoàng". Đó chính là cách AI hiểu được thế giới thông qua những con số khô khan.

📝 Tổng kết bài học hôm nay

Hãy ghi nhớ 3 điểm mấu chốt này để chuẩn bị cho các bài học tiếp theo nhé:

  1. Vector là danh sách số, là ngôn ngữ duy nhất AI hiểu.
  2. Tích vô hướng là thước đo để AI biết cái gì liên quan đến cái gì.
  3. Embedding giúp máy tính nắm bắt được ngữ nghĩa và cảm xúc của ngôn ngữ.

#ai #artificialintelligence #toanhoc #congnghe #learnontiktok

Bài viết liên quan