

🧠 Advisor Strategy: Cách Anthropic Để AI Nhỏ Tự Chạy, AI Lớn Chỉ Cố Vấn Khi Cần
Bạn có tưởng tượng được không? Thay vì để AI đắt tiền làm hết mọi thứ, Anthropic vừa lật ngược cách chơi. Cho model nhỏ tự chủ động chạy, model lớn chỉ ngồi cố vấn khi thực sự cần thiết.
🔄 Đảo Ngược Hoàn Toàn Cách Làm Cũ
Trước giờ ai cũng nghĩ: model lớn phân việc xuống model nhỏ. Nhưng Advisor Strategy làm ngược lại hoàn toàn. Model nhỏ như Sonnet hoặc Haiku đóng vai executor, tự chạy toàn bộ task từ đầu đến cuối. Gọi tool, đọc kết quả, lặp lại cho đến khi xong. Chỉ khi nào gặp quyết định khó hoặc bị stuck, executor mới gọi lên Opus để xin hướng dẫn. Opus không bao giờ gọi tool trực tiếp, không tạo output cho user, chỉ đưa ra guidance rồi trả lại quyền cho executor.
📊 Benchmark Nói Lên Tất Cả
Con số không biết nói dối. Sonnet + Opus advisor tăng 2.7 điểm trên SWE-bench Multilingual so với Sonnet chạy solo, đồng thời giảm 11.9% chi phí mỗi task. Ấn tượng hơn nữa, Haiku + Opus advisor đạt 41.2% trên BrowseComp, gấp đôi so với 19.7% khi Haiku chạy một mình. Và phần hay nhất? Tiết kiệm tới 85% chi phí so với dùng Sonnet cho cùng một task.
💡 Bí Quyết Giữ Chi Phí Thấp
Tại sao advisor lại rẻ đến vậy? Vì mỗi lần được gọi, Opus chỉ generate khoảng 400 đến 700 output token. Nó không cần chạy dài dòng, chỉ đưa ra guidance ngắn gọn rồi để executor tiếp tục. Bạn còn có thể dùng max_uses để giới hạn số lần gọi advisor, kiểm soát budget hoàn toàn. Token advisor tính theo giá model advisor, token executor tính theo giá executor. Rõ ràng, minh bạch.
⚡ Triển Khai Cực Kỳ Đơn Giản
Đây là điểm mình thích nhất. Advisor tool tích hợp qua Messages API chỉ bằng 1 request duy nhất, không cần round-trip thêm. Không cần setup phức tạp, không cần orchestration layer riêng. Bạn chỉ cần khai báo advisor tool trong request, chọn model nào làm executor, model nào làm advisor, rồi để hệ thống tự xử lý.
🚀 Tương Lai Của AI Agent Quy Mô Lớn
Advisor Strategy mở ra cách tiếp cận hoàn toàn mới cho việc xây dựng hệ thống AI agent. Thay vì ném tiền vào model đắt nhất cho mọi thứ, bạn phân phối trí thông minh linh hoạt. Reasoning cao cấp chỉ dùng khi thực sự cần thiết, còn lại để model nhỏ xử lý. Đây chính là cách scale AI agent mà vẫn giữ được cả capability lẫn efficiency.
Bạn nghĩ sao về cách tiếp cận này? Liệu đây có phải là tương lai của việc xây dựng AI agent không?
#learnontiktok #aiagent #anthropic #advisorstrategy #claudeai


