🚀 Code "Chùa" - Bảo Mật - Siêu Tốc: Cài Qwen 3.5 Local Cho Claude Code Trên Mac Mini

🚀 Code "Chùa" - Bảo Mật - Siêu Tốc: Cài Qwen 3.5 Local Cho Claude Code Trên Mac Mini

Bạn muốn dùng Claude Code để hỗ trợ lập trình nhưng lại ngại chi phí API đắt đỏ hoặc lo lắng source code quý giá của mình bị gửi lên Cloud?

💎 Tại sao phải đưa Qwen 3.5 lên Mac Mini ngay?

Việc chạy model local không chỉ là trào lưu mà là sự thay đổi cuộc chơi cho anh em lập trình. Đầu tiên là quyền riêng tư tuyệt đối (Privacy): Mọi dòng code bạn viết, mọi logic dự án đều nằm gọn trong ổ cứng Mac Mini, không một byte dữ liệu nào lọt ra ngoài. Tiếp theo là chi phí 0 đồng: Quên đi nỗi lo nạp tiền vào ví Anthropic hay OpenAI, bạn có thể "vắt kiệt" sức mạnh phần cứng để chat và debug cả ngày.

Đặc biệt, dòng chip M-Series với kiến trúc Unified Memory của Apple thực sự là "vũ khí hạng nặng" giúp các model như Qwen 3.5 phản hồi với độ trễ gần như bằng không. Qwen 3.5 hiện nay cũng là "vô đối" trong phân khúc model mã nguồn mở về khả năng hiểu ngữ cảnh tiếng Việt và tư duy logic lập trình.

🛠 Bước 1: Thiết lập nền móng với Ollama

Để bắt đầu, bạn cần một công cụ quản lý model mạnh mẽ là Ollama. Hãy truy cập ngay trang chủ ollama.com, tải bản dành cho macOS và kéo ứng dụng vào thư mục Applications như cách bạn cài đặt mọi phần mềm khác. Sau khi khởi động, hãy để ý biểu tượng hình con voi nhỏ trên thanh Menu Bar, đó là dấu hiệu cho thấy hệ thống đã sẵn sàng "tiếp nhận" các bộ não AI.

🧠 Bước 2: Tải Model Qwen 3.5 phù hợp với RAM

Đây là bước cực kỳ quan trọng để đảm bảo máy không bị "treo". Tùy vào cấu hình Mac Mini của bạn mà hãy chọn phiên bản phù hợp trong Terminal:

  • Mac Mini 8GB RAM: Dùng bản ollama run qwen3.5:3b. Nhẹ nhàng, mượt mà nhưng vẫn đủ thông minh để giải quyết các task code cơ bản.
  • Mac Mini 16GB RAM (Mức khuyến nghị): Dùng bản ollama run qwen3.5:7b. Đây là "điểm ngọt" về hiệu năng, giúp bạn xử lý các thuật toán phức tạp và refactor code chuẩn xác.
  • Mac Mini 32GB RAM trở lên: Đừng ngần ngại thử sức với ollama run qwen3.5:32b. Sức mạnh của nó có thể tiệm cận với các model trả phí hàng đầu hiện nay. Sau khi tải xong, bạn nhớ gõ /bye để thoát giao diện chat của Ollama nhé.

📦 Bước 3: Cài đặt Claude Code CLI

Bây giờ chúng ta sẽ cài đặt "vỏ bọc" Claude Code của Anthropic để điều khiển model local. Điều kiện cần là máy bạn đã cài Node.js (phiên bản 18 trở lên). Hãy mở Terminal và nhập lệnh: npm install -g @anthropic-ai/claude-code. Lệnh này sẽ cài đặt Claude Code trên toàn hệ thống, cho phép bạn triệu hồi "trợ lý" này ở bất kỳ thư mục dự án nào.

⚙️ Bước 4: Cấu hình biến môi trường (Environment Variables)

Đây là "phép thuật" để đánh lừa Claude Code gọi model từ Ollama thay vì tìm đến server của Anthropic. Bạn cần chỉnh sửa file cấu hình shell bằng lệnh: nano ~/.zshrc. Sau đó, hãy kéo xuống cuối file và dán đúng 2 dòng lệnh sau:

  1. export CLAUDE_BASE_URL="http://localhost:11434/v1"
  2. export CLAUDE_MODEL="qwen3.5"

Nhấn Ctrl+O, Enter để lưu và Ctrl+X để thoát. Đừng quên chạy lệnh source ~/.zshrc để hệ thống cập nhật các thay đổi ngay lập tức mà không cần khởi động lại máy.

🚀 Bước 5: Bắt đầu trải nghiệm lập trình đỉnh cao

Mọi thứ đã sẵn sàng! Bây giờ, bạn chỉ cần dùng lệnh cd để đi đến thư mục dự án của mình và gõ claude. Ngay lập tức, bạn sẽ có một trợ lý AI ngay trong dòng lệnh, sẵn sàng đọc file, sửa lỗi và giải thích code dựa trên sức mạnh của Qwen 3.5 đang chạy ngầm trong máy.

💡 Mẹo tối ưu hóa để làm việc như Pro

Nếu dự án của bạn có quy mô lớn với hàng trăm file, hãy tăng bộ nhớ đệm (context window) để AI không bị "quên" nội dung phía trước. Bạn có thể tạo một file có tên là Modelfile và thêm thông số PARAMETER num_ctx 32768.

Lưu ý nhỏ là một số tính năng Agent tự trị (tự thực thi lệnh shell phức tạp) của Claude Code có thể hoạt động chưa thực sự hoàn hảo trên model local so với model Claude 3.5 Sonnet chính chủ. Nếu gặp khó khăn, bạn có thể cân nhắc dùng thêm các extension như Aider hoặc Continue.dev trên VS Code với cấu hình tương tự để có trải nghiệm đồ họa trực quan hơn.

Bạn đã cài đặt thành công chưa, hay gặp lỗi ở bước nào? Comment phía dưới để mình hỗ trợ giải đáp ngay nhé!

#learnontiktok #macmini #qwen35 #claudecode #ollama

Bài viết liên quan