Artificial Intelligence tutorial - IT technology blog

Hướng dẫn triển khai LLM inference với vLLM trên Linux: Tăng thông lượng và tiết kiệm VRAM

Bài viết này chia sẻ kinh nghiệm thực tế về triển khai LLM inference với vLLM trên Linux, nhằm tăng thông lượng và tiết kiệm VRAM. Nội dung hướng dẫn chi tiết từ cài đặt, cấu hình các tham số quan trọng đến kiểm tra và theo dõi hiệu năng, giúp bạn tối ưu hệ thống.
Development tutorial - IT technology blog

Nhập môn Infrastructure as Code: Hướng dẫn sử dụng Terraform để tự động hóa hạ tầng trên AWS

Sau 6 tháng chạy Terraform trên production, mình chia sẻ lại toàn bộ quá trình từ lúc nhận ra ClickOps là vấn đề, đến cách cài đặt, viết config, quản lý state file an toàn với S3 backend. Bài viết tập trung vào những bài học thực tế — không phải lý thuyết.