Posted inAI
Prompt Injection là gì và cách bảo vệ ứng dụng AI khỏi tấn công
Prompt injection là kiểu tấn công chèn instruction độc hại vào input để override hành vi của AI model. Bài viết chia sẻ kinh nghiệm thực tế và 5 lớp bảo vệ: input sanitization, role separation, output validation, least privilege và monitoring.
