Microsoft vừa công bố một lỗ hổng bảo mật mới mang tên Whisper Leak, có khả năng cho phép kẻ tấn công đoán được chủ đề mà người dùng đang trao đổi với các chatbot AI, dù dữ liệu đang được mã hóa. Lỗ hổng này xuất hiện từ cách các mô hình ngôn ngữ lớn (LLM) truyền dữ liệu theo dạng streaming – nghĩa là dữ liệu được gửi dần khi AI trả lời, thay vì gửi một lần toàn bộ nội dung. Kẻ tấn công có thể quan sát kích thước gói dữ liệu và thời gian gửi nhận để suy đoán chủ đề cuộc trò chuyện.
Các thử nghiệm cho thấy kỹ thuật này có thể nhận diện chính xác các chủ đề nhạy cảm như tài chính, chính trị hay các vấn đề giám sát, ngay cả khi dữ liệu hoàn toàn được mã hóa. Microsoft cũng cảnh báo rằng khả năng tấn công sẽ tăng nếu kẻ xấu thu thập thêm thông tin từ nhiều cuộc trò chuyện cùng lúc hoặc theo thời gian.
Để giảm rủi ro, các nhà phát triển AI đã triển khai biện pháp che giấu thông tin trong dữ liệu trả về, đồng thời khuyến nghị người dùng hạn chế trao đổi thông tin nhạy cảm trên mạng không đáng tin cậy, sử dụng VPN và lựa chọn các dịch vụ AI có biện pháp bảo mật bổ sung.
Trước bối cảnh này, các doanh nghiệp cần chủ động đánh giá và bảo vệ hệ thống khi tích hợp AI vào công việc, đồng thời áp dụng các giải pháp giám sát, kiểm soát quyền truy cập và bảo vệ dữ liệu để hạn chế rủi ro từ những lỗ hổng như Whisper Leak.
