Chiêu trò lừa đảo làm giả giọng nói bằng ChatGPT

ChatGPT-4o, mô hình AI mới nhất của OpenAI, có thể bị lợi dụng để thực hiện các vụ lừa đảo với động cơ tài chính bằng giọng nói tự động, với tỷ lệ thành công từ 20 đến 60%, cho phép thực hiện các vụ lừa đảo quy mô lớn mà không cần sự can thiệp của con người.

ChatGPT-4o là mô hình AI mới nhất của OpenAI, với nhiều cải tiến đáng chú ý, bao gồm khả năng tích hợp văn bản, giọng nói và hình ảnh. Tuy nhiên, để bảo vệ người dùng khỏi các nội dung độc hại, OpenAI đã áp dụng nhiều biện pháp nhằm phát hiện và ngăn chặn việc sao chép giọng nói trái phép.

Tuy nhiên, tình trạng lừa đảo giọng nói ngày càng trầm trọng, gây thiệt hại hàng triệu đô la, đặc biệt khi công nghệ deepfake và các công cụ chuyển văn bản thành giọng nói phát triển mạnh mẽ.

Nghiên cứu từ Đại học Illinois cho thấy rằng những công nghệ mới hiện nay có thể bị lạm dụng do thiếu các biện pháp bảo vệ thích hợp, cho phép tội phạm mạng thực hiện các vụ lừa đảo quy mô lớn mà không cần sự can thiệp từ con người.

Các hình thức lừa đảo này bao gồm chuyển khoản ngân hàng, đánh cắp gift card, giao dịch tiền điện tử và lấy cắp thông tin đăng nhập từ tài khoản mạng xã hội hoặc Gmail. Mặc dù đôi khi GPT-4o từ chối xử lý thông tin nhạy cảm như thông tin đăng nhập, các nhà nghiên cứu đã tìm cách vượt qua những biện pháp bảo vệ này bằng cách đóng giả nạn nhân trong các tình huống thực tế.

Tỷ lệ thành công của các vụ lừa đảo này dao động từ 20% đến 60%, với chi phí thực hiện rất thấp, khoảng 0,75 đô la cho mỗi vụ thành công. Đối với các vụ chuyển khoản ngân hàng phức tạp hơn, chi phí có thể tăng lên khoảng 2,51 đô la, nhưng vẫn thấp hơn rất nhiều so với lợi nhuận mà chúng mang lại.

Hiện nay, OpenAI đang phát triển một mô hình LLM mới, o1, được thiết kế với các tính năng bảo vệ ưu việt hơn nhằm chống lại các hành vi lừa đảo. Đại diện của OpenAI khẳng định họ luôn cố gắng liên tục cải tiến ChatGPT nhằm ngăn chặn các nỗ lực lừa đảo mà không làm mất đi tính hữu ích và sáng tạo của nó. Mặc dù GPT-4o đã tích hợp nhiều biện pháp ngăn chặn lạm dụng, tuy nhiên mối nguy từ các chatbot giọng nói khác vẫn còn là một thách thức lớn trong kỷ nguyên số hiện nay. 

Nguồn: bleeping computer