Phát hiện hơn 30 lỗ hổng bảo mật nghiêm trọng trong các mô hình AI và ML nguồn mở

Các nhà nghiên cứu an ninh mạng đã phát hiện hơn 30 lỗ hổng bảo mật trong nhiều mô hình trí tuệ nhân tạo (AI) và máy học (ML) nguồn mở khác nhau. Những lỗ hổng này có thể dẫn đến thực thi mã từ xa và đánh cắp thông tin nhạy cảm.

Thông tin về các lỗ hổng này được báo cáo qua nền tảng săn tiền thưởng Huntr của Protect AI, ảnh hưởng đến một số công cụ như ChuanhuChatGPT, Lunary và LocalAI. Trong số đó, hai lỗ hổng nghiêm trọng nhất liên quan đến Lunary, một bộ công cụ sản xuất cho các mô hình ngôn ngữ lớn (LLM) bao gồm:

  1. CVE-2024-7474 (Điểm CVSS: 9.1): Lỗ hổng IDOR, cho phép người dùng đã xác thực truy cập hoặc xóa dữ liệu của người dùng khác mà không cần quyền hạn được cấp.
  1. CVE-2024-7475 (Điểm CVSS: 9.1): Lỗ hổng liên quan đến kiểm soát truy cập không chính xác, cho phép kẻ tấn công thay đổi cấu hình SAML và đăng nhập như người dùng khác, truy cập thông tin nhạy cảm.

Ngoài ra, Lunary cũng phát hiện một lỗ hổng IDOR khác (CVE-2024-7473, Điểm CVSS: 7.5) cho phép kẻ tấn công thay đổi prompt của người dùng khác bằng cách chỉnh sửa một tham số trong yêu cầu.

Lỗ hổng nghiêm trọng thứ ba liên quan đến một lỗi trong tính năng xử lý tải lên tệp của người dùng trong ChuanhuChatGPT (CVE-2024-5982, điểm CVSS: 9.1). Lỗi này cho phép kẻ tấn công thực thi mã tùy ý, tạo ra thư mục mới trên hệ thống, và truy cập vào dữ liệu nhạy cảm. 

Hai lỗ hổng bảo mật đã được phát hiện trong LocalAI, một dự án nguồn mở cho phép người dùng chạy các mô hình ngôn ngữ lớn (LLM) trên máy chủ của riêng họ:

  1. CVE-2024-6983 (Điểm CVSS: 8,8): Lỗ hổng này cho phép kẻ tấn công tải lên một tệp cấu hình độc hại, từ đó thực thi mã độc trên hệ thống.
  2. CVE-2024-7010 (Điểm CVSS: 7,5): Lỗ hổng này liên quan đến việc đoán khóa API hợp lệ bằng cách phân tích thời gian phản hồi từ máy chủ. Kẻ tấn công sẽ gửi các yêu cầu khác nhau và ghi lại thời gian phản hồi để suy ra khóa API đúng của từng ký tự.

Ngoài ra, một lỗ hổng thực thi mã từ xa (CVE-2024-8396, Điểm CVSS: 7.8) đã được phát hiện trong Deep Java Library (DJL), cho phép kẻ tấn công thực thi mã từ xa bằng cách ghi đè lên các tệp không đúng cách.

Người dùng được khuyến nghị nên cập nhật phần mềm của mình lên phiên bản mới nhất để bảo vệ hệ thống AI/ML và giảm thiểu nguy cơ bị tấn công. Thông tin này được công bố đồng thời NVIDIA phát hành bản vá cho một lỗ hổng khác (CVE-2024-0129, Điểm CVSS: 6.3) trong khuôn khổ giới thiệu NeMo Retriever, một dịch vụ Vi tạo sinh AI dành cho doanh nghiệp.

Ngoài ra, Protect AI cũng ra mắt công cụ Vulnhuntr, một công cụ phân tích mã nguồn mở giúp phát hiện ra các lỗ hổng zero-day trong Python. Vulnhuntr hoạt động bằng cách chia nhỏ mã thành các phần nhỏ hơn để phân tích mà không làm quá tải hệ thống ML.

Bên cạnh những điểm yếu về bảo mật, một kỹ thuật bẻ khóa mới được công bố bởi 0Day (0Din) đã chỉ ra rằng các prompt độc hại mã hóa theo định dạng thập lục phân và biểu tượng cảm xúc có thể vượt qua các biện pháp bảo vệ của OpenAI ChatGPT và tạo ra các lỗ hổng bảo mật, cho phép kẻ tấn công thực hiện các hành động tấn công mà mô hình không nhận ra.

Chuyên gia VSEC nhận định rằng sự phát triển bền vững trong an ninh mạng chỉ có thể đạt được khi chúng ta kết hợp thông minh giữa quy trình làm việc hiệu quả, kiến thức chuyên môn của con người và một chiến lược bảo mật toàn diện. Chỉ khi đó, chúng ta mới có thể tối ưu hóa lợi ích của trí tuệ nhân tạo và bảo vệ an toàn thông tin trong bối cảnh đầy rẫy mối đe dọa hiện nay.

Nguồn: the hacker news