Luật Trí tuệ nhân tạo: Lập kỷ cương trên không gian số

Việc Việt Nam ban hành Luật Trí tuệ nhân tạo và có hiệu lực từ ngày 1/3/2026 được xem là bước đi quan trọng nhằm thiết lập kỷ cương trên không gian mạng. 

Bước ngoặt pháp lý trong quản trị AI 

Trong bối cảnh nhiều quốc gia trên thế giới vẫn đang trong giai đoạn xây dựng chính sách hoặc ban hành các hướng dẫn rời rạc, việc Việt Nam ban hành một đạo luật chuyên biệt về trí tuệ nhân tạo được xem là bước đi sớm và có tính chiến lược. Điều này không chỉ thể hiện quyết tâm quản trị công nghệ mới mà còn cho thấy tầm nhìn dài hạn trong việc xây dựng một hệ sinh thái AI phát triển bền vững.

Theo Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng, trí tuệ nhân tạo đang trở thành công nghệ có sức lan tỏa mạnh mẽ nhất trong nhiều thập niên gần đây, tác động sâu rộng đến cấu trúc kinh tế, xã hội và phương thức quản trị quốc gia. Vì vậy, việc xây dựng luật là điều tất yếu. Ông nhấn mạnh: “Không thể để AI phát triển tự do ngoài khung pháp lý. Luật được ban hành để vừa mở đường cho phát triển, vừa chủ động quản trị rủi ro”.

Một trong những nguyên tắc cốt lõi được xác lập trong luật là AI phải lấy con người làm trung tâm. Trí tuệ nhân tạo được phát triển để hỗ trợ con người, chứ không thể thay thế vai trò và trách nhiệm của con người trong những quyết định quan trọng của xã hội.

Luật Trí tuệ nhân tạo cũng lần đầu tiên đưa ra cơ chế phân loại hệ thống AI theo mức độ rủi ro, gồm: rủi ro cao, rủi ro trung bình và rủi ro thấp. Đây là cách tiếp cận được nhiều quốc gia áp dụng nhằm đảm bảo vừa kiểm soát nguy cơ, vừa không cản trở đổi mới sáng tạo.

Những hệ thống AI có rủi ro cao trong các lĩnh vực như: tài chính, y tế, giáo dục, tư pháp hoặc các lĩnh vực thiết yếu sẽ phải tuân thủ quy trình kiểm định nghiêm ngặt. Nhà cung cấp phải thiết kế hệ thống bảo đảm khả năng giám sát và can thiệp của con người, đồng thời lập và lưu trữ hồ sơ kỹ thuật, nhật ký hoạt động để phục vụ việc kiểm tra, đánh giá sau này.

Trong khi đó, các hệ thống AI rủi ro trung bình được giám sát thông qua cơ chế báo cáo, kiểm tra chọn mẫu hoặc đánh giá của tổ chức độc lập. Với các hệ thống rủi ro thấp, việc kiểm tra chỉ được thực hiện khi xảy ra sự cố hoặc có phản ánh từ xã hội.

Một điểm đáng chú ý khác của luật là yêu cầu minh bạch đối với nội dung do AI tạo ra. Theo quy định, các hệ thống AI tương tác trực tiếp với con người phải được thiết kế để người dùng có thể nhận biết đang tương tác với AI. Các nội dung âm thanh, hình ảnh, video do AI tạo ra phải được đánh dấu bằng định dạng máy có thể đọc được. Đặc biệt, với những nội dung mô phỏng hoặc giả lập ngoại hình, giọng nói của người thật – vốn là nguồn gốc của nhiều vụ lừa đảo và tin giả thời gian qua – luật yêu cầu phải gắn nhãn rõ ràng để phân biệt với nội dung thật.

Song song với việc quản lý rủi ro, luật cũng mở ra nhiều chính sách thúc đẩy phát triển AI trong nước. Ông Trương Đức Lượng – Chủ tịch HĐQT, Công ty Cổ phần An ninh mạng Việt Nam (VSEC) chia sẻ: “Luật đã đưa ra cơ chế phân loại đối với công nghệ AI, với những công nghệ được định nghĩa là rủi ro cao, quá trình phê duyệt sẽ nghiêm ngặt hơn. Trong luật cũng ghi rõ, khuyến khích các tổ chức phát triển công nghệ AI ở mức rủi ro trung bình và thấp. Với những mức độ như vậy, mọi người có thể linh hoạt hơn trong việc phát triển các ứng dụng AI mới. Những công nghệ đó hoàn toàn có thể phục vụ lợi ích của doanh nghiệp hoặc những nhóm người dùng cụ thể. Trong luật có một phần tôi rất tâm đắc là việc thành lập Quỹ phát triển công nghệ trí tuệ nhân tạo. Đây là một giải pháp tài chính quan trọng, trong bối cảnh thị trường Việt Nam còn thiếu nguồn lực đầu tư cho lĩnh vực AI, vốn đang phát triển rất nhanh”.

Sự ra đời của Luật Trí tuệ nhân tạo được xem là bước đi quan trọng nhằm thiết lập kỷ cương trên không gian mạng

Khi trí tuệ nhân tạo bị lợi dụng cho những “bẫy lừa” tinh vi 

Tại Việt Nam, các chiêu trò lừa đảo sử dụng trí tuệ nhân tạo ngày càng tinh vi. Công nghệ có thể sao chép giọng nói, gương mặt, thậm chí bắt chước cả cách xưng hô quen thuộc của người thân, bạn bè.

Theo thống kê của Bộ Công an, trong 5 năm qua Việt Nam đã xảy ra hơn 24.000 vụ lừa đảo qua mạng, gây thiệt hại gần 40.000 tỷ đồng, với thủ đoạn ngày càng tinh vi. Ông Trương Đức Lượng cho biết sự gia tăng của các vụ lừa đảo có liên quan trực tiếp đến sự phát triển của trí tuệ nhân tạo. Ông nhận định: “Nếu cách đây khoảng 4 năm trở về trước, chưa thấy sự khác biệt rõ rệt. Nhưng trong vòng 4 năm gần đây, chúng ta chứng kiến sự gia tăng mạnh của các cuộc tấn công mạng và lừa đảo dựa trên công nghệ AI. Theo một thống kê gần đây của Interpol, các cuộc tấn công này gây thiệt hại khoảng 600 triệu USD tiền mã hóa. Riêng tại Việt Nam, số vụ lừa đảo tăng khoảng 40-50% mỗi năm”.

Ngày nay, AI cho phép tội phạm mạng tạo ra hình ảnh và âm thanh gần như không thể phân biệt với thật.Tuy nhiên, theo các chuyên gia, yếu tố quyết định trong các vụ lừa đảo không nằm ở công nghệ mà ở tâm lý con người.

Ông Trương Đức Lượng phân tích: “Điểm then chốt là tâm lý của người dùng. Khi người dùng rơi vào trạng thái tâm lý bị kích động hoặc bị tác động mạnh, việc lợi dụng sẽ trở nên rất dễ dàng. Công nghệ AI, video hay giọng nói giả chỉ đóng vai trò chất xúc tác khiến quá trình lừa đảo diễn ra nhanh hơn”.

Nếu trước đây các đối tượng lừa đảo cần nhiều ngày để xây dựng lòng tin, thì hiện nay thời gian này đã rút ngắn đáng kể. Đáng chú ý, nhiều công cụ AI phổ biến hiện nay cũng đang bị lợi dụng để xây dựng kịch bản lừa đảo.

“Bản thân công cụ không có lỗi. Tuy nhiên, các công cụ như Gemini, ChatGPT đang bị sử dụng để tạo ra những kịch bản thuyết phục cao. Chỉ trong thời gian ngắn, có thể tạo ra các đoạn văn bản rất thuyết phục, khiến người nhận dễ dàng tin tưởng và làm theo”.

Chung tay tạo “lá chắn số” 

Trước những nguy cơ ngày càng lớn từ việc lạm dụng trí tuệ nhân tạo, sự ra đời của Luật Trí tuệ nhân tạo được xem là bước đi quan trọng nhằm thiết lập kỷ cương trên không gian mạng. Theo các chuyên gia an ninh mạng, một trong những quy định đáng chú ý của luật là yêu cầu gắn nhãn nội dung do AI tạo ra, giúp người dùng dễ dàng nhận diện nội dung giả mạo.

Ông Trương Đức Lượng nhận định: “Trong môi trường số, việc tạo ra hình ảnh, âm thanh hay video là rất dễ dàng. Việc gắn nhãn sẽ là cách trực diện nhất để người dùng nhận biết rằng đó là nội dung được tạo ra bằng AI”.

Tuy nhiên, việc kiểm soát nội dung giả mạo trên môi trường mạng vẫn là thách thức lớn, đặc biệt khi nhiều nền tảng công nghệ hoạt động xuyên biên giới. Ông Trương Đức Lượng cho rằng hợp tác quốc tế đóng vai trò then chốt: “Đây là vấn đề phức tạp, đòi hỏi cách tiếp cận thống nhất, xuyên suốt và mang tính toàn cầu”.

Việt Nam hiện cũng tham gia Công ước Hà Nội, trong đó các quốc gia cam kết thiết lập đầu mối hoạt động 24/7 để phối hợp phòng chống tội phạm mạng xuyên quốc gia. Bên cạnh đó, luật cũng yêu cầu các nền tảng cung cấp dịch vụ AI phải có chi nhánh hoặc đại diện tại Việt Nam, tạo cơ sở pháp lý để cơ quan quản lý phối hợp xử lý vi phạm nhanh chóng.

Tuy nhiên, luật pháp chỉ phát huy hiệu quả khi đi cùng với sự tỉnh táo của người dân. Ông Trương Đức Lượng đưa ra lời khuyên đơn giản nhưng thiết thực: “Trước bất kỳ quyết định nào liên quan đến việc chuyển tiền, mọi người hãy đếm đến 10. Khoảng dừng ngắn đó có thể giúp chúng ta suy nghĩ lại trước khi đưa ra quyết định quan trọng”.

Trong kỷ nguyên trí tuệ nhân tạo, công nghệ ngày càng thông minh, nhưng xã hội chỉ thực sự an toàn khi con người trở nên thông thái hơn.

Luật Trí tuệ nhân tạo không chỉ là công cụ quản lý công nghệ, mà còn là nền tảng bảo vệ con người trước những rủi ro của thời đại số. Bởi trong thế giới nơi thật – giả có thể bị đánh tráo chỉ trong vài giây, kỹ năng quan trọng nhất có lẽ không phải là phản ứng nhanh, mà là khả năng dừng lại để kiểm chứng thông tin.

Khi luật pháp, doanh nghiệp và người dân cùng hành động có trách nhiệm, không gian số mới thực sự trở thành môi trường an toàn cho sáng tạo và phát triển.

 VTVnews đưa tin