Thông tin được ông Trần Văn Sơn, Phó Viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia, Bộ Khoa học và Công nghệ đưa ra tại buổi họp báo thường kỳ tháng 1/2026. Ông Trần Văn Sơn đã làm rõ các quy định trong Luật Trí tuệ nhân tạo, đặc biệt là cơ chế chuyển đổi nhóm rủi ro và thẩm quyền xử lý vi phạm đối với các dịch vụ AI xuyên biên giới như Grok.
Luật Trí tuệ nhân tạo được ban hành ngày 10/12/2025 và có hiệu lực từ ngày 1/3/2026.
Khi nào hệ thống AI bị xếp vào nhóm "rủi ro cao"?
Theo ông Sơn, căn cứ vào các tiêu chí phân loại của Luật, đa số các hệ thống trí tuệ nhân tạo tạo sinh (Generative AI) như Grok cơ bản được xếp vào nhóm "rủi ro trung bình". Lý do là các hệ thống này có khả năng tạo ra nội dung gây nhầm lẫn hoặc tác động đến nhận thức của người sử dụng.
Luật quy định nghiêm cấm hành vi sử dụng deepfake để lừa đảo hoặc vi phạm pháp luật, đồng thời yêu cầu các hệ thống AI tạo sinh phải tuân thủ các nghĩa vụ kỹ thuật.
Ông Trần Văn Sơn, Phó Viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia thông tin với báo chí về các quy định trong Luật Trí tuệ nhân tạo, sáng 29/1. Ảnh: Thùy Linh Cơ quan quản lý nhà nước có căn cứ xếp loại "rủi ro cao" nếu hệ thống không đáp ứng các yêu cầu kiểm soát rủi ro, bao gồm dán nhãn thông báo nội dung do AI tạo ra và tích hợp giải pháp ký hiệu nhận dạng (watermark) để phục vụ quản lý, truy vết. Khi bị xếp vào nhóm này, nhà cung cấp buộc phải lập hồ sơ kỹ thuật, chịu sự giám sát của con người và thực hiện nghĩa vụ minh bạch.
Luật Trí tuệ nhân tạo định nghĩa hệ thống trí tuệ nhân tạo có rủi ro cao là hệ thống có thể gây thiệt hại đáng kể đến tính mạng, sức khỏe, quyền và lợi ích hợp pháp của tổ chức, cá nhân, lợi ích quốc gia, lợi ích công cộng, an ninh quốc gia.
“Đối với hệ thống rủi ro cao, phải lưu trữ hồ sơ kỹ thuật, nhật ký hoạt động; thực hiện chế độ báo cáo, giải trình khi có yêu cầu thanh tra, kiểm tra và có đầu mối liên hệ hoặc đại diện ủy quyền tại Việt Nam”, ông Sơn thông tin. Đầu mối này nhằm phối hợp giải quyết vấn đề và tuân thủ quy định báo cáo.
Về cơ chế xử lý vi phạm, ông Trần Văn Sơn cho biết Bộ Khoa học và Công nghệ là cơ quan đầu mối, chịu trách nhiệm chính trước Chính phủ trong việc quản lý nhà nước về AI, chủ trì hướng dẫn quy trình phân loại rủi ro và đánh giá sự phù hợp.
Khi xảy ra sự cố nghiêm trọng hoặc phát hiện hệ thống tiềm ẩn nguy cơ, cơ quan quản lý có có thẩm quyền có quyền yêu cầu tạm dừng, thu hồi, đánh giá lại hệ thống AI hoặc yêu cầu tái phân loại nếu phát hiện sai lệch trong quá trình hoạt động.
Xử lý hình sự và trách nhiệm bồi thường
Quy trình thanh tra và xử lý sự cố sẽ được thực hiện thông qua cơ chế phối hợp liên ngành, đặc biệt là sự kết hợp với pháp luật về an ninh mạng, bảo vệ dữ liệu cá nhân để đảm bảo hiệu lực thực thi đối với cả các dịch vụ xuyên biên giới.
Đối với các hành vi vi phạm nghiêm trọng, chế tài không dừng lại ở xử phạt hành chính. Ông Sơn nhấn mạnh: "Các hành vi vi phạm nghiêm trọng như tạo deepfake khiêu dâm trẻ em, lừa đảo, gây rối trật tự an toàn xã hội hoặc xâm phạm an ninh quốc gia, ngoài xử lý theo quy định của Luật Trí tuệ nhân tạo (tạm dừng, hạn chế dịch vụ), các cá nhân và tổ chức liên quan sẽ bị truy cứu trách nhiệm hình sự hoặc xử phạt vi phạm hành chính”.
Trẻ em là một trong những đối tượng yếu thế được đặc biệt quan tâm bảo vệ. Luật An ninh mạng 2025 dành riêng Điều 16 thiết lập khung pháp lý toàn diện về phòng, chống xâm hại trẻ em trên không gian mạng. Theo quy định, cơ quan, tổ chức, cá nhân tham gia hoạt động trên không gian mạng có trách nhiệm phối hợp với cơ quan có thẩm quyền trong bảo đảm quyền của trẻ em trên không gian mạng; phòng, chống xâm hại trẻ em trên không gian mạng.

Trí tuệ nhân tạo năm 2026 vừa là lá chắn, vừa là vũ khí tấn công mạng
Một điểm đáng chú ý khác là Luật Trí tuệ nhân tạo quy định cơ chế bồi thường đặc thù đối với các hệ thống rủi ro cao. Trong trường hợp hệ thống này gây thiệt hại cho người dùng, dù đã vận hành đúng quy định, bên triển khai phải chịu trách nhiệm bồi thường trước.
"Sau khi đã bồi thường, bên triển khai yêu cầu nhà cung cấp, nhà phát triển hoặc các bên liên quan hoàn trả khoản tiền này nếu có thỏa thuận giữa các bên", ông Sơn giải thích.
Theo Phó Viện trưởng, khung pháp lý hiện tại đã cơ bản đáp ứng yêu cầu quản lý, đảm bảo sự hài hòa giữa phát triển công nghệ và kiểm soát rủi ro.
Trên thế giới, Grok đang đối mặt với làn sóng kiểm soát gắt gao tại nhiều quốc gia. Tại châu Âu, Ủy ban Châu Âu (EC) đã mở cuộc điều tra chính thức đối với mạng xã hội X liên quan đến Grok về các vi phạm Đạo luật Dịch vụ Kỹ thuật số (DSA). Trọng tâm điều tra tập trung vào việc hệ thống này thiếu các "hàng rào kỹ thuật" hiệu quả, cho phép người dùng dễ dàng tạo ra các hình ảnh deepfake khiêu dâm, tin giả hoặc nội dung bạo lực mà không có nhãn cảnh báo.
Đầu tháng này, Tổng chưởng lý California Rob Bonta cũng thông báo điều tra về việc phát tán nội dung khiêu dâm không đồng thuận do Grok tạo ra. Hiện tại, chatbot này vẫn bị cấm ở Indonesia và Malaysia, trong khi cơ quan quản lý Ofcom của Anh cũng đã mở cuộc điều tra chính thức.