
Quốc hội thảo luận về dự án Luật Trí tuệ nhân tạo
Mở rộng không gian thử nghiệm
Nêu ý kiến thảo luận, đại biểu Hoàng Minh Hiếu (Nghệ An) cho hay, qua dự thảo lần này chúng ta đã xác định rõ cách thức Việt Nam tiếp cận với trí tuệ nhân tạo, đó là vừa tạo sự thân thiện cho sự phát triển của AI, vừa có những quy định để hạn chế tối đa các rủi ro mà AI đưa lại.
Đại biểu nhấn mạnh cơ chế thử nghiệm có kiểm soát (sandbox) là giải pháp then chốt để gỡ bỏ rào cản pháp lý, cho phép AI phát triển trong phạm vi giới hạn nhằm thu thập dữ liệu, đánh giá hiệu quả và thúc đẩy cải cách lâu dài.
Theo đại biểu, “AI là vấn đề rất mới, liên quan nhiều lĩnh vực, nếu chỉ dựa trên khung pháp lý hiện hành thì không thể tạo điều kiện cho AI phát triển”. Do đó, các quy định về cơ chế thử nghiệm có kiểm soát phải là trọng tâm trong khuôn khổ pháp luật về trí tuệ nhân tạo.
Ông đề nghị cơ quan soạn thảo nghiên cứu chỉnh lý khoản 2, Điều 20 theo hướng xác định rõ tổ chức, cá nhân tham gia thử nghiệm có kiểm soát được miễn hoặc giảm một số nghĩa vụ tuân theo quy định của luật này và các luật khác có liên quan. Hiện dự thảo chỉ miễn hoặc giảm nghĩa vụ tuân thủ trong phạm vi Luật AI, trong khi thử nghiệm AI thường liên quan nhiều luật khác, như Luật Giao thông đường bộ, Luật Bảo vệ dữ liệu cá nhân, luật hàng không…
Đại biểu dẫn ví dụ thực tiễn ở Nhật Bản, Trung Quốc: Thử nghiệm xe tự lái được phép sử dụng dữ liệu hình ảnh chưa làm mờ khuôn mặt để huấn luyện thuật toán; thử nghiệm máy bay tự lái được miễn trừ một số quy tắc an toàn hàng không. Do đó, dự thảo cần “xác định rõ tổ chức, cá nhân tham gia thử nghiệm được miễn hoặc giảm một số nghĩa vụ không chỉ của Luật AI mà còn của các luật liên quan”.
Liên quan khoản 5 Điều 20, đại biểu đề xuất điều chỉnh theo hướng cơ quan quản lý AI chủ trì, phối hợp liên ngành trong tiếp nhận, thẩm định hồ sơ thử nghiệm. Với các hệ thống AI chuyên biệt, như chẩn đoán hình ảnh y tế, không thể thiếu vai trò của Bộ Y tế trong quá trình giám sát và đánh giá.
Đại biểu Nguyễn Tâm Hùng (TPHCM) cũng bày tỏ tán thành cao với sự cần thiết ban hành Luật Trí tuệ nhân tạo, coi đây là bước đi chiến lược nhằm khẳng định chủ quyền số, thúc đẩy đổi mới sáng tạo, bảo vệ quyền con người và an ninh quốc gia.
Về cơ chế thử nghiệm có kiểm soát đối với trí tuệ nhân tạo, đại biểu đề nghị Ban soạn thảo xem xét mở rộng phạm vi thử nghiệm cho doanh nghiệp khởi nghiệp và viện nghiên cứu theo cách tiếp cận cơ chế thử nghiệm linh hoạt, trong đó kết quả thử nghiệm được xem như tiêu chí rút gọn khi đánh giá sự phù hợp. Cách làm này giúp rút ngắn dòng đời phát triển sản phẩm, khuyến khích đội ngũ kỹ sư và doanh nghiệp Việt Nam cạnh tranh được với các tập đoàn công nghệ ở nước ngoài.
Về phát triển nguồn nhân lực trí tuệ nhân tạo, đại biểu Nguyễn Tâm Hùng đánh giá dự thảo luật đã mở hướng rất đúng về cách tiếp cận. Song, đại biểu đề nghị Ban soạn thảo xem xét nhấn mạnh trách nhiệm kết nối giữa cơ sở giáo dục, doanh nghiệp, cơ quan nhà nước để hình thành hệ sinh thái sử dụng nhân lực AI.
Bên cạnh đào tạo kỹ thuật cần có chương trình đào tạo quyền riêng tư, an ninh mạng và đạo đức công nghệ cho lực lượng kỹ sư và nhà quản trị AI nhằm bảo đảm phát triển AI theo hướng nhân văn, bền vững và có trách nhiệm với cộng đồng.

Đại biểu Trần Khánh Thu (Hưng Yên) nêu ý kiến thảo luận
Từ góc nhìn lĩnh vực y tế, đại biểu Trần Khánh Thu (Hưng Yên) cho rằng AI đang trở thành công cụ quan trọng trong chẩn đoán, điều trị và quản lý bệnh nhân, song thực tiễn cũng đặt ra những rủi ro lớn nếu sử dụng sai cách.
Đại biểu dẫn trường hợp một bệnh nhân 55 tuổi tại TPHCM nhập viện trong tình trạng bị tổn thương não, đột quỵ do người nhà tự dùng kết quả “chẩn đoán” của AI để mua thuốc. Vụ việc đặt ra câu hỏi pháp lý về trách nhiệm của người bán thuốc và cơ chế quản lý các ứng dụng AI trong y tế.
Theo đại biểu, pháp luật hiện hành như Luật Khám bệnh, chữa bệnh hay Luật Dược chưa có quy định cụ thể về sản phẩm AI trong y học, cũng chưa xác định rõ trách nhiệm pháp lý khi AI mắc sai sót. Do đó, đại biểu đề nghị bổ sung điều khoản riêng để quản lý AI y tế, đặc biệt liên quan đến phân loại rủi ro, bảo mật dữ liệu sức khỏe và trách nhiệm của nhà cung cấp.
Đối với phân loại quản lý hệ thống trí tuệ nhân tạo theo rủi ro, đại biểu đề nghị cơ quan soạn thảo xem xét nên có phụ lục minh họa về các cấp độ rủi ro tương tự như của EU với các tiêu chí định lượng như mức độ tự chủ, quy mô người dùng ảnh hưởng đến quyền cơ bản hoặc lĩnh vực nhạy cảm như giáo dục, y tế, tư pháp hay hạ tầng, việc làm...
Thu Giang