Đại biểu Quốc hội: Cơ chế thử nghiệm không phải là “miễn trừ trách nhiệm”
Ngày 27/11, Quốc hội thảo luận ở hội trường về dự án Luật Trí tuệ nhân tạo (AI). Đại biểu Nguyễn Hoàng Bảo Trân (Đoàn TP Hồ Chí Minh) đề nghị cần quy định rõ trách nhiệm của doanh nghiệp khi xảy ra rủi ro trong quá trình thử nghiệm. Cơ chế thử nghiệm không phải là “miễn trừ trách nhiệm”. Luật phải khẳng định doanh nghiệp có trách nhiệm cung cấp đầy đủ thông tin, cảnh báo rủi ro, báo cáo định kỳ và xử lý hậu quả khi có sự cố.
Bà Trân cho rằng, dự thảo Luật vẫn còn một số nội dung chưa thật sự rõ, chưa đủ khả thi hoặc còn khoảng trống dẫn tới khó triển khai.
Đánh giá cao việc dự thảo Luật đặt trọng tâm vào chủ quyền số, nghiên cứu phát triển và ứng dụng trí tuệ nhân tạo trong các lĩnh vực ưu tiên. Tuy nhiên, để chiến lược quốc gia thực sự là “kim chỉ nam” mang tính dài hạn, bà Trân đề xuất ba nhóm nội dung cần được bổ sung hoặc quy định cụ thể hơn.
Theo đó, chiến lược cần có hệ thống mục tiêu định lượng rõ ràng, chứ không chỉ nêu định hướng. Một chiến lược quốc gia về trí tuệ nhân tạo muốn đo lường được hiệu quả cần có các chỉ số như: mức độ tự chủ công nghệ, tỷ lệ doanh nghiệp ứng dụng, năng lực đào tạo nhân lực chất lượng cao, năng lực điện toán quốc gia, mức độ làm chủ kho dữ liệu trong nước. Các chỉ số này phải được quy định ngay trong luật để bảo đảm tính ràng buộc.
Thứ hai, Điều 20 quy định chiến lược được rà soát ít nhất ba năm một lần, bà Trân đề nghị bổ sung cơ chế đánh giá độc lập hoặc đánh giá liên ngành, có sự tham gia của tổ chức xã hội nghề nghiệp và chuyên gia độc lập. Lĩnh vực trí tuệ nhân tạo biến đổi nhanh, nên việc đánh giá chỉ do cơ quan xây dựng chiến lược thực hiện có thể dẫn tới góc nhìn chưa toàn diện.
Thứ ba theo bà Trân, Điều 20 cần nhấn mạnh yêu cầu phát triển các nhóm công nghệ trí tuệ nhân tạo đặc thù của Việt Nam. Dự thảo đã gợi mở các nhóm công nghệ mang bản sắc Việt Nam như trí tuệ nhân tạo tiết kiệm tài nguyên, trí tuệ nhân tạo ngôn ngữ và tri thức Việt Nam.
“Tôi đề nghị giữ nguyên hướng này nhưng bổ sung tiêu chí lựa chọn các nhóm công nghệ ưu tiên mức độ phù hợp với điều kiện quốc gia, khả năng ứng dụng rộng rãi, và mức độ đóng góp vào chủ quyền số. Những bổ sung này sẽ giúp chiến lược quốc gia mang tính khả thi, có tầm nhìn nhưng không xa rời thực tiễn”, bà Trân nói.
Liên quan đến Điều 21 về Chính sách phát triển hệ sinh thái và thị trường trí tuệ nhân tạo, bà Trân đề nghị 4 điểm cần làm rõ ngay trong luật để bảo đảm tính hiệu lực khi áp dụng. Cụ thể, Luật nên có cơ chế ưu đãi đặc thù cho lĩnh vực trí tuệ nhân tạo. Hiện dự thảo chỉ quy định chung rằng “được hưởng ưu đãi theo các luật liên quan”. Trí tuệ nhân tạo là lĩnh vực không giống khoa học công nghệ thông thường; chi phí điện toán, chi phí dữ liệu, chi phí huấn luyện mô hình đều rất lớn. Vì vậy kiến nghị quy định ngay trong luật ba nhóm ưu đãi đặc thù: hỗ trợ chi phí điện toán trong nước; hỗ trợ chi phí huấn luyện mô hình; ưu đãi thuế dựa trên mức độ làm chủ công nghệ.
Bà Trân cũng đánh giá, dự thảo có nêu việc phát triển sàn giao dịch công nghệ, nhưng chưa nêu chuẩn tối thiểu. Nếu sàn giao dịch không có bộ chuẩn mô tả công nghệ, không có cơ chế kiểm định thuật toán trước khi chào bán, sàn sẽ chỉ tồn tại về hình thức.
“Tôi đề nghị luật phải đặt ra các yêu cầu tối thiểu và giao Chính phủ hướng dẫn phần kỹ thuật triển khai. Về hạ tầng dữ liệu và môi trường thử nghiệm có kiểm soát, tôi đề nghị luật cần định hình rõ mô hình thử nghiệm quốc gia, bao gồm: cơ quan cấp phép thử nghiệm, phạm vi thử nghiệm, cơ chế giám sát, thời hạn và giới hạn trách nhiệm pháp lý khi doanh nghiệp thực hiện thử nghiệm trong khuôn khổ được cho phép. Đây là nội dung rất quan trọng vì rủi ro trong thử nghiệm trí tuệ nhân tạo là rủi ro thật”, bà Trân kiến nghị.
Cho rằng tại Điều 21 đã khuyến khích doanh nghiệp khai thác dữ liệu từ Cơ sở dữ liệu quốc gia về trí tuệ nhân tạo. Tuy nhiên bà Trân đề nghị phải có các nguyên tắc quản lý dữ liệu rõ ràng: danh mục dữ liệu được khai thác; quyền và nghĩa vụ của đơn vị truy cập; quy trình cấp quyền; cơ chế lưu vết hoạt động truy cập. Điều này nhằm bảo đảm an toàn dữ liệu và trách nhiệm giải trình – hai yếu tố sống còn của môi trường trí tuệ nhân tạo. Như vậy, Điều 21 cần được hoàn thiện để trở thành “trụ cột chính sách” chứ không phải điều khoản chung chung.
Đáng chú ý, liên quan đến cơ chế thử nghiệm có kiểm soát, bà Trân nhìn nhận cơ chế thử nghiệm có kiểm soát là công cụ pháp lý rất quan trọng cho đổi mới sáng tạo. Tuy nhiên, dự thảo hiện dừng lại ở mức quy định về nguyên tắc, chưa mô tả rõ mô hình vận hành.
Để cơ chế này hiệu quả bà Trân kiến nghị phải xác định rõ phạm vi hoạt động được đưa vào thử nghiệm. Không phải mọi giải pháp trí tuệ nhân tạo đều cần đưa vào thử nghiệm. Chỉ nên áp dụng đối với các mô hình có nguy cơ cao, tác động lớn đến người dân và doanh nghiệp. Nếu không rõ phạm vi, cơ chế thử nghiệm sẽ bị quá tải và mất đi tính trọng tâm. Cần quy định rõ trách nhiệm của doanh nghiệp khi xảy ra rủi ro trong quá trình thử nghiệm. Cơ chế thử nghiệm không phải là “miễn trừ trách nhiệm”. Luật phải khẳng định doanh nghiệp có trách nhiệm cung cấp đầy đủ thông tin, cảnh báo rủi ro, báo cáo định kỳ và xử lý hậu quả khi có sự cố.
Bên cạnh đó, phải có thời hạn thử nghiệm cụ thể, tránh tình trạng thử nghiệm kéo dài rồi mặc nhiên trở thành hoạt động chính thức mà không được thẩm định. Luật nên quy định rõ cơ chế đánh giá kết thúc thử nghiệm, tiêu chí chuyển từ thử nghiệm sang chính thức và cơ quan có thẩm quyền quyết định. Việc làm rõ những nội dung này sẽ giúp cơ chế thử nghiệm trở thành động lực đổi mới sáng tạo thay vì tạo ra khoảng trống pháp lý.