Trí tuệ nhân tạo (AI) đang được xem là một động lực cho sự phát triển kinh tế tại Việt Nam. Tuy nhiên, bên cạnh những lợi thế mà AI mang lại là những thách thức xã hội và pháp lý.
Theo tờ trình của Chính phủ, phát triển ngành công nghiệp công nghệ số với trọng tâm là các doanh nghiệp (DN) công nghệ số Việt Nam, từng bước chuyển dịch từ lắp ráp, gia công sang sáng tạo, thiết kế, tích hợp, sản xuất, làm chủ công nghệ lõi tại Việt Nam; góp phần xây dựng Chính phủ số, động lực phát triển kinh tế số, xã hội số. Và AI là một trong các công nghệ số cốt lõi nhất. Do đó dự thảo Luật Công nghiệp công nghệ số quy định nguyên tắc quản lý và phát triển AI.
AI phục vụ sự thịnh vượng và hạnh phúc con người phải đảm bảo minh bạch và giải thích được, có trách nhiệm giải trình, công bằng và không phân biệt đối xử, tôn trọng các giá trị đạo đức và giúp con người, bảo vệ quyền riêng tư, tiếp cận bao trùm, an ninh và bảo mật, kiểm soát được, quản lý dựa trên rủi ro, đổi mới có trách nhiệm và khuyến khích hợp tác quốc tế.
Tuy nhiên làm sao phát huy được thế mạnh của AI nhưng cũng hạn chế được các tác động tiêu cực do AI tạo ra là vấn đề đáng quan tâm, cần phân tích để đưa ra cách thức quản lý? Đây cũng là vấn đề nhận được sự quan tâm của toàn xã hội hiện nay trong bối cảnh phát triển mạnh mẽ của cuộc cách mạng công nghiệp 4.0.
Về vấn đề này, Uỷ ban Khoa học, công nghệ và môi trường của Quốc hội đánh giá, việc quy định như dự thảo Luật về cơ bản là hợp lý. Tuy nhiên, có ý kiến cho rằng, cần nghiên cứu toàn diện cả những vấn đề về sở hữu và các quyền tài sản và quyền nhân thân đối với dữ liệu; vấn đề tôn trọng quyền tác giả để xây dựng một đạo luật riêng về AI của Việt Nam.
Ông Lê Quang Huy - Chủ nhiệm Uỷ ban Khoa học, công nghệ, và môi trường của Quốc hội cho rằng, tại thời điểm này Việt Nam cần phải có cơ sở pháp lý để điều chỉnh về AI nhằm phát triển thế mạnh, lợi thế của AI đồng thời hạn chế tác động bất lợi trong nghiên cứu, ứng dụng, phát triển công nghệ AI. Đồng thời, đề nghị nghiên cứu bổ sung các quy định hạn chế rủi ro, ảnh hưởng của công nghệ AI đối với đời sống kinh tế, xã hội như nguyên tắc đạo đức; nghiên cứu, phát triển AI do Việt Nam sáng tạo; cho phép các DN có dự án nghiên cứu về trí tuệ nhân tạo được sử dụng nguồn dữ liệu từ các cơ quan nhà nước; quy định mức độ ứng dụng trí tuệ nhân tạo trong các cơ quan nhà nước từ các giải pháp do DN trong nước làm chủ nhằm khuyến khích sử dụng và tạo thị trường.
ĐBQH Vũ Thị Liên Hương (Đoàn Quảng Ngãi) nêu quan điểm, cần bổ sung các hành vi nghiêm cấm mang tính đặc thù về sở hữu trí tuệ trong phát triển, cung cấp và sử dụng hệ thống AI theo hướng “cần quy định cấm việc sử dụng các sản phẩm đã được bảo hộ quyền sở hữu trí tuệ mà không xin phép, cấm sử dụng hình ảnh nhận dạng sinh trắc học, giọng nói cá nhân mà không xin phép”.
ĐBQH Sùng A Lềnh (Đoàn Lào Cai) cũng quan tâm đến vấn quản lý rủi ro đối với hệ thống AI được quy định tại khoản 1 và khoản 2 của Điều 65. Theo đó, tại khoản 1 của dự thảo Luật quy định “Hệ thống AI có khả năng gây ra những rủi ro, tổn hại đến sức khỏe, sự an toàn, quyền và lợi ích hợp pháp của tổ chức, cá nhân là hệ thống AI có rủi ro cao trừ trường hợp quy định tại khoản 3 Điều này”. Tại khoản 2 dự thảo Luật quy định “Hệ thống AI có khả năng tác động cao là hệ thống AI có phạm vi tác động lớn, số lượng người dùng lớn, lượng tính toán tích lũy sử dụng để huấn luyện lớn”. Song ông Lềnh đánh giá, quy định tại khoản 1 và khoản 2 chưa định nghĩa rõ về những rủi ro, tổn hại đến sức khỏe, sự an toàn, quyền và lợi ích hợp pháp của tổ chức, cá nhân. Đồng thời cũng chưa đưa ra giới hạn cụ thể về phạm vi tác động, số lượng người dùng và lượng tính toán tích lũy để huấn luyện.
“Việc quy định như dự thảo Luật chưa rõ ràng, chưa phù hợp với các tiêu chuẩn quản lý AI đang được áp dụng trên thế giới, dễ dẫn đến việc khó triển khai thực hiện. Do đó cần xác định rõ các tiêu chí hệ thống AI có rủi ro cao, hệ thống AI có khả năng tác động cao; hoặc giới hạn phạm vi của hệ thống AI có rủi ro cao ở một số hệ thống AI nâng cao và tiên tiến, có thể gây ra ảnh hưởng lớn. Chưa kể, trong dự thảo Luật chưa có quy định về việc nhà cung cấp, triển khai hệ thống AI có quyền từ chối những yêu cầu không chính đáng hoặc mang tính quấy rối DN để tránh gây trở ngại, tốn kém nhân lực và kinh tế. Do đó cần nghiên cứu, xem xét tính khả thi của việc áp đặt các nghĩa vụ giám sát, theo dõi hệ thống đối với từng loại hình DN phát triển hệ thống AI” - ông Lềnh kiến nghị.
Về quản lý rủi ro trong quá trình ứng dụng AI, ĐBQH Nguyễn Phương Tuấn (Đoàn Kiên Giang) cho rằng, trong thời đại ngày nay bên cạnh những hữu ích do AI đem lại thì việc quản lý sự phát triển của công nghệ này là rất cần thiết.
Dẫn chứng trên thế giới đang có 2 cách tiếp cận quản lý đối với AI gồm: cách tiếp cận AI dựa trên quản lý về rủi ro; và cách tiếp cận dựa trên quyền của nhà quản lý, ông Tuấn đồng thuận với cách tiếp cận quản lý những rủi ro do AI gây ra theo phương thức như Chính phủ đề ra trong dự án Luật. Đó là sự rủi ro mà AI đến đâu thì quản lý chặt chẽ đến đó nhưng phải quản lý theo từng cấp độ, mức độ khác nhau. Ông Tuấn cũng kiến nghị cần nghiên cứu xây dựng khung đạo đức trong sử dụng, ứng xử về AI.
Dự thảo Luật Công nghiệp công nghệ số sẽ được Quốc hội thảo luận tại hội trường vào ngày 30/11.
Ông Lê Quang Huy - Chủ nhiệm Uỷ ban Khoa học, công nghệ, và môi trường của Quốc hội cho rằng, tại thời điểm này Việt Nam cần phải có cơ sở pháp lý để điều chỉnh về AI nhằm phát triển thế mạnh, lợi thế của AI đồng thời hạn chế tác động bất lợi trong nghiên cứu, ứng dụng, phát triển công nghệ AI. Đồng thời, đề nghị nghiên cứu bổ sung các quy định hạn chế rủi ro, ảnh hưởng của công nghệ AI đối với đời sống kinh tế, xã hội như nguyên tắc đạo đức; nghiên cứu, phát triển AI do Việt Nam sáng tạo...