Có cần một đạo luật kiểm soát trí tuệ nhân tạo
Việc Tổng thống Mỹ Joe Biden và Phó Tổng thống Kamala Harris gặp các “ông lớn công nghệ”, trong đó có Microsoft, Alphabet và Google cùng OpenAI và Anthropic - đã đem đến sự chú ý đặc biệt. Ðồng thời cũng cho thấy những lo lắng đến từ trí tuệ nhân tạo (AI) ngày một lớn.
Nỗi lo của các nhà lãnh đạo nước Mỹ
Trí tuệ nhân tạo đã thu hút nhiều sự chú ý trong năm nay, với các ứng dụng như ChatGPT được công chúng yêu thích. Điều này đã khiến các công ty đổ xô tung ra các sản phẩm tương tự mà họ tin rằng sẽ thay đổi cách con người làm việc. Song cũng vì vậy, ngày càng nhiều người lo ngại công nghệ này có thể đe dọa quyền riêng tư, làm sai lệch các quyết định công việc, cũng như hỗ trợ hoạt động lừa đảo và truyền bá thông tin sai lệch.
Nói với các giám đốc điều hành (CEO) của Microsoft, Alphabet, Google, OpenAI và Anthropic Microsoft, ông Biden cho biết ông cũng đã trải nghiệm ChatGPT. Vì thế, “chúng ta cần thảo luận thẳng thắn và mang tính xây dựng. Trên hết, các CEO phải minh bạch trong hoạch định chính sách về hệ thống AI của mình”.
Trong khi đó, Phó Tổng thống Harris cho rằng trí tuệ nhân tạo có khả năng cải thiện cuộc sống của con người, nhưng cũng mang lại những lo ngại về an toàn, quyền riêng tư và quyền công dân. Bà Harris nói với các CEO rằng họ có "trách nhiệm pháp lý" để đảm bảo an toàn cho các sản phẩm AI của họ.
Việc lan tỏa nhanh chóng công cụ ChatGPT đã làm dấy lên làn sóng tranh luận tại Mỹ. Nhất là trong trường học. Nhiều người cho rằng không nên quá lo lắng, vì cũng đã có lúc người ta lo ngại đối với công cụ tìm kiếm Google, nhưng rồi “đâu cũng vào đấy”. Phía phản đối thì cho rằng, việc khai thác thông tin từ ChatGPT có thể biến con người tới chỗ thụ động, không phát triển tư duy từ đó bị AI thao túng. Ở đây còn phát sinh vấn đề bản quyền và đạo đức. Không ít ông bố bà mẹ Mỹ sợ hãi khi cho rằng, con mình sẽ bị biến thành một cỗ máy di động, mất cảm xúc.
“Trái tim của chúng sẽ chỉ còn để đẩy máu đi nuôi cơ thể. Cảm xúc đã biến mất” - Linda Matthaus, giáo viên trung học Massachusetts, cũng là mẹ của hai con nói.
Đáng kể nhất là cách đây chưa lâu, những bức ảnh giả (deepfake) mô phỏng vụ bắt giữ cựu Tổng thống Mỹ Donald Trump lan truyền trên mạng xã hội. Điều đó cho thấy, khả năng tạo ra những bức ảnh giả mạo giống như thật bằng công nghệ AI với số lượng lớn đã đạt được bước tiến đột phá; đi cùng đó là sự nguy hiểm.
EC ra luật về trí tuệ nhân tạo
Cùng với nước Mỹ, bên kia Đại Tây dương, người châu Âu cũng lo lắng trước tương lai phải đối diện ngày một rõ ràng hơn với AI. Ủy ban châu Âu (EC) đã phải kêu gọi dán nhãn nội dung do AI tạo ra để hạn chế “mặt tối” cũng như tránh truyền bá thông tin sai lệch.
Phó Chủ tịch EC Vera Jourova cho biết, các công ty công nghệ đã tham gia quy tắc thực hành tự nguyện của Liên minh châu Âu (EU) chống thông tin sai lệch; trong đó có TikTok, Microsoft và Meta. Mặc dù có những động lực tốt, nhưng vẫn có những "mặt tối" với những nguy cơ và khả năng gây hậu quả tiêu cực đối với xã hội.
Bộ quy tắc thực hành tự nguyện đặt ra các nguyên tắc tuân thủ phù hợp với việc kiểm duyệt nội dung của EU. Tuy nhiên, việc chống lại thông tin sai lệch sẽ trở thành nghĩa vụ pháp lý đối với tất cả mọi công dân EU theo đạo luật Dịch vụ Kỹ thuật số (DSA) của EU, dự kiến có hiệu lực từ ngày 25/8 tới.
Đề xuất này trên cơ sở những tiến bộ nhanh chóng trong AI tổng quát, từ tạo văn bản đến tạo hình ảnh và video siêu thực - đang làm gia tăng mối lo ngại về việc công nghệ này có thể bị lạm dụng để truyền bá thông tin sai lệch.
Bà Jourova nhấn mạnh, các nền tảng trực tuyến cần đánh dấu nội dung do AI tạo ra để người dùng bình thường có thể thấy rõ rằng một số nội dung văn bản, hình ảnh hoặc video đó không phải do con người tạo ra. Từ đó, EC sẽ điều chỉnh các ứng dụng rủi ro cao và cấm những ứng dụng nguy hiểm nhất.
Phát biểu tại cuộc họp của Hội đồng thương mại và công nghệ EU - Mỹ ở Thụy Điển, Ủy viên Liên minh châu Âu phụ trách vấn đề cạnh tranh Margrethe Vestager cho biết, đạo luật của Liên minh châu Âu sẽ có hiệu lực trong khoảng 2 năm tới. Tuy nhiên, như vậy rõ ràng là quá muộn, mà phải hành động ngay từ bây giờ.
Cho đến nay, EU đang nỗ lực đi đầu trong việc đưa ra các quy phạm điều chỉnh đối với công nghệ trí tuệ nhân tạo. Ngày 11/5/2023, Ủy ban Thị trường nội khối và Ủy ban Về quyền tự do dân sự thuộc EU đã thông qua hơn 3.000 điều chỉnh trong dự luật quản lý AI của khối này. Những thay đổi trong dự luật yêu cầu các đơn vị phát triển AI tiến hành việc đánh giá mức độ an toàn, có giải pháp quản lý dữ liệu và giảm thiểu rủi ro trước khi đưa sản phẩm ra thị trường. Với các sản phẩm được tạo ra bằng những ứng dụng như ChatGPT hay Midjourney (phần mềm vẽ tranh theo mô tả bằng ngôn ngữ tự nhiên của người dùng), nhà sản xuất phải nêu rõ cảnh báo đây là sản phẩm của AI.
Việc sử dụng công nghệ xác thực sinh trắc học, đặc biệt là nhận diện khuôn mặt, cũng bị cấm ở nơi công cộng, trừ trường hợp chống khủng bố. Bên cạnh đó, những thay đổi mới cũng cấm cảnh sát dùng AI để đánh giá khả năng phạm tội của một người dựa trên hồ sơ tiền án.
Thông cáo của Nghị viện châu Âu nêu rõ: "Qua những điều chỉnh đã được thông qua hôm 11/5, các nhà làm luật châu Âu hướng đến việc đảm bảo các hệ thống AI được giám sát bởi người dân, an toàn, minh bạch, dễ dàng nhận biết, không phân biệt đối xử và thân thiện với môi trường".
Hãng tin Reuters nhận định, những điều chỉnh được thông qua vào ngày 11/5 sẽ là bước tiến đầu tiên hướng đến đạo luật kiểm soát AI đầu tiên thế giới. Được đề xuất từ năm 2021, Đạo luật AI sẽ quản lý tất cả sản phẩm hoặc dịch vụ sử dụng công nghệ này. Đạo luật sẽ phân loại các hệ thống AI thành 4 nhóm dựa trên mức độ rủi ro chúng mang lại, từ tối thiểu đến không thể chấp nhận. Những ứng dụng có mức rủi ro cao sẽ đối mặt các quy định ngặt nghèo hơn. Một trong số đó là yêu cầu minh bạch và sử dụng dữ liệu chính xác.
Cuối tháng 6 này, Nghị viện châu Âu sẽ biểu quyết thông qua dự thảo luật này. Sau đó là các cuộc thương lượng 3 bên giữa Nghị viện châu Âu, Ủy ban châu Âu và chính phủ mỗi nước thành viên trong EU.
Chatbot là các ứng dụng phần mềm được huấn luyện bằng cách sử dụng lượng dữ liệu khổng lồ từ internet, cho phép chúng xử lý và mô phỏng các cuộc trò chuyện giống con người với người dùng. Chúng đưa ra câu trả lời dựa trên hướng dẫn và câu hỏi của người dùng. Đề phòng việc thông tin bí mật bị rò rỉ do sử dụng ChatGPT, tuy nhiên đầu tháng 6/2023, chính quyền thành phố Yokosuka thuộc tỉnh Kanagawa đã trở thành chính quyền địa phương đầu tiên ở Nhật Bản sử dụng thử nghiệm ChatGPT, ứng dụng Generative AI (AI tạo sinh) được điều khiển bởi một mô hình học máy hoạt động giống như bộ não con người. Trong khi đó, hàng trăm chuyên gia công nghệ tiếp tục cảnh báo về sự nguy hiểm của AI. Trong đó có tỉ phú Elon Musk và nhà đồng sáng lập Apple Steve Wozniak. Trước sự phản ứng, các hãng công nghệ lớn đều đang có thái độ khá thận trọng. Bà Mira Murati - Giám đốc công nghệ của OpenAI (công ty phát triển công cụ ChatGPT), cho rằng với việc EUđặt ra các quy tắc thì còn phụ thuộc vào việc áp dụng công nghệ trong lĩnh vực nào. “Việc sử dụng công cụ AI trong lĩnh vực pháp lý hoặc y tế có rủi ro cao sẽ rất khác so với khi ứng dụng trong lĩnh vực kế toán hoặc quảng cáo” - bà Murati nói.