Chuyên gia trí tuệ nhân tạo: Cuộc chạy đua ngoài tầm kiểm soát
Trong giới công nghệ, việc đánh giá ra sao về trí tuệ nhân tạo (AI) vẫn chưa thống nhất. Tuy nhiên, việc cảnh báo những tai họa mà nó có thể đem đến có thể coi là đã có mẫu số chung.
Ông Stuart Russell - giáo sư khoa học máy tính tại Đại học California (Berkeley, Mỹ) trong một cuộc phỏng vấn với tạp chí Business Today đã cho rằng, nếu mối đe dọa của AI không được kiểm soát sẽ tiềm ẩn hiểm họa như sự kiện nhà máy điện hạt nhân Chernobyl (thảm họa hạt nhân xảy ra ở Ukraine năm 1986).
Theo ông Russell, các phòng thí nghiệm AI đang tiếp tục “cuộc chạy đua ngoài tầm kiểm soát" để phát triển và triển khai những bộ óc kỹ thuật số mạnh mẽ hơn bao giờ hết, mà không ai - kể cả người tạo ra chúng - có thể dự đoán hoặc kiểm soát một cách đáng tin cậy.
Là giáo sư khoa học máy tính, ông Russell đã có hàng chục năm làm lãnh đạo trong lĩnh vực AI. Ông cùng những nhân vật nổi tiếng khác, như hai tỉ phú Elon Musk và Steve Wozniak đã ký một bức thư ngỏ kêu gọi tạm dừng mở rộng AI, đồng thời kiểm soát việc phát triển các hệ thống AI mạnh mẽ, được định nghĩa là những thứ mạnh hơn GPT-4 của OpenAI. Theo đó, GPT-4, kết hợp từ khoảng 20.000 - 30.000 tỉ từ. Sau đó, các hệ thống được huấn luyện thêm bằng cách điều chỉnh ngẫu nhiên hàng nghìn tỉ tham số, với mục tiêu cuối cùng là cải thiện khả năng dự đoán từ tiếp theo trong một chuỗi của mô hình.
Về cơ bản, hệ thống Al sẽ học cách kết hợp nhiều cuộc hội thoại có trong dữ liệu huấn luyện, và dùng điều đó để trả lời các câu hỏi. Vì vậy, hệ thống này giống như một con vẹt rất thông minh - ông Russell nói. Điều này dẫn đến mối lo ngại rằng các mô hình Al đang tạo ra các mục tiêu và mẫu hành vi của riêng chúng, mà các nhà khoa học máy tính không thể hiểu hoặc kiểm soát.
“Trước việc sức mạnh của AI đang tăng lên mỗi ngày, điều quan trọng là chúng ta phải lùi lại một bước và đảm bảo rằng những công nghệ mạnh mẽ này được phát triển và triển khai một cách có trách nhiệm và an toàn” - ông Russell nói.
Trong khi đó, Giám đốc điều hành của Google, ông Sundar Pichai cho rằng AI sẽ khiến vấn đề thông tin sai lệch, tin tức và hình ảnh giả mạo sẽ trở nên nghiêm trọng hơn và có thể gây hậu quả khôn lường. “Xã hội chưa chuẩn bị sẵn sàng cho sự phát triển nhanh chóng của AI”- ông Pichai nói và cho rằng kể từ khi ra mắt vào năm 2022, ChatGPT của OpenAI đã tạo ra cơn sốt trong giới công nghệ và chưa có dấu hiệu hạ nhiệt, bất chấp việc dư luận ngày càng lo ngại về hậu quả của nó đối với con người.
Chia sẻ tại chương trình “60 Minutes” của Đài truyền hình CBS (Mỹ), CEO của Google, Sundar Pichai cho rằng việc xây dựng luật quản lý AI để đảm bảo công nghệ này được ứng dụng một cách an toàn và phù hợp với các giá trị nhân văn sẽ không thể do một công ty công nghệ tự quyết định, mà còn cần có sự tham gia từ các nhà khoa học xã hội, các chuyên gia đạo đức và các nhà nghiên cứu trong những lĩnh vực liên quan khác.
Ông Pichai đánh giá các công nghệ mới có khả năng làm việc giống con người đang trở nên đáng lo ngại khi các ứng dụng AI có thể thực hiện một số công việc, trong đó có thể kể đến nhà văn, kế toán, kiến trúc sư, bác sĩ hay thậm chí cả kỹ sư phần mềm. Ngoài ra, vị CEO cho rằng vấn đề thông tin sai lệch, tin tức và hình ảnh giả mạo sẽ trở nên nghiêm trọng hơn và có thể gây hậu quả khôn lường.
“Cần một thời gian dài để hiểu về AI, vì thế việc “thả” nó ra xã hội là điều cần phải cân nhắc rất kỹ. Con người cần đủ thời gian để thích ứng và làm chủ AI, chứ không phải là ngược lại” - CEO của Google nói.