PGS.TS Trần Thành Nam: Ứng phó và sử dụng ChatGPT để phát triển
Điều gì sẽ xảy ra khi ChatGPT đưa ra những thông tin thiếu chính xác, thậm chí là “tin giả” gây nên những hiệu ứng tiêu cực trong xã hội và gây ra các hành vi gây hại cho con người? Vậy con người sẽ phải ứng xử với ChatGPT như thế nào? Trước lo ngại trên, phóng viên Báo Đại Đoàn Kết đã có cuộc trò chuyện với PGS.TS Trần Thành Nam - Chủ nhiệm Khoa Các khoa học giáo dục, Trường Đại học Giáo dục (ĐHQG Hà Nội).
PV: Thưa ông, ChatGPT đang nổi lên như một “cơn sốt” và từ ngày 10/12 đã chính thức có mặt ở Việt Nam. Vậy ông nhìn nhận về mô hình ngôn ngữ này như thế nào?
PGS.TS TRẦN THÀNH NAM: ChatGPT bùng nổ trong giai đoạn vừa qua là “dấu ấn” để chúng ta ý thức lại một cách rõ ràng hơn rằng, hiện nay các ông lớn công nghệ đang có cuộc đua về trí tuệ nhân tạo (AI) để hỗ trợ cho cuộc sống của con người làm việc hiệu quả hơn. Trước ChatGPT đã có nhiều AI. Với sự ra đời và cơn sốt ChatGPT làm cho mọi người bắt đầu hào hứng, ý thức và bàn luận một cách rõ hơn. Nhưng chúng ta cần hiểu được bản chất của AI, và cách thức để chúng ta ứng xử.
Với sự ra đời của AI thì tất cả các lao động lặp lại bậc thấp, kiến thức cũ, sáo mòn đã được nhân loại sáng tạo ra mà vận dụng giữ nguyên, không có sáng tạo thì sẽ bị AI thay thế. Còn con người muốn sử dụng AI, muốn chiến thắng để giữ vị trí công việc của mình trong tương lai đòi hỏi phải cập nhật các công nghệ mới. Đó là xu hướng không thể đảo ngược. Thứ hai, phải hiểu điểm mạnh để tận dụng sức mạnh của AI. Thứ ba, phải hiểu những điểm nào AI không làm được để có thể đầu tư vào trong lĩnh vực đó và thể hiện bản chất con người hạng nhất chứ ta không thể trở thành một loại rô bốt mà làm việc còn kém hơn cả rô bốt trí tuệ nhân tạo.
Nhiều ý kiến băn khoăn ChatGPT có thể sẽ đe dọa và xóa bỏ rất nhiều các ngành nghề trong xã hội như: giáo viên, kế toán, nhà báo, luật sư, thưa ông?
- Những ngày qua có thể ChatGPT đã tạo ra một “cơn sốt”. Nhưng chúng ta phải thấy rằng AI cũng có những điểm không thể nào bằng con người. Tất cả các câu trả lời của ChatGPT và cách ứng xử có thể nuột nà với ngôn ngữ như con người song đó chỉ là tổng hợp từ các tin mà chúng ta “dạy” cho nó. Chúng ta đưa cho nguồn nào thì nó tổng hợp từ nguồn thông tin đó một cách nhanh chóng để đưa ra câu trả lời. Vì thế, nó thiên biến về mặt thông tin và có thể không hoàn toàn cập nhật được thông tin đến thời điểm thực tế, và không có tính sáng tạo và độc đáo. Đó chính là hạn chế của AI.
Thứ hai, vì là máy tính nên có thể thông minh nhưng lại không có lập trường. Còn con người biết thế nào là đẹp, xấu, thể hiện quan điểm, có lập trường và bảo vệ những hệ giá trị. Thậm chí còn nguy hại hơn khi nếu thông tin mà AI tập hợp từ nguồn không chính thống, bên lề, xuyên tạc thì nó có nguy cơ không khác gì một “nguồn cung cấp tin giả” cả.
Thứ ba, chúng ta không nên quá lo ngại về sự bị “thay thế”. Bởi con người có trí thông minh, có sáng tạo, có tính phân tích và tính dự báo. Đó là cái AI không làm được.
Nhưng rõ ràng thực tế đó cũng đặt cho chúng ta một sự thay đổi trong lao động, và có động thái để ứng xử trước ChatGPT?
- Nếu một người không có năng lực, tư duy phản biện thì cũng không có năng lực tư duy phản biện trước AI. AI trả lời cái gì cũng tin đó là thật, chưa kể AI có thể chế tạo ra các câu chuyện, tin giả và thông tin không đúng với sự kiện lịch sử hay các giá trị văn hoá của chúng ta. Cho nên bây giờ đặt ra vấn đề rằng, chúng ta không thể học, hoặc làm việc theo kiểu “truyền thống” được nữa khi ChatGPT đã ra đời. Ví dụ trong giáo dục thì bây giờ với các dạng bài học viết về câu chuyện, hay nội dung thì ChatGPT sẽ làm cho nội dung bước ban đầu, và xuất phát điểm ai cũng được 3 điểm ngang nhau. Nhưng học sinh nào muốn được 8, hay 9 điểm thì phải có “cá nhân hóa”, có suy nghĩ và sáng tạo. Vì thế chúng ta cũng phải dạy cho học sinh biết cách thức tận dụng công nghệ mới AI, hiểu nó để nó không gây hại cho thế hệ trẻ. Rồi thay đổi cách giáo dục cho học sinh, hay người lao động để các em và người lớn không được lười lao động, lười suy nghĩ, lười sáng tạo. Cuối cùng dẫn đến tương lai có thế hệ “nằm dài” suốt ngày phụ thuộc vào các thiết bị công nghệ mà không sáng tạo ra giá trị mới.
Vì thế bây giờ phải giúp con người học về AI và thậm chí phán xét AI. Chúng ta phải tận dụng AI, ChatGPT để giúp cho học tập, lao động có sự sáng tạo để tăng năng suất lao động chứ không phải thấy thế mà cấm. Không phải vì thấy có ChatGPT mà sợ gian lận, cấm rồi chuyển sang học kiểu viết tay hay vấn đáp để đối phó với AI. Như thế khác nào chúng ta quay trở lại thời kỳ giáo dục 2.0. Chúng ta nên nhớ rằng, sự phát triển của công nghệ là không thể đảo ngược. Cho nên cần có cách ứng phó để tận dụng, sử dụng nó phục vụ cho sự phát triển.
Vậy trong trường hợp ChatGPT gây thiệt hại cho cá nhân, tổ chức khác thì trách nhiệm sẽ thuộc về ai? Có lẽ chúng ta cần hoàn thiện khung khổ pháp lý để điều chỉnh nó, thưa ông?
- Chắc chắn các nhà lập pháp cần nghiên cứu sử dụng một khuôn khổ pháp lý để ứng xử với nó. Ví dụ hiện nay Liên minh châu Âu cũng đã nhận ra nguy cơ về thông tin không chính xác, nguy cơ về giữ bí mật thông tin cá nhân, rồi nguy cơ liên quan đến đạo đức. Vì cuối cùng ứng dụng ChatGPT về sau sẽ thu tiền. Bây giờ họ để miễn phí vì có 100 triệu gia sư miễn phí đang làm việc cho họ, chat với ChatGPT hàng ngày để ChatGPT trở nên thông minh hơn.
Theo PGS.TS Trần Thành Nam, ChatGPT mở đầu cho cuộc cạnh tranh ứng dụng AI giá rẻ phục vụ cho cộng đồng. Đó là xu thế không thể đảo ngược. Nhưng cũng làm dấy lên những quan ngại về gian lận, tính bảo mật và đạo đức thông tin của trí tuệ nhân tạo. Đó là những điều chúng ta phải hiểu sâu sắc để có thể ứng phó và tận dụng sức mạnh của nó.
Nhiều người nghĩ rằng ChatGPT như bạn bè nên chia sẻ, tâm sự thông tin cá nhân, công việc của mình với ChatGPT. Và nếu những thông tin này được thu thập, và không có tính bảo mật thì có thể sẽ bị lợi dụng. Vì ChatGPT là mới nên hiện tất cả các quốc gia đều chưa kịp thời đưa ra những chính sách về AI, nhưng hiện cũng đã nghiên cứu, không chỉ đối với mỗi ChatGPT mà còn rất nhiều công cụ AI khác nữa của các ông lớn về công nghệ sắp sửa ra đời. Cho nên sẽ cần phải có những văn bản pháp luật để quy định. Theo đó, làm thế nào để đảm bảo được những người sử dụng thông tin đó phải đủ năng lực để đánh giá được nguồn thông tin từ các AI tạo ra là đúng hay sai? Hoặc là có phải có cách thức để kiểm chứng. Ví dụ Chat GPT không đưa ra, trích dẫn từ nguồn nào mà chỉ đưa ra câu trả lời thì chúng ta phải có hướng dẫn, kiểm tra xem thông tin lấy từ nguồn nào? Như thế cần nghiên cứu để phản hồi chính sách.
Bên cạnh đó, chúng ta luôn phải giúp cho người sử dụng ý thức được rằng ChatGPT là người máy chứ không phải con người nên phải có ý thức để ứng xử và bảo vệ thông tin cá nhân của mình trước việc bị thu thập một cách thụ động mà mình không biết.
Thứ ba, luôn phải xác minh lại nguồn thông tin vì điểm rất mạnh của các trí tuệ AI là được lập trình để tạo, sinh ra câu trả lời. Nếu không biết kiến thức đó thì nó cũng sẽ “tạo ra” một câu trả lời để… nghe có vẻ hợp lý. Cho nên cần có quy định về việc xác minh lại thông tin mà nó đưa ra.
Chưa bao giờ “tin giả” lại dễ xuất hiện như ở thời điểm bây giờ. Do đó, trước các công cụ AI thì chúng ta cũng phải có một số chính sách nào đó để bảo vệ cộng đồng, bảo vệ các doanh nghiệp trước sự lớn mạnh của AI. Do đó, hiện các quốc gia ký ràng buộc với các ông lớn công nghệ ẩn đằng sau công nghệ AI để đảm bảo rằng các câu chuyện liên quan đến vi phạm, thuần phong mỹ tục của từng quốc gia, vi phạm quy chuẩn văn hóa quốc gia phải được nhận diện qua những “key word”, hoặc đội ngũ kiểm soát để đảm bảo cho những kết quả tìm kiếm của AI không gây hại cho cộng đồng.
Mặt tích cực của AI là con người ngày càng được giải phóng sức lao động trước những những lao động giản đơn lặp đi lặp lại. Nhưng nếu chúng ta không muốn trở thành “nô lệ cho AI” do chính con người sáng tạo ra thì chúng ta phải thay đổi triệt để từ cách học, các làm việc, và cách đánh giá. Năng lực sống an toàn trên “thế giới số” chưa bao giờ quan trọng như bây giờ.
Trân trọng cảm ơn ông!