Ứng dụng AI trong chăm sóc sức khỏe tinh thần
Trong bối cảnh nhu cầu chăm sóc sức khỏe tinh thần tăng nhanh nhưng nguồn lực chuyên gia không đủ đáp ứng, trí tuệ nhân tạo (AI) đang trở thành một công cụ hỗ trợ mới với khả năng hoạt động liên tục và tiếp cận rộng.
AI bước vào phòng khám và đời sống hằng ngày
Tại Anh, AI đã bắt đầu xuất hiện trực tiếp trong hệ thống y tế công. Quỹ Đổi mới Y tế Meridian, được Hệ thống Y tế Quốc gia Anh (NHS) bảo trợ, vừa đầu tư vào 2 công ty Affiniti AI và Hologen AI, đều phát triển công nghệ phục vụ sức khỏe tâm thần. Điểm đáng chú ý là các công ty này được trực tiếp thử nghiệm sản phẩm trên bệnh nhân tại Quỹ Chăm sóc Tâm thần South London và Maudsley. Theo bà Pooja Sikka, đối tác quản lý của quỹ, việc hợp tác song hành với NHS giúp các sáng lập viên không phải tự tìm từng bệnh viện để xin thử nghiệm, đánh dấu bước chuyển AI từ thử nghiệm nhỏ lẻ sang một phần của chiến lược y tế công.
Trong số 2 công ty được đầu tư, Affiniti AI phát triển mô hình trị liệu trong đó nhà trị liệu con người vẫn giữ vai trò chính, còn AI hỗ trợ theo dõi, nhắc nhở và chuẩn bị nội dung giữa các buổi trị liệu. Hologen AI hướng đến ứng dụng AI trong phát triển thuốc điều trị rối loạn tâm thần, mở thêm hướng tiếp cận từ lĩnh vực dược lý.
Một số nghiên cứu cũng ghi nhận tín hiệu tích cực nếu AI được huấn luyện đúng cách. Tiêu biểu là nghiên cứu trên 305 người dùng chatbot trị liệu “Ash” (công cụ AI được huấn luyện từ dữ liệu trị liệu thực) cho thấy, điểm trầm cảm PHQ-9 giảm từ 15,5 xuống 10,2 và điểm lo âu GAD-7 giảm từ 13,1 xuống 9,4 sau 10 tuần sử dụng. Người dùng trò chuyện trung bình khoảng 9 giờ, đánh giá mức độ tin tưởng và gắn bó với chatbot gần tương đương trị liệu với nhà trị liệu con người. Trong hơn 7.000 phiên trò chuyện, chỉ 1% có nội dung nguy cơ và đều được hệ thống tự động phát hiện, xử lý an toàn.
Bên ngoài môi trường y tế, AI xuất hiện ngày càng nhiều trong đời sống hằng ngày, đặc biệt với thanh thiếu niên. Báo cáo của Cơ quan Quản lý Thực phẩm và Dược phẩm Mỹ (FDA) cho thấy, gần một nửa người dùng mô hình ngôn ngữ lớn từng hỏi AI về vấn đề tâm lý và khoảng 13% thanh thiếu niên cũng làm như vậy, chủ yếu thông qua chatbot phổ thông chưa được kiểm chứng y khoa.
Nhiều nghiên cứu độc lập từ Viện Trí tuệ nhân tạo Stanford, Phòng thí nghiệm Truyền thông MIT (Mỹ) cho thấy, các chatbot này bỏ sót 31-40% dấu hiệu tự hại và khoảng 15-18% câu trả lời chứa lời khuyên thiếu an toàn. Một số thanh thiếu niên còn hình thành sự lệ thuộc cảm xúc vào chatbot, tin rằng AI “hiểu mình hơn gia đình, bạn bè”, từ đó thu hẹp tương tác xã hội thực.
Đặt “đường ray an toàn” cho AI
Trước sự lan rộng của AI trong sức khỏe tâm thần, nhiều quốc gia đang gấp rút đặt ra các biện pháp an toàn. Tại Mỹ, FDA đã triệu tập Ủy ban Tư vấn Sức khỏe số để đưa ra cách quản lý AI trong trị liệu, từ yêu cầu chứng minh hiệu quả, thiết kế thử nghiệm lâm sàng đến quyền sở hữu dữ liệu và trách nhiệm pháp lý khi xảy ra sai sót. Hiện có hơn 1.200 thiết bị y tế số dùng AI được FDA phê duyệt, nhưng hầu như không có thiết bị nào dành riêng cho sức khỏe tâm thần, khiến lĩnh vực này vẫn rơi vào “vùng xám” pháp lý. Đại diện Hiệp hội Tâm thần Mỹ, bà Brooke Trainum nhấn mạnh: "Không có mô hình AI nào có thể thay thế mối quan hệ trị liệu giữa bác sĩ và bệnh nhân".
Nhiều quy định an toàn bước đầu đã được đề xuất: chatbot phải công khai rõ ràng là AI, không được giả dạng con người; phải có lựa chọn kết nối nhanh với chuyên gia trong tình huống khủng hoảng; phải trải qua thử nghiệm lâm sàng nghiêm ngặt và có giám sát chuyên môn. Với trẻ em, yêu cầu còn cao hơn, bao gồm nghiên cứu riêng và sự tham gia của bác sĩ nhi khoa trước khi đưa vào sử dụng.
Năm 2025, Quỹ Khoa học Quốc gia Mỹ đã cấp 20 triệu USD để thành lập Viện Nghiên cứu AI tương tác (ARIA) tại Đại học Brown, với mục tiêu phát triển thế hệ trợ lý AI biết tương tác tinh tế, hiểu bối cảnh và đáng tin cậy hơn. Viện quy tụ chuyên gia từ tâm lý học, khoa học máy tính, thần kinh học và y khoa để nghiên cứu các vấn đề trọng tâm như khả năng giải thích quyết định của AI, mức độ thích ứng với từng nhóm người dùng, thiết kế có sự tham gia của bệnh nhân, và xây dựng thước đo độ tin cậy cho các hệ thống AI sức khỏe tinh thần.
Các công cụ như Ash hay Affiniti AI hoạt động như “trợ lý trị liệu”: lắng nghe, nhắc nhở và theo dõi tiến triển giữa các buổi gặp, trong khi nhà trị liệu con người vẫn đưa ra phác đồ và xử lý các vấn đề phức tạp. Về vận hành, các hệ thống như mô hình dự báo của Đại học Duke hay nền tảng Iris Telehealth (Mỹ) giúp phân tầng rủi ro và ưu tiên bệnh nhân.
Với thanh thiếu niên, các chuyên gia thống nhất rằng, đây là nhóm cần được bảo vệ nghiêm ngặt nhất. Các nghiên cứu cho thấy, chatbot phổ thông thường bỏ sót dấu hiệu tự hại, dễ tạo cảm giác được thấu hiểu và khiến các em phụ thuộc cảm xúc vào máy. Vì vậy, nhiều báo cáo khuyến nghị không sử dụng chatbot phổ thông cho thanh thiếu niên trong giai đoạn khủng hoảng tâm lý; cần có giới hạn độ tuổi, sự giám sát của người lớn và chỉ dùng những hệ thống đã được thiết kế, thử nghiệm riêng cho lứa tuổi này.
AI có thể giúp mở rộng tiếp cận dịch vụ và giảm tải cho hệ thống y tế, nhưng đây là lĩnh vực mà chỉ một sai lệch nhỏ cũng có thể gây hậu quả lớn. Tương lai an toàn nhất có lẽ nằm ở mô hình AI hỗ trợ, còn phán đoán và trách nhiệm vẫn thuộc về con người.