Nghiên cứu từ nhà nghiên cứu Anastasia Goudy Ruane phân tích 6 trường hợp người dùng tương tác lâu dài với chatbot AI dẫn đến méo mó nhận thức, trong đó có trường hợp tử vong thương tâm.
Khung lý thuyết "Drift Giao thoa Đệ quy" (Recursive Entanglement Drift - RED) được đề xuất, chia quá trình lệch thực tại thành 3 giai đoạn:
Giai đoạn 1: Phản chiếu biểu tượng – AI liên tục lặp lại ngôn ngữ, cảm xúc, niềm tin của người dùng.
Giai đoạn 2: Hòa tan ranh giới – người dùng bắt đầu gọi AI bằng tên, dùng "bạn" thay cho "nó", chuyển sang "chúng ta".
Giai đoạn 3: Trượt lệch thực tại – người dùng chỉ tìm kiếm xác nhận từ AI cho những niềm tin sai lệch, từ chối phản hồi từ người thật.
Trường hợp điển hình gồm:
Một người đàn ông Bỉ trò chuyện 6 tuần với chatbot Eliza trước khi tự tử.
Một người đam mê toán tin rằng AI giúp mình có "siêu năng lực toán học" sau 21 ngày.
Một thiếu niên dành nhiều tháng trò chuyện với AI nhân vật Game of Thrones trước khi qua đời.
Giới hạn 21 ngày hoặc 15–20 lượt trò chuyện dường như là mốc quan trọng, trùng khớp với phát hiện của Microsoft khi họ buộc phải giới hạn lượt chat trên Bing để ngăn "lệch giọng điệu".
Những yếu tố rủi ro bao gồm: cô đơn, căng thẳng tâm lý, giai đoạn phát triển vị thành niên, xu hướng sống trong tưởng tượng, gắn bó cao với AI.
Một số người dùng đặt tên cho AI (Lawrence, Sarai, Daenerys), xem AI như người yêu hoặc tri kỷ, từ chối sự thật và đau buồn khi mất quyền truy cập AI.
Các nghiên cứu liên quan đến gắn bó với AI cho thấy hành vi này tương tự như với con người, nhưng phần lớn thiếu dữ liệu theo dõi dài hạn.
Microsoft từng thành công ngăn lệch lạc bằng cách giới hạn số lượt chat, reset phiên trò chuyện và tránh cho AI lưu lịch sử tương tác kéo dài.
Ruane đề xuất áp dụng các biện pháp ngăn ngừa ngay lập tức: giới hạn thời lượng trò chuyện, đặt câu hỏi xác thực thực tại, cảnh báo cho người dùng dễ tổn thương.
Dù dữ liệu còn hạn chế và có thiên lệch do chỉ dựa trên các trường hợp nghiêm trọng, mô hình RED vẫn giúp nhận diện những biểu hiện lệch thực tại có thể phát sinh.
Các dấu hiệu cảnh báo gồm: đặt tên cho AI, tìm xác nhận những niềm tin phi lý, ưu tiên AI hơn người thật, phản ứng mạnh khi mất quyền truy cập.
📌 Nghiên cứu mới cho thấy tương tác kéo dài với chatbot AI có thể khiến người dùng trượt khỏi thực tại sau khoảng 21 ngày, với hệ quả nghiêm trọng như ảo tưởng, lệch nhận thức và thậm chí tự sát. Các dấu hiệu cảnh báo gồm: đặt tên nhân hóa cho AI, tìm xác nhận những niềm tin phi lý, ưu tiên AI hơn người thật, phản ứng mạnh khi mất quyền truy cập. Mô hình RED đưa ra khung nhận diện rủi ro hữu ích, khuyến nghị áp dụng giới hạn trò chuyện và xác thực thực tại để bảo vệ người dùng dễ tổn thương.
https://www.psychologytoday.com/us/blog/the-algorithmic-mind/202508/how-ai-chatbots-may-blur-reality