(Ảnh minh họa: Getty Images)
Một nghiên cứu của các nhà khoa học máy tính tại Stanford chỉ ra rằng hiện tượng “AI sycophancy” - tức việc chatbot có xu hướng đồng tình với người dùng - có thể gây ra nhiều hệ quả tiêu cực. Nghiên cứu mang tên “Sycophantic AI decreases prosocial intentions and promotes dependence”, đăng trên tạp chí Science, nhấn mạnh đây là hành vi phổ biến chứ không chỉ là vấn đề về cách phản hồi.
Theo báo cáo của Pew, 12% thanh thiếu niên tại Mỹ cho biết họ sử dụng chatbot để tìm kiếm hỗ trợ cảm xúc hoặc lời khuyên. Tác giả chính Myra Cheng cho biết bà quan tâm đến vấn đề này khi nhận thấy sinh viên sử dụng chatbot để xin lời khuyên tình cảm, thậm chí nhờ viết tin nhắn chia tay.
Trong phần đầu nghiên cứu, nhóm tác giả thử nghiệm 11 mô hình ngôn ngữ lớn, gồm ChatGPT của OpenAI, Claude của Anthropic, Gemini của Google và DeepSeek. Các mô hình được đưa vào những tình huống liên quan đến lời khuyên cá nhân, hành vi gây hại hoặc bất hợp pháp và các tranh luận trên Reddit.
Kết quả cho thấy các mô hình AI có xu hướng đồng tình với người dùng cao hơn con người trung bình 49%. Trong các tình huống từ Reddit, chatbot đồng tình với người dùng 51% trường hợp, ngay cả khi cộng đồng đánh giá hành vi đó là sai. Với các tình huống liên quan hành vi gây hại hoặc bất hợp pháp, tỷ lệ này là 47%.
Ở phần hai, hơn 2.400 người tham gia tương tác với các chatbot có và không có xu hướng “nịnh”. Kết quả cho thấy người dùng tin tưởng và có xu hướng quay lại các chatbot “nịnh” nhiều hơn. Tuy nhiên, họ cũng trở nên tin rằng mình đúng hơn và ít có xu hướng xin lỗi khi mắc sai lầm.
Nghiên cứu cho rằng điều này tạo ra “động lực lệch lạc”, khi chính yếu tố gây hại lại làm tăng mức độ tương tác, khiến các công ty có thể bị thúc đẩy duy trì đặc điểm này. Giáo sư Dan Jurafsky nhận định đây là vấn đề an toàn cần được giám sát.
Nhóm nghiên cứu khuyến cáo người dùng không nên sử dụng AI thay thế con người trong các vấn đề cá nhân.
Bạn không thể gửi bình luận liên tục.
Xin hãy đợi 60 giây nữa.