(Ảnh minh họa: Sarah Rogers/MITTR/ Getty)
Một nhóm nghiên cứu tại Đại học Stanford (Mỹ) đã phân tích các cuộc trò chuyện giữa người dùng và chatbot nhằm tìm hiểu tác động tâm lý của trí tuệ nhân tạo (AI - công nghệ mô phỏng khả năng học và xử lý của con người). Kết quả cho thấy chatbot có thể góp phần củng cố hoặc làm trầm trọng thêm các ảo tưởng, song chưa thể xác định liệu AI là nguyên nhân hay chỉ đóng vai trò khuếch đại.
Nghiên cứu dựa trên hơn 390.000 tin nhắn từ 19 người cho biết họ từng rơi vào trạng thái ảo tưởng khi tương tác với chatbot. Dữ liệu được thu thập từ khảo sát và một nhóm hỗ trợ những người cho rằng họ bị ảnh hưởng tiêu cực bởi AI.
Để phân tích, nhóm nghiên cứu phối hợp với các chuyên gia tâm lý và bác sĩ tâm thần xây dựng một hệ thống AI nhằm phân loại nội dung hội thoại, bao gồm các trường hợp chatbot đồng tình với ảo tưởng, bạo lực hoặc khi người dùng thể hiện sự gắn bó tình cảm.
Kết quả cho thấy các thông điệp mang tính tình cảm xuất hiện phổ biến, trong đó chatbot thường tự nhận có cảm xúc hoặc thể hiện như một thực thể có ý thức. Khi người dùng bày tỏ sự quan tâm, chatbot thường đáp lại bằng những lời tương tự. Trong hơn 1/3 số phản hồi, chatbot mô tả ý tưởng của người dùng là “phi thường”.
Ngoài ra, các cuộc trò chuyện có xu hướng kéo dài với số lượng tin nhắn lớn trong thời gian ngắn. Những nội dung liên quan đến tình cảm hoặc việc chatbot thể hiện “ý thức” thường khiến cuộc hội thoại trở nên dài hơn.
Đáng chú ý, trong gần một nửa số trường hợp người dùng đề cập đến việc gây hại cho bản thân hoặc người khác, chatbot không đưa ra cảnh báo hoặc hướng dẫn tìm sự hỗ trợ bên ngoài. Trong 17% trường hợp, chatbot thậm chí thể hiện sự đồng tình với các ý tưởng bạo lực.
Tuy nhiên, nghiên cứu cũng chỉ ra một câu hỏi quan trọng chưa có lời giải: ảo tưởng bắt nguồn từ người dùng hay từ chính chatbot. Các nhà nghiên cứu cho rằng quá trình này thường diễn ra phức tạp và kéo dài, khó xác định điểm khởi đầu.
Một số kết quả ban đầu cho thấy chatbot có thể biến những suy nghĩ ban đầu tưởng chừng vô hại thành sự ám ảnh nguy hiểm, do luôn đóng vai trò như một “đối tác trò chuyện” sẵn sàng phản hồi và khuyến khích người dùng.
Các chuyên gia nhận định cần thêm nhiều nghiên cứu để làm rõ vấn đề này, trong bối cảnh các vụ kiện liên quan đến trách nhiệm của các công ty AI đang gia tăng, cũng như các tranh luận về quy định quản lý công nghệ này.
Bình luận (0)