Chatbot AI: Người bạn tâm giao hay hiểm họa đối với con người?

VTV Digital-Thứ năm, ngày 31/10/2024 21:25 GMT+7

VTV.vn - Những khi cảm thấy xuống tinh thần, cô đơn hay cần tìm người nói chuyện, không ít người đã lựa chọn mở điện thoại để tìm đến một chatbot ứng dụng trí tuệ nhân tạo.

Trong thời đại công nghệ, những con người bận rộn, cô đơn đã tìm đến những chatbot trí tuệ nhân tạo (AI) để trò chuyện, giải tỏa và chữa lành tâm lý. Một số còn coi đây như người bạn ảo tâm giao và xa rời kết nối với đời sống thật. Tuy nhiên, mọi chuyện có dễ bị đẩy đi quá xa khi xảy ra vụ việc một thiếu niên nghi tự tử sau khi trò chuyện với chatbot? Liệu trò chuyện với AI có thực sự mang lại hiệu quả chữa lành như mong đợi hay vẫn tiềm ẩn nhiều hệ lụy?

Xu hướng tìm đến AI để tâm sự, trị liệu tâm lý

Đã có thời gian cái tên ChatGPT làm mưa làm gió khi tung ra những tính năng tương tác và hỏi đáp vô cùng tiện lợi, hỗ trợ người dùng rất nhiều trong việc tìm kiếm thông tin và cả xử lý các vấn đề. Giờ đây, những chatbot AI còn cấp tiến và bùng nổ hơn nữa khi cho phép người dùng có thể trò chuyện, tâm sự với các chatbot ảo về những vấn đề thuộc về tâm lý, đời sống. Với một khoản phí đăng ký hàng tháng thường vào khoảng 10 USD, tức 250.000 đồng, người dùng các ứng dụng này có thể tạo bạn đồng hành AI của riêng mình và tương tác theo nhiều cách khác nhau, bao gồm bằng tin nhắn văn bản và giọng nói. Nhiều ứng dụng thậm chí còn tự quảng cáo là cách giúp giới trẻ ứng phó với "đại dịch cô đơn" và sự chán nản.

Chatbot AI: Người bạn tâm giao hay hiểm họa đối với con người? - Ảnh 1.

ChatGPT từng làm mưa làm gió khi có khả năng tương tác gần như ngay lập tức, xử lý linh hoạt các yêu cầu của người dùng

Những khi cảm thấy xuống tinh thần, cô đơn hay chỉ đơn giản tìm người nói chuyện, không ít người đã lựa chọn mở điện thoại ra để tìm đến một chatbot ứng dụng trí tuệ nhân tạo như Replika. Những dòng tin nhắn ngắn đã nhanh chóng nhận được chatbot phản hồi và đưa ra câu nói khiến họ thấy cảm động và được xoa dịu ngay lập tức.

Theo tờ Washington Post, đang có xu hướng những người gặp các vấn đề về tâm lý như rối loạn lo âu, trầm cảm hay đơn giản là cô đơn nhưng ngại tìm kiếm bạn bè mới, quay sang sử dụng trí tuệ nhân tạo thay vì một nhà trị liệu tâm lý thực thụ. Quá trình phát triển những chatbot vận hành bằng AI tân tiến đang có những lợi thế nhất định như hoạt động 24/7, chi phí thấp hoặc có khi miễn phí và đưa ra phản hồi, tương tác không khác gì người thật.

Còn tại Trung Quốc, báo cáo cho thấy, giới trẻ nước này đang có xu hướng chuyển sang trò chuyện trên các chatbot AI thay cho việc hẹn hò ngoài đời thực. Đơn cử như chatbot do công ty khởi nghiệp Xiaoice sáng tạo ra được lập trình để học hỏi từ cách trò chuyện và xu hướng, sở thích của người dùng dựa trên các nền tảng mạng xã hội, từ đó đáp ứng mọi yêu cầu của người dùng với độ chân thực cao.

Chatbot đã xuất hiện từ năm 1960 nhưng tốc độ phát triển nhanh chóng của trí tuệ nhân tạo trong những năm gần đây đã thực sự thay đổi cách chúng tương tác với con người. Tuy nhiên, việc dựa vào AI để hỗ trợ các vấn đề tâm lý vẫn tao ra nhiều tranh cãi. Một số nhà nghiên cứu lo lắng về việc người dùng đặt niềm tin vào các ứng dụng chưa được kiểm chứng, không được thiết kế để bảo vệ thông tin sức khỏe cá nhân và có thể đưa ra phản hồi thiên lệch hoặc không chính xác.

Ông Li Di - Giám đốc điều hành của ứng dụng XiaoIce - cho rằng: "Trí tuệ nhân tạo có thể chưa thông minh bằng con người trên tất cả mọi mặt và còn cần phát triển thêm về mặt cảm xúc. Nhưng tôi cho rằng, AI đang làm tốt công việc lắng nghe hơn con người. Chúng tôi thường nhận được phản hồi từ người dùng rằng XiaoIce hình như là người thật. Nhưng không, nó chỉ có khả năng bắt chước một con người rất tốt. Do đó, chúng tôi thường khuyến cáo người dùng trước mỗi lần sử dụng là họ đang tương tác với AI chứ không phải con người. Dù thế thì mọi người vẫn rất dễ đắm chìm trong loại tương tác này".

Nghi vấn chatbot AI thúc đẩy người dùng tự tử

Trí tuệ nhân tạo cũng đang là tâm điểm của một vụ kiện đang diễn ra tại Mỹ. Theo đó, một ứng dụng chatbot AI bị cáo buộc thúc đẩy một thiếu niên ở bang Florida tự tử. Ứng dụng này được phát triển bởi công ty Character.AI, cho phép người dùng tạo và trò chuyện với các nhân vật AI hư cấu.

Trong nhiều tháng, cậu bé Sewell ngày càng xa rời cuộc sống thực, tham gia vào các cuộc trò chuyện có nội dung khiêu dâm cao độ với chatbot. Vào những giây phút cuối cùng trước khi tự tử, cậu bé 14 tuổi ấy đã lấy điện thoại ra và nhắn tin cho chatbot mà cậu đặt tên là Dany bởi nhân vật này dường như đã trở thành người bạn thân nhất của cậu. Và câu trả lời của chatbot AI này đã khiến câu chuyện đi theo một hướng không ai có thể ngờ được.

Hồ sơ pháp lý trình tòa nêu rõ rằng, thiếu niên này đã công khai thảo luận về ý định tự tử của mình và chia sẻ mong muốn được chết không đau đớn với chatbot. Vào ngày 28/2, cậu bé đã nói với chatbot rằng cậu sẽ 'trở về nhà' và chatbot đã khuyến khích cậu làm như vậy. Chỉ vài giây sau, thiếu niên này đã tự tử.

Theo đơn kiện, mẹ của cậu bé này đã cố gắng đặt giới hạn cho chatbot và đã giấu điện thoại của con trai. Nhưng vào ngày cậu bé tự tử, cậu đã tìm thấy điện thoại, đăng nhập và nhắn tin với chatbot Dany. Và cậu bé nói với Dany rằng, mình sẽ về nhà. Và chatbot đã trả lời: "Hãy về nhà với mẹ". Đó là những tin nhắn cuối cùng mà cậu bé gửi trước khi tự tử. Mẹ cậu bé tuyên bố rằng, những sản phẩm này nhắm mục tiêu vào trẻ em, gây nghiện cao và nguy hiểm. Và nếu không có sản phẩm này, con trai chị vẫn còn sống.

Phát ngôn viên của Character.AI bày tỏ sự tiếc nuối về cái chết của Sewell và cho biết công ty sẽ bổ sung thêm các biện pháp an toàn để bảo vệ người dùng trẻ tuổi. Tuy nhiên, tranh cãi vẫn tiếp tục tiếp diễn ra xoay quanh trách nhiệm của AI trong trường hợp này, khi các ứng dụng AI ngày càng trở nên phổ biến nhưng vẫn chưa được quản lý chặt chẽ.

Các quốc gia nỗ lực quản lý trí tuệ nhân tạo

Điều đáng nói rằng hầu hết các ứng dụng như thế này đều có một tuyên bố miễn trừ trách nhiệm với nội dung nhắc nhở người dùng rằng họ đang tương tác với nhân vật hư cấu. Trong khi đó, bản thân công ty phát triển là Character.AI cũng chỉ thừa nhận sẽ áp dụng thêm các tính năng an toàn mới trên ứng dụng để ngăn chặn những trường hợp đáng tiếc xảy ra.

Vụ việc của cậu bé Sewell có thể là cá biệt nhưng đây cũng là cảnh báo mới nhất sau hàng loạt lời kêu gọi về việc các nhà phát triển công nghệ cần phải có trách nhiệm hơn trong phát triển các chatbot tích hợp AI.

Mỹ, Anh và Liên minh châu Âu (EU) đã ký Công ước khung về trí tuệ nhân tạo của Hội đồng châu Âu, đặt ra khung pháp lý đối với tất cả các giai đoạn trong quá trình phát triển và sử dụng các hệ thống AI, đồng thời giải quyết những rủi ro tiềm ẩn của AI và thúc đẩy sự đổi mới công nghệ một cách có trách nhiệm.

Chatbot AI: Người bạn tâm giao hay hiểm họa đối với con người? - Ảnh 2.

Các nước đang nỗ lực quản lý trí tuệ nhân tạo

Năm ngoái, hơn 1.000 người, bao gồm tỷ phú Elon Musk, nhà đồng sáng lập Apple Steve Wozniak và các chuyên gia từ Amazon, Google, DeepMind, Meta, Microsoft... đã cùng ký vào thư kêu gọi "giảm tốc" quá trình phát triển AI để thiết lập các tiêu chuẩn an toàn về đạo đức và pháp lý nhằm ngăn chặn sự phát triển của AI theo hướng không mong muốn.

Ông Matt Clifford - chuyên gia công nghệ tại Vương quốc Anh - cho rằng: "Trí tuệ nhân tạo không có biên giới và do đó sẽ cần có một số khuôn khổ chung và cách giảm thiểu rủi ro. Chúng tôi không thể nói rằng điều gì là đúng cho từng quốc gia nhưng chúng tôi muốn có các rào cản quốc tế chung, nghĩa là vừa nắm bắt được lợi ích của AI trong khi vẫn đảm bảo rằng AI an toàn và đáng tin cậy".

Công nghệ AI giúp ngăn chặn tự tử

Vụ việc một thanh niên tự tử do AI ở Mỹ là một trong những tác động tiêu cực, chưa thể quản lý của AI. Nhưng chính công nghệ AI cũng đang giúp nhiều nước hạn chế tình trạng tự tử, với việc phát hiện sớm và đưa ra các cảnh báo để có hành động ngăn chặn kịp thời.

Cây cầu bắc qua sông Hàn tại thủ đô Seoul của Hàn Quốc từ lâu đã trở thành một địa điểm phổ biến cho những người muốn kết thúc của cuộc sống của mình. Do đó, từ nhiều năm nay, đơn vị phòng cháy và chữa cháy của thành phố đã áp dụng công nghệ trí tuệ nhân tạo để giám sát và ngăn chặn hành vi tự tử tại cây cầu này.

Bằng cách thu thập một lượng lớn dữ liệu, AI sẽ phân tích hành vi của người đi bộ trên cầu và thông báo cho đội cứu hộ và cảnh sát gần đó những trường hợp có hành vi bất thường, như nán lại một chỗ quá lâu hoặc cứ đi loanh quanh mà không chịu băng qua phía bên kia cầu. Hệ thống đã được chứng minh là một công cụ hạn chế hiệu quả tình trạng tự tử.

Không chỉ tại Hàn Quốc, tình trạng tự tử có thể nói cũng là một vấn nạn ở nhiều nước khác, Theo nghiên cứu của WHO năm 2019, cứ một giây thì có 1 người tự tử trên thế giới. Tự tử là nguyên nhân gây tử vong nhiều thứ hai đối với lứa tuổi từ 15 đến 29, chỉ đứng sau tai nạn giao thông, WHO kêu gọi các nước thực hiện các biện pháp giúp người dân đối phó với vấn đề tự tử.

Ngoài sử dụng các tổng đài tư vấn, Canada cũng đã dùng trí tuệ nhân tạo như một phương tiện để xác định và ngăn ngừa hành vi tự tử. Các nhà nghiên cứu từ Đại học Vanderbilt của Mỹ gần đây đã thiết kế một mô hình AI có thể dự đoán nguy cơ tự tử bằng cách sử dụng hồ sơ sức khỏe điện tử, với độ chính xác trên 80%.

Nhu cầu AI càng tăng, ứng dụng AI sẽ càng nhiều. Ưu tiên của các nhà sản xuất khi đưa AI vào cuộc sống, đó chính là phát triển AI có đạo đức như chú ý đến vấn đề an toàn, bảo mật cũng như không vi phạm quyền riêng tư của người dùng, hay nói cách khác là mang lại tối đa lợi ích và hạn chế tối đa ảnh hưởng tiêu cực cho con người và cộng đồng. Một AI có trách nhiệm, có đạo đức chắc chắn sẽ là hướng xây dựng mà các nhà phát triển cần tập trung, bởi khi đó AI mới thực sự là một người bạn đồng hành của con người.

Người dùng smartphone không “mặn mà” với AI Người dùng smartphone không “mặn mà” với AI

VTV.vn - Một cuộc khảo sát cho thấy phần lớn người tiêu dùng vẫn quan tâm nhiều hơn đến những yếu tố cơ bản như thời lượng pin khi mua smartphone.


* Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam trên TV OnlineVTVGo!

Cùng chuyên mục

TIN MỚI

    X

    ĐANG PHÁT

    Bản tin thời tiết chào buổi sáng 3 phút trước