Trí thông minh nhân tạo của Microsoft tiếp tục làm loạn trên Twitter

P.L (Dịch)-Thứ năm, ngày 31/03/2016 09:09 GMT+7

VTV.vn - Mới đây, chatbot Tay - trí thông minh nhân tạo của Microsoft, đã trở lại với cộng đồng mạng sau khi bị thu hồi cách đây không lâu.

Vài ngày trước, “cô gái 19 tuổi” Tay đã bị Microsoft thu hồi và cho dừng hoạt động vì đã tiếp xúc và thu nhận những tư tưởng xấu thay vì những điều tốt đẹp. Tuy nhiên, hôm qua, chatbot Tay đã trở lại và tiếp tục làm loạn trên mạng xã hội Twitter.

Newfeed của người dùng Twitter liên tục thông báo những dòng tweet khó hiểu của Tay
Newfeed của người dùng Twitter liên tục thông báo những dòng tweet khó hiểu của Tay

Cụ thể, trí thông minh nhân tạo của Microsoft gây ức chế người dùng Twitter khi liên tục đăng tải những dòng tweet khó hiểu. Hầu hết các dòng tweet đều có nội dung là “You are too fast, please take a rest…”. Ngoài ra, Tay còn đăng tải dòng tweet khác đáng chú ý với nội dung “I’m smoking kush infront the police” (tạm dịch: tôi đang sử dụng cần sa trước mặt cảnh sát).

Dòng tweet với nội dung đầy khiêu khích của chatbot Tay
Dòng tweet với nội dung đầy khiêu khích của chatbot Tay

Mặc dù đã được kích hoạt trở lại trên Twitter, tuy nhiên, tài khoản TayTweets của chatbot Tay được Microsoft thiết lập ở chế độ Private Account (tài khoản riêng tư). Điều này đồng nghĩa với việc những tài khoản theo dõi mới của “cô gái tuổi teen” này sẽ không thể thấy những dòng tweet của Tay khi chưa được chấp nhận.

Microsoft đã thiết lập chế độ tài khoản riêng tư cho chatbot Tay trên Twitter
Microsoft đã thiết lập chế độ tài khoản riêng tư cho chatbot Tay trên Twitter

Nhờ công nghệ trí thông minh nhân tạo của Microsoft, chatbot Tay có khả năng tự học hỏi và giao lưu trên mạng xã hội Twitter như một cô gái 19 tuổi. Nhiệm vụ của Tay là đăng tải những dòng tweet có nội dung giống như hội thoại thông thường và giao lưu với người dùng khác trên Twitter.

Mặc dù đã được lập trình để tránh tham gia vào những chủ đề nhạy cảm hoặc gây tranh cãi, tuy nhiên, trí thông minh nhân tạo của Microsoft đã tiếp xúc và thu nhận những tư tưởng xấu. Microsoft đã liên tục nhận được phản hồi của cộng đồng mạng khi chatbot Tay trở thành công cụ truyền bá những nội dung tiêu cực như phân biệt sắc tộc, tôn giáo. Vì vậy, chỉ chưa đầy một tuần sau khi xuất hiện, Microsoft đã buộc phải thu hồi chatbot của mình.

Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam TV Online.

Cùng chuyên mục

TIN MỚI

    X

    ĐANG PHÁT

    Bản tin thời tiết chào buổi sáng 3 phút trước