TIN MỚI NHẬN Góc doanh nghiệp

Trí thông minh nhân tạo của Microsoft tiếp tục làm loạn trên Twitter

P.L (Dịch)Cập nhật 09:09 ngày 31/03/2016

VTV.vn - Mới đây, chatbot Tay - trí thông minh nhân tạo của Microsoft, đã trở lại với cộng đồng mạng sau khi bị thu hồi cách đây không lâu.

Vài ngày trước, “cô gái 19 tuổi” Tay đã bị Microsoft thu hồi và cho dừng hoạt động vì đã tiếp xúc và thu nhận những tư tưởng xấu thay vì những điều tốt đẹp. Tuy nhiên, hôm qua, chatbot Tay đã trở lại và tiếp tục làm loạn trên mạng xã hội Twitter.

Newfeed của người dùng Twitter liên tục thông báo những dòng tweet khó hiểu của Tay
Newfeed của người dùng Twitter liên tục thông báo những dòng tweet khó hiểu của Tay

Cụ thể, trí thông minh nhân tạo của Microsoft gây ức chế người dùng Twitter khi liên tục đăng tải những dòng tweet khó hiểu. Hầu hết các dòng tweet đều có nội dung là “You are too fast, please take a rest…”. Ngoài ra, Tay còn đăng tải dòng tweet khác đáng chú ý với nội dung “I’m smoking kush infront the police” (tạm dịch: tôi đang sử dụng cần sa trước mặt cảnh sát).

Dòng tweet với nội dung đầy khiêu khích của chatbot Tay
Dòng tweet với nội dung đầy khiêu khích của chatbot Tay

Mặc dù đã được kích hoạt trở lại trên Twitter, tuy nhiên, tài khoản TayTweets của chatbot Tay được Microsoft thiết lập ở chế độ Private Account (tài khoản riêng tư). Điều này đồng nghĩa với việc những tài khoản theo dõi mới của “cô gái tuổi teen” này sẽ không thể thấy những dòng tweet của Tay khi chưa được chấp nhận.

Microsoft đã thiết lập chế độ tài khoản riêng tư cho chatbot Tay trên Twitter
Microsoft đã thiết lập chế độ tài khoản riêng tư cho chatbot Tay trên Twitter

Nhờ công nghệ trí thông minh nhân tạo của Microsoft, chatbot Tay có khả năng tự học hỏi và giao lưu trên mạng xã hội Twitter như một cô gái 19 tuổi. Nhiệm vụ của Tay là đăng tải những dòng tweet có nội dung giống như hội thoại thông thường và giao lưu với người dùng khác trên Twitter.

Mặc dù đã được lập trình để tránh tham gia vào những chủ đề nhạy cảm hoặc gây tranh cãi, tuy nhiên, trí thông minh nhân tạo của Microsoft đã tiếp xúc và thu nhận những tư tưởng xấu. Microsoft đã liên tục nhận được phản hồi của cộng đồng mạng khi chatbot Tay trở thành công cụ truyền bá những nội dung tiêu cực như phân biệt sắc tộc, tôn giáo. Vì vậy, chỉ chưa đầy một tuần sau khi xuất hiện, Microsoft đã buộc phải thu hồi chatbot của mình.

Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam TV Online.

VTV1

WWW.VTV.VN - BÁO ĐIỆN TỬ ĐÀI TRUYỀN HÌNH VIỆT NAM.

Tổng biên tập Vũ Thanh Thủy

Phó Tổng biên tập Phạm Quốc Thắng

Giấy phép hoạt động báo chí điện tử số 306/GP-BTTTT cấp ngày 22/02/2012.

Tổng đài VTV: (04) 3.8355931; (04) 3.8355932

Ðiện thoại Báo điện tử VTV: (04) 66897 897 Email: toasoan@vtv.vn

® Cấm sao chép dưới mọi hình thức nếu không có sự chấp thuận bằng văn bản.

Ghi rõ nguồn VTV.vn khi phát hành lại thông tin từ website này.