Mạng xã hội Facebook không chỉ là nơi giao lưu giữa các cá nhân, mà còn có các nhóm để kết nối những người có cùng sở thích, cùng mối quan tâm về một chủ đề nhất định nào đó. Tuy nhiên, nhiều nhóm kín lại là nơi phát tán và chia sẻ những nội dung gây xấu độc, chưa được kiểm chứng và gây tranh cãi.
Trong thông báo hồi giữa tháng trước, Facebook tuyên bố sẽ đẩy mạnh tìm kiếm, phát hiện và ngăn chặn các thông tin xấu độc, thông tin sai lệch trong các nhóm như vậy.
Mới đây, Facebook thông báo về việc triển khai trên diện rộng những công cụ phát hiện chủ động để tìm kiếm nội dung vi phạm chính sách trong các nhóm trên mạng xã hội, cả riêng tư lẫn công khai. Công cụ này sử dụng trí tuệ nhân tạo AI, quét nội dung vi phạm với độ chính xác còn cao hơn các báo cáo sai phạm từ người dùng mạng xã hội.
Facebook tuyên bố, họ nhắm vào các nhóm đăng tải thông tin không đáng tin cậy về sức khỏe, y tế, các nhóm kích động bạo lực, thù ghét, tuyên truyền thông tin sai lệch, vi phạm quy định cộng đồng.
Công cụ AI cho phép Facebook gỡ bỏ từng bài đăng vi phạm trong nhóm. Nếu nhóm có nhiều bài vi phạm hoặc vi phạm nhiều lần thì cả nhóm sẽ bị xóa. Facebook đã xóa hơn 1 triệu nhóm vi phạm quy định trong năm ngoái.
Facebook cũng đã gỡ bỏ 1,5 triệu nội dung trong các nhóm vì đăng tải thông tin thù ghét hoặc kích động bạo lực. Hơn 90% nội dung bị gỡ bỏ là do công cụ quét nội dung chủ động của mạng xã hội, không phụ thuộc quá nhiều vào hoạt động báo cáo sai phạm từ người dùng.
* Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam trên TV Online!