Facebook siết tiêu chuẩn cộng đồng, khóa 2,19 tỷ tài khoản giả

Thùy An-Thứ tư, ngày 19/06/2019 17:00 GMT+7

VTV.vn - Con số tài khoản giả bị vô hiệu hóa trong quý 1/2019 cao gấp hơn 2 lần so với quý IV/2018 là 1,2 tỷ.

Ông Simon Harari - Giám đốc phụ trách Chính sách nội dung, Facebook châu Á - Thái Bình Dương, vừa có cuộc gặp gỡ giới truyền thông Việt Nam để công bố bộ tiêu chuẩn cộng đồng của Facebook và khẳng định các bài viết vi phạm, những tài khoản giả mạo sẽ bị gỡ bỏ nhằm hướng tới mục tiêu một môi trường trong sạch và lành mạnh hơn cho mạng xã hội lớn nhất thế giới.

Vào ngày 23/5 vừa qua, Facebook đã công bố Báo cáo Thực thi tiêu chuẩn cộng đồng lần thứ 3, đồng thời công bố tiến độ việc thực thi 9 lĩnh vực chính sách trong quý IV/2018 và quý 1/2019.

Hiện Facebook có 9 chính sách trong Tiêu chuẩn cộng đồng, đó là: Ảnh khỏa thân người lớn và hoạt động tình dục, bắt nạt và quấy rối, ảnh khỏa thân trẻ em và bóc lột tình dục trẻ em, tài khoản giả, ngôn từ gây thù ghét, hàng hóa bị kiểm soát, spam, hoạt động tuyên truyền khủng bố toàn cầu, nội dung bạo lực và phản cảm. Tất cả các bài viết có liên quan đến các chủ đề này, sẽ bị gỡ bỏ khỏi nền tảng Facebook.

Ông Simon Harari cho biết Facebook đã vô hiệu hóa 1,2 tỷ tài khoản trong quý IV/2018 và 2,19 tỷ trong quý I/2019. Mạng xã hội này đã xây dựng hệ thống máy tự động để xác định các thông tin đăng tải không phù hợp. Trong các trường hợp phát hiện vi phạm tiêu chuẩn cộng đồng, có hơn 95% nội dung được phát hiện trước khi cần người khác báo cáo.

Riêng với ngôn từ kích động thù địch - tiêu chuẩn vốn khó xác định hơn, Facebook cho biết, hệ thống của mình đã phát hiện 65% nội dung mình gỡ bỏ, tăng từ 24% so với lần đầu mạng xã hội nói về nỗ lực này hơn 1 năm trước.

Facebook siết tiêu chuẩn cộng đồng, khóa 2,19 tỷ tài khoản giả - Ảnh 1.

Trong quý I/2019, Facebook đã gỡ bỏ 4 triệu bài viết chứa ngôn từ kích động thù địch

Trong quý I/2019, mạng xã hội này cũng đã gỡ bỏ 4 triệu bài viết chứa ngôn từ kích động thù địch, đồng thời tiếp tục đầu tư vào công nghệ cũng như mở rộng khả năng phát hiện nội dung này ở nhiều ngôn ngữ và khu vực khác nhau.

Về đội ngũ kiểm duyệt nội dung, Facebook hiện có 15.000 nhân viên trên khắp thế giới chịu trách nhiệm xem xét nội dung được báo cáo là có khả năng vi phạm. Đội ngũ này đến từ những đất nước khác nhau và sử dụng hơn 50 ngôn ngữ, bao gồm cả tiếng Việt.

Những người kiểm duyệt nội dung này là một phần của một đội ngũ lớn hơn bao gồm hơn 30.000 người trên khắp thế giới có nhiệm vụ tập trung vào an toàn và bảo mật.

Ông Simon Harari cũng cho biết thêm, mạng xã hội này đang đầu tư nhiều hơn vào trí thông minh nhân tạo (AI) để có thể chủ động phát hiện nội dung vi phạm, bổ sung cho các báo cáo nhận được từ cộng đồng.

* Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam trên TV Online!

Cùng chuyên mục

TIN MỚI

    X

    ĐANG PHÁT

    Bản tin thời tiết chào buổi sáng 3 phút trước