Facebook dùng công nghệ máy học tự động loại bỏ các nội dung khủng bố

TTXVN-Thứ tư, ngày 18/09/2019 18:11 GMT+7

Hình minh họa (Ảnh: CNET

VTV.vn - Giờ đây, Facebook đã có đủ năng lực về công nghệ máy học để phát hiện nhanh chóng và lọc các hình ảnh bạo lực do các nhóm hoặc cá nhân "nguy hiểm" đăng tải.

Ngày 17/9, trang mạng xã hội Facebook thông báo đã phối hợp với cảnh sát thủ đô London (Anh) phát triển các công cụ sử dụng trí tuệ nhân tạo nhằm ngăn chặn các đoạn video phát trực tiếp về các vụ tấn công khủng bố, giống như vụ xả súng tại nhà thờ Hồi giáo ở New Zealand hồi tháng 3/2019.

Facebook và một số nền tảng mạng xã hội khác như Youtube thường bị chỉ trích vì đã không phát hiện được các nội dung không phù hợp mà chỉ "chạy theo" rút các nội dung đó xuống. Ví dụ như hình ảnh vụ tấn công khủng bố ở Christchurch (New Zealand) chỉ được Facebook rút xuống 12 phút sau khi được phát. Do đó, Facebook đã hợp tác với chính quyền và cơ quan chức năng tại Anh và Mỹ để được cung cấp các hình ảnh bạo lực trong huấn luyện, dùng chúng để dạy hệ thống.

Tuy nhiên, do chưa có một định nghĩa về các tổ chức khủng bố, Facebook đã phải hợp tác với các chuyên gia trong lĩnh vực chống khủng bố, nhân quyền, cảnh sát... để soạn thảo ra tiêu chí về nội dung bị cấm, tiêu chí này tập trung vào hành động của nhóm chứ không phải hệ tư tưởng họ theo đuổi, bao gồm cả nội dung có mục đích hù dọa hay ép buộc con người. Cho đến nay, Facebook thông báo đã cấm 200 tổ chức có tư tưởng phân biệt chủng tộc, coi người da trắng là thượng đẳng và rút 20 triệu nội dung khủng bố.

Facebook cũng cho biết sẽ sử dụng công nghệ máy học cho nền tảng thành công nhất của Facebook là Instagram, nơi có rất nhiều người trẻ tuổi theo dõi, ngoài ra Facebook cũng sẽ mở rộng đến Australia và Indonesia chương trình "lọc" những nội dung tìm kiếm cực đoan, chuyển họ sang một nhóm hỗ trợ đặc biệt.

* Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam trên TV Online!

TIN MỚI

    X

    ĐANG PHÁT

    Bản tin thời tiết chào buổi sáng 3 phút trước