New Delhi, gã khổng lồ truyền thông xã hội Meta hôm thứ Hai cho biết hơn 26,9 triệu nội dung đã được”hành động”trên Facebook trên 10 danh mục vi phạm chủ động ở Ấn Độ trong tháng Tháng 9. Nền tảng chia sẻ ảnh Instagram của nó đã chủ động hành động với hơn 3,2 triệu bức ảnh trên chín danh mục trong cùng thời gian, theo dữ liệu được chia sẻ trong một báo cáo tuân thủ.
Theo các quy tắc CNTT có hiệu lực vào đầu năm nay, các nền tảng kỹ thuật số lớn (với hơn 5 triệu người dùng) phải xuất bản báo cáo tuân thủ định kỳ hàng tháng, đề cập đến chi tiết các khiếu nại đã nhận và hành động được thực hiện trên đó. Nó cũng bao gồm các chi tiết về nội dung bị xóa hoặc vô hiệu hóa thông qua giám sát chủ động bằng các công cụ tự động.
Facebook đã chủ động”xử lý”khoảng 31,7 triệu mẩu nội dung trong tháng 8, trong khi Instagram đã chủ động chống lại khoảng 2,2 triệu mẩu trên chín danh mục trong cùng thời gian.
Hôm thứ Hai, Meta cho biết Facebook đã nhận được 708 báo cáo của người dùng thông qua cơ chế khiếu nại ở Ấn Độ từ ngày 1 đến ngày 30 tháng 9.
“Trong số các báo cáo sắp tới này, chúng tôi đã cung cấp các công cụ để người dùng giải quyết vấn đề của họ trong 589 trường hợp”, báo cáo cho biết.
Các kênh này bao gồm các kênh được thiết lập trước để báo cáo nội dung về các vi phạm cụ thể, các quy trình tự khắc phục nơi họ có thể tải xuống dữ liệu của mình, các cách giải quyết vấn đề tài khoản bị tấn công, v.v.
Từ ngày 1 đến ngày 30 tháng 9, Instagram đã nhận được 418 báo cáo thông qua cơ chế khiếu nại của Ấn Độ.
“Trong những năm qua, chúng tôi đã không ngừng đầu tư vào công nghệ, con người và quy trình để nâng cao hơn nữa chương trình nghị sự của chúng tôi về việc giữ cho người dùng của chúng tôi an toàn và bảo mật khi trực tuyến và cho phép họ tự do thể hiện bản thân trên nền tảng của chúng tôi.
“Chúng tôi sử dụng kết hợp Trí tuệ nhân tạo, báo cáo từ cộng đồng của chúng tôi và nhóm của chúng tôi xem xét để xác định và xem xét nội dung chống lại chính sách của chúng tôi”, người phát ngôn của Meta cho biết.
Tuần trước, công ty mẹ của Facebook đã thay đổi tên thành Meta. Các ứng dụng thuộc Meta bao gồm Facebook, WhatsApp, Instagram, Messenger và Oculus.
Theo báo cáo được công bố vào thứ Hai, hơn 26,9 triệu nội dung do Facebook xử lý trong tháng 9 bao gồm nội dung liên quan đến spam ( 20,3 triệu), nội dung bạo lực và phản cảm (3,4 triệu), ảnh khỏa thân và hoạt động tình dục của người lớn (2,4 triệu) và lời nói căm thù (182.200).
Các danh mục khác mà nội dung được thực hiện bao gồm bắt nạt và quấy rối (89.500 ), tự tử và tự gây thương tích (394.100), cơ quan nguy hiểm ns và cá nhân: tuyên truyền khủng bố (135.400) và các tổ chức và cá nhân nguy hiểm: căm thù có tổ chức (19.600).
Nội dung”đã kích hoạt”đề cập đến số lượng phần nội dung (chẳng hạn như bài đăng, ảnh, video hoặc nhận xét) mà hành động đã được thực hiện do vi phạm các tiêu chuẩn. Hành động có thể bao gồm xóa một phần nội dung khỏi Facebook hoặc Instagram hoặc che ảnh hoặc video có thể làm phiền một số khán giả kèm theo cảnh báo.
Tỷ lệ chủ động, cho biết tỷ lệ phần trăm của tất cả nội dung hoặc tài khoản mà Facebook tìm thấy và gắn cờ bằng công nghệ trước khi người dùng báo cáo chúng, trong hầu hết các trường hợp này dao động từ 78,6-99,9%.
Tỷ lệ chủ động xóa nội dung liên quan đến bắt nạt và quấy rối là 48,7% vì nội dung này mang tính ngữ cảnh và mang tính cá nhân cao. Trong nhiều trường hợp, mọi người cần phải báo cáo hành vi này cho Facebook trước khi Facebook có thể xác định hoặc xóa nội dung đó.
Đối với Instagram, khoảng 3,2 triệu phần nội dung đã được thực hiện trên chín danh mục trong tháng 9 năm 2021.
Điều này bao gồm nội dung liên quan đến tự tử và tự gây thương tích (702.600), nội dung bạo lực và phản cảm (1,7 triệu), ảnh khỏa thân và hoạt động tình dục của người lớn (516.800), bắt nạt và quấy rối (307.000).
Các danh mục khác mà nội dung được kích hoạt bao gồm ngôn từ kích động thù địch (33.600), các tổ chức và cá nhân nguy hiểm: tuyên truyền khủng bố (6.400) và các tổ chức và cá nhân nguy hiểm: căm thù có tổ chức (8.000). PTI SR ABM ABM
FacebookTwitterLinkedin