ไม่มีความลับใดที่คำวิจารณ์เกี่ยวกับอัลกอริทึมของ Instagram เมื่อเร็ว ๆ นี้กระตุ้นให้บริษัทเข้าใจวิธีการทำงาน อย่างไรก็ตาม ดูเหมือนว่าอัลกอริทึมของ Instagram จะอยู่ภายใต้การตรวจสอบข้อเท็จจริงอีกครั้ง ตามข้อมูลของ นักวิจัย จาก Stanford University และ University of Massachusetts Amherst กล่าวว่าอัลกอริทึมนี้ไม่ได้เชื่อมโยงกับ “เครือข่ายเฒ่าหัวงู” เท่านั้น แต่ยังส่งเสริมด้วยการอนุญาตให้ผู้ใช้ค้นหาแฮชแท็ก Instagram ที่เกี่ยวข้องกับ CSAM อย่างชัดเจน
นักวิจัยยังค้นพบว่าแฮชแท็กเหล่านี้นำผู้ใช้ไปยังบัญชีที่จำหน่ายสื่อเกี่ยวกับเด็ก ซึ่งรวมถึงวิดีโอที่แสดงภาพเด็กทำร้ายตัวเองหรือมีส่วนร่วมในการกระทำที่ทารุณสัตว์ น่าตกใจที่บางบัญชีให้ตัวเลือกแก่ผู้ซื้อในการ”กระทำการเฉพาะกิจ”หรือจัดการประชุมด้วยตนเอง
“Instagram เป็นพื้นที่บนอินเทอร์เน็ตที่มีการล่วงละเมิดทางเพศเด็กอย่างชัดเจนมากขึ้น แพลตฟอร์มที่สำคัญที่สุดสำหรับเครือข่ายผู้ซื้อและผู้ขายเหล่านี้น่าจะเป็น Instagram” Brian Levine ผู้อำนวยการ UMass Rescue Lab กล่าว
การตอบสนองของ Instagram
เพื่อตอบสนองต่อรายงานที่ก่อกวนนี้ Meta ซึ่งเป็นบริษัทแม่ของ Instagram ได้จัดตั้ง หน่วยงานภายในและเริ่มการสอบสวนอย่างแข็งขัน ยิ่งไปกว่านั้น บริษัทยังพยายามบล็อกเครือข่ายที่เกี่ยวข้องกับเนื้อหาการล่วงละเมิดทางเพศเด็ก (CSAM) และดำเนินการเปลี่ยนแปลงระบบ อย่างไรก็ตาม ข้อเท็จจริงที่ว่า Instagram มักจะเพิกเฉยต่อความพยายามของผู้ใช้ในการรายงานบัญชี CSAM เหล่านี้ และแม้แต่การดูบัญชีที่เกี่ยวข้องกับผู้ขายที่ยังไม่บรรลุนิติภาวะซึ่งเรียกใช้อัลกอริทึมเพื่อแนะนำบัญชีใหม่ ทำให้เกิดความกังวลอย่างมาก
“การแสวงประโยชน์จากเด็กคือ อาชญากรรมที่น่ากลัว เรากำลังค้นหาวิธีอย่างต่อเนื่องเพื่อต่อสู้กับพฤติกรรมนี้” Meta กล่าว
แม้ว่า Meta จะอ้างว่าพวกเขาพยายามค้นหาและลบผู้ใช้ที่เกี่ยวข้องกับการแสวงประโยชน์จากเด็ก โดยอ้างว่ามีการลบบัญชี 490,000 บัญชีที่ละเมิดนโยบายความปลอดภัยของเด็กในเดือนมกราคมปีเดียว รายงานนี้มีขึ้นในช่วงเวลาที่แพลตฟอร์มโซเชียลมีเดีย รวมถึง Instagram ของ Meta ต้องเผชิญกับการตรวจสอบข้อเท็จจริงที่เพิ่มขึ้นเกี่ยวกับความพยายามในการควบคุมและป้องกันการเผยแพร่เนื้อหาที่ไม่เหมาะสม ยิ่งไปกว่านั้น แผนการล่าสุดของ Meta ในการขยายการเข้ารหัสแบบ end-to-end ทำให้หน่วยงานบังคับใช้กฎหมาย เช่น FBI และ Interpol กังวล เนื่องจากอาจขัดขวางการตรวจหาเนื้อหาที่เป็นอันตรายเกี่ยวกับการล่วงละเมิดทางเพศเด็ก