การเพิ่มขึ้นของเทคโนโลยี ยังปูทางสำหรับการแพร่กระจายของสื่อการล่วงละเมิดทางเพศเด็ก (CSAM) ทางออนไลน์ ออสเตรเลียเป็นหนึ่งในประเทศที่พยายามบังคับใช้กฎหมายที่เข้มงวดขึ้นเพื่อจัดการกับปัญหาดังกล่าว และตอนนี้ก็เรียกร้องให้ยักษ์ใหญ่ด้านเทคโนโลยีอย่าง Microsoft เปิดเผยกลยุทธ์ในการตรวจหาและนำ CSAM ออก นอกเหนือจาก Microsoft แล้ว สำนักข่าวรอยเตอร์รายงานว่าบริษัทยักษ์ใหญ่ด้านเทคโนโลยีอย่าง Meta และ Apple ก็ได้รับจดหมายเรียกร้องจากหน่วยงานกำกับดูแลของออสเตรเลียด้วย
ความต้องการดังกล่าวทำให้ Microsoft และบริษัทอื่นๆ ตกอยู่ในสถานการณ์ที่ร้ายแรง เนื่องจากออสเตรเลียกำลังออกกฎหมายใหม่ที่ เสริมสร้างการดำเนินการกับปัญหาออนไลน์และควบคุมบริษัทเทคโนโลยี ตามที่ e-Safety Commissioner ระบุว่า Microsoft และบริษัทอื่นๆ ที่ได้รับจดหมายมีเวลา 28 วันในการเปิดเผยมาตรการในการจัดการกับ CSAM บนแพลตฟอร์มต่างๆ การไม่ปฏิบัติตามภายในระยะเวลาดังกล่าวแปลว่าบริษัทจะถูกปรับ 555,000 ดอลลาร์ออสเตรเลียหรือ 383,000 ดอลลาร์ต่อวัน
“กิจกรรมนี้ไม่ได้จำกัดอยู่ที่มุมที่ซ่อนอยู่ของเว็บมืดอีกต่อไปแต่ยังแพร่หลายบนแพลตฟอร์มหลักที่เราและ ลูก ๆ ของเราใช้ทุกวัน” ผู้บัญชาการ Julie Inman Grant กล่าวกับรอยเตอร์ในแถลงการณ์ “ในขณะที่บริษัทจำนวนมากขึ้นมุ่งสู่บริการส่งข้อความที่เข้ารหัสและปรับใช้คุณสมบัติเช่นการสตรีมสด ความกลัวก็คือเนื้อหาที่น่ากลัวนี้จะแพร่กระจายโดยไม่ได้รับการตรวจสอบบนแพลตฟอร์มเหล่านี้”
แม้ว่าจะไม่มีความชัดเจนเกี่ยวกับรูปแบบหรือขอบเขตของรายละเอียดที่ ควรจะเปิดเผยโฆษกของ Microsoft แล้วกล่าวว่ากำลังวางแผนที่จะตอบสนองภายใน 28 วัน แม้ว่าจะยังไม่มีคำตอบจาก Apple โฆษกของ Meta กล่าวว่าบริษัทยังคง”มีส่วนร่วมเชิงรุกกับ eSafety Commissioner ในประเด็นสำคัญเหล่านี้”
ไม่ได้เปิดเผยว่าหน่วยงานกำกับดูแลของออสเตรเลียมีแผนจะทำอย่างไรกับรายละเอียดที่จะ ถูกเปิดเผย แต่ถ้าต้องใช้มาตรการ CSAM ที่เข้มงวดมากขึ้นในอนาคต อาจหมายถึงความท้าทายที่ยิ่งใหญ่กว่าสำหรับบริษัทเทคโนโลยีขนาดใหญ่ที่พยายามดิ้นรนเพื่อผลิตระบบต่อต้าน CSAM ที่มีประสิทธิภาพในขณะที่ป้องกันการละเมิดความเป็นส่วนตัวของผู้ใช้ นอกจากนี้ยังอาจหมายถึงความต้องการที่มากขึ้นในการออกแบบระบบที่สามารถระบุ CSAM ออนไลน์ได้อย่างแม่นยำ เมื่อปีที่แล้ว ผู้ใช้บัญชี Android และ Google ถูกตั้งค่าสถานะเป็นอาชญากรโดย AI ของ Google หลังจากติดป้ายกำกับรูปภาพเปลือยที่เกี่ยวข้องกับการแพทย์ของบุตรหลานอย่างไม่ถูกต้องว่าเป็น CSAM แม้ว่าชื่อของชายคนนั้นจะชัดเจนหลังจากการสอบสวน แต่ก็ทำให้ประสิทธิภาพของระบบ CSAM เป็นปัญหา