เมื่อวาน The Verge รายงานว่าในช่วง 6 เดือนที่ผ่านมา มี”ความล้มเหลวในการจัดอันดับครั้งใหญ่”ในอัลกอริทึมของ Facebook ซึ่งทำให้เกิด”ความเสี่ยงด้านความถูกต้อง”ที่อาจเกิดขึ้นสำหรับครึ่งหนึ่งของการดูฟีดข่าวทั้งหมด
ข้อมูลนี้มาจากกลุ่มวิศวกร ซึ่งพบว่าอัลกอริทึมขัดข้องเมื่อเดือนตุลาคมปีที่แล้ว พวกเขากล่าวว่าเมื่อมีข้อมูลเท็จจำนวนมากไหลผ่านฟีดข่าว แทนที่จะปิดกั้นการแพร่กระจาย ระบบกำลังโปรโมตพวกเขา ผลก็คือ ข้อมูลที่ผิดที่ปรากฏบนฟีดข่าวทำให้มีคนดูเพิ่มขึ้น 30% น่าแปลกที่ Facebook ไม่พบสาเหตุที่แท้จริง พวกเขาเพียงเฝ้าติดตามว่าโพสต์ดังกล่าวมีพฤติกรรมอย่างไร ที่น่าสนใจคือข่าวดังกล่าวไม่ได้มียอดวิวมากนักหลังจากอยู่ด้านบนได้ไม่กี่สัปดาห์ วิศวกรของ Facebook สามารถแก้ไขข้อผิดพลาดได้ในวันที่ 11 มีนาคม
การตรวจสอบภายในของ Facebook พบว่าอัลกอริทึมของ Facebook ไม่สามารถป้องกันการแสดงโพสต์แม้ว่าจะประกอบด้วยภาพเปลือย ความรุนแรง ฯลฯ ภายใน จุดบกพร่องได้รับ ระดับ SEV SEV ย่อมาจาก site event. อย่างไรก็ตาม นี่ไม่ใช่สิ่งเลวร้ายที่สุดที่อาจเกิดขึ้นกับระบบได้ แม้ว่าจะเป็นข้อบกพร่องระดับหนึ่ง แต่ก็มี SEV ระดับศูนย์ที่ใช้สำหรับเหตุฉุกเฉินที่รุนแรงที่สุด
Facebook ได้ยอมรับอย่างเป็นทางการแล้วว่ามีข้อบกพร่อง โจ ออสบอร์น โฆษกของ Meta กล่าวว่าบริษัท “ตรวจพบความไม่สอดคล้องในการลดอันดับในห้าโอกาสที่แยกจากกัน ซึ่งสัมพันธ์กับการเพิ่มขึ้นเล็กน้อยของตัวชี้วัดภายในชั่วคราว”
ตามเอกสารภายใน ปัญหาทางเทคนิคนี้ได้รับการแนะนำครั้งแรกใน พ.ศ. 2562 อย่างไรก็ตาม ในขณะนั้นยังไม่มีผลกระทบที่เห็นได้ชัดเจนจนถึงเดือนตุลาคม พ.ศ. 2564″เราตรวจสอบสาเหตุที่แท้จริงของข้อบกพร่องของซอฟต์แวร์และใช้การแก้ไขที่จำเป็น”ออสบอร์นกล่าว “จุดบกพร่องไม่ได้มีผลกระทบระยะยาวที่มีความหมายต่อตัวชี้วัดของเรา”
การลดอันดับเป็นวิธีที่ดีที่สุดในการแสดงเนื้อหาที่คุณต้องการ
ในขณะนี้ Facebook ยังไม่มี อธิบายผลกระทบที่มีต่อเนื้อหาที่แสดงในฟีดข่าว เรารู้แค่ว่าการลดอันดับเป็นวิธีที่อัลกอริทึมของ Facebook ใช้ในการปรับปรุงคุณภาพของฟีดข่าว ยิ่งไปกว่านั้น Facebook ได้ดำเนินการอย่างเต็มที่ในแนวทางนี้ ซึ่งทำให้เป็นวิธีหลักในการแสดงเนื้อหา
นี่เป็นแนวทางที่สมเหตุสมผลในบางแง่มุม เราหมายถึงโพสต์เกี่ยวกับสงครามและเรื่องราวทางการเมืองที่มีการโต้เถียงอาจมีอันดับสูง แต่โดยส่วนใหญ่แล้ว เงื่อนไขเหล่านี้ไม่ตรงกับเงื่อนไขของ Facebook และอาจถูกแบนได้ กล่าวอีกนัยหนึ่งตามที่ Mark Zuckerberg อธิบายไว้เมื่อปี 2018 การลดอันดับต่อสู้กับสัญชาตญาณของการหมกมุ่น ด้วยเนื้อหาที่ “เร้าใจและเร้าใจมากขึ้น” “การวิจัยของเราชี้ให้เห็นว่าไม่ว่าเราจะลากเส้นสำหรับสิ่งที่ได้รับอนุญาต เมื่อเนื้อหาบางส่วนเข้าใกล้เส้นนั้น ผู้คนจะมีส่วนร่วมกับมันโดยเฉลี่ยมากขึ้น แม้ว่าพวกเขาจะบอกเราในภายหลังว่าพวกเขาไม่ชอบเนื้อหา ”.
การลดอันดับ “ได้ผล” สำหรับเนื้อหาที่เรียกว่า “เส้นเขตแดน” ด้วย ดังนั้น Facebook ไม่ได้แสดงเฉพาะเนื้อหาที่ใกล้จะละเมิดกฎเท่านั้น แต่ยังแสดงเนื้อหาที่ระบุว่าละเมิดด้วย ระบบ AI ของ Facebook จะตรวจสอบโพสต์ทั้งหมด อย่างไรก็ตาม ภายหลัง พนักงานที่เกี่ยวข้องจะตรวจสอบเนื้อหาที่”ละเมิด”ด้วยตนเอง
เมื่อเดือนกันยายนที่ผ่านมา Facebook แชร์รายการเนื้อหาที่ถูกลดอันดับ แต่ไม่ได้ให้ข้อมูลใดๆ ว่าการลดระดับส่งผลกระทบต่อการเผยแพร่เนื้อหาที่ได้รับผลกระทบอย่างไร เราหวังว่าในอนาคต Facebook จะมีความโปร่งใสมากขึ้นเมื่อพูดถึงเนื้อหาที่ถูกลดอันดับบนฟีดข่าว
ฟีดข่าวของคุณแสดงเนื้อหาที่คุณชอบหรือไม่
ในขณะเดียวกัน Facebook ไม่พลาดโอกาสที่จะได้แสดงให้เห็นว่าระบบ AI ทำงานอย่างไร พวกเขาพิสูจน์ว่าอัลกอริทึมนั้นดีขึ้นทุกปีและประสบความสำเร็จในการต่อสู้กับเนื้อหารวมถึงวาจาสร้างความเกลียดชังและสิ่งที่ชอบ Facebook มั่นใจว่าเทคโนโลยีเป็นวิธีที่ดีที่สุดในการกลั่นกรองเนื้อหาในขอบเขตดังกล่าว ตัวอย่างเช่น ในปี 2021 มีการประกาศลดอันดับเนื้อหาทางการเมืองทั้งหมดใน News Feed อย่างเป็นทางการ
หลายคนยืนยันว่าไม่มีเจตนาร้ายอยู่เบื้องหลังการจัดอันดับล่าสุดนี้ แต่รายงานของ Facebook แสดงให้เห็นว่าแพลตฟอร์มบนเว็บและอัลกอริทึมที่ใช้ควรมีความโปร่งใสมากที่สุด
“ในระบบที่ซับซ้อนขนาดใหญ่เช่นนี้ ข้อบกพร่องเป็นสิ่งที่หลีกเลี่ยงไม่ได้และเข้าใจได้” Sahar Massachi กล่าว อดีตสมาชิกของทีม Civic Integrity ของ Facebook “แต่จะเกิดอะไรขึ้นเมื่อแพลตฟอร์มโซเชียลที่ทรงพลังมีหนึ่งในข้อผิดพลาดโดยไม่ได้ตั้งใจเหล่านี้ เราจะรู้ได้อย่างไร? เราต้องการความโปร่งใสอย่างแท้จริงเพื่อสร้างระบบความรับผิดชอบที่ยั่งยืน เราจึงสามารถช่วยให้พวกเขาจับปัญหาเหล่านี้ได้อย่างรวดเร็ว”
Source/VIA: