Ayer, The Verge informó que durante los últimos seis meses, hubo una”falla de clasificación masiva”en el algoritmo de Facebook, lo que causó posibles”riesgos de integridad”para la mitad de todas las vistas de News Feed.
La información proviene de un grupo de ingenieros, quienes encontraron la falla del algoritmo en octubre pasado. Dijeron que cuando fluía un lote de información errónea a través de News Feed, en lugar de bloquear la difusión, el sistema los promocionaba. En efecto, la información errónea que apareció en el News Feed obtuvo un 30% más de visitas. Lo que es extraño, Facebook no pudo encontrar la causa raíz. Solo estaban monitoreando cómo actuaban tales publicaciones. Curiosamente, tales noticias no obtuvieron tantas visitas después de unas semanas de estar en la cima. Los ingenieros de Facebook pudieron corregir el error el 11 de marzo.
La investigación interna de Facebook mostró que el algoritmo de Facebook no podía evitar que se mostraran publicaciones, incluso si consistían en desnudez, violencia, etc. nivel SEV. SEV significa evento de sitio. Sin embargo, esto no es lo peor que puede pasar con el sistema. Aunque es un error de nivel uno, también hay un SEV de nivel cero que se usa para las emergencias más dramáticas.
Facebook ya ha admitido oficialmente que hubo un error. El portavoz de Meta, Joe Osborne, dijo que la empresa”detectó inconsistencias en la reducción de rango en cinco ocasiones distintas, lo que se correlacionó con pequeños aumentos temporales en las métricas internas”.
Según los documentos internos, este problema técnico se introdujo por primera vez en 2019. Sin embargo, en ese momento, no tuvo un impacto notable hasta octubre de 2021.”Rastreamos la causa raíz hasta un error de software y aplicamos las correcciones necesarias”, dijo Osborne.”El error no ha tenido ningún impacto significativo a largo plazo en nuestras métricas”.
Downranking como la mejor manera de mostrar el contenido que necesita
Por el momento, Facebook no ha t explicó qué tipo de impacto tiene en el contenido que se muestra en la sección de noticias. Solo sabemos que el downranking es la forma que utiliza el algoritmo de Facebook para mejorar la calidad de la sección de noticias. Además, Facebook ha estado trabajando activamente en este enfoque, convirtiéndolo en la forma principal de mostrar contenido.
En cierto sentido, este es un enfoque lógico. Queremos decir que las publicaciones sobre guerras e historias políticas controvertidas podrían tener una clasificación alta. Pero en la mayoría de los casos, no coinciden con los términos de Facebook y podrían prohibirse. En otras palabras, como Mark Zuckerberg explicó en 2018, la degradación lucha contra el instinto de obsesión con contenido “más sensacionalista y provocador”. “Nuestra investigación sugiere que no importa dónde tracemos los límites de lo que está permitido, a medida que un contenido se acerca a ese límite, las personas se involucrarán más en promedio, incluso cuando nos digan después que no les gusta el contenido. ”.
Downranking “works” para el llamado contenido “borderline” también. Por lo tanto, Facebook no solo muestra contenido que está cerca de violar sus reglas, sino también contenido que se determina que viola. El sistema de inteligencia artificial de Facebook verifica todas las publicaciones. Sin embargo, más tarde, los empleados correspondientes verifican ellos mismos el contenido”infractor”.
En septiembre pasado, Facebook compartió una lista de contenido degradado. Pero no proporcionó ninguna información sobre cómo la degradación afecta la distribución del contenido afectado. Esperamos que, en el futuro, Facebook sea más transparente en lo que respecta al contenido degradado en la sección de noticias.
¿Tu sección de noticias muestra contenido que te gusta?
Al mismo tiempo, Facebook no pierde la oportunidad de mostrar cómo funciona su sistema de IA. Demuestran que el algoritmo mejora cada año y lucha con éxito contra el contenido, incluido el discurso de odio y similares. Facebook está seguro de que la tecnología es la mejor manera de moderar el contenido hasta tal punto. Por ejemplo, en 2021, anunció oficialmente que rebajaría todo el contenido político en la sección de noticias.
Muchos confirmarían que no ha habido intenciones maliciosas detrás de esta clasificación reciente. Pero el informe de Facebook muestra que cualquier plataforma basada en la web y los algoritmos que utilizan deben ser lo más transparentes posible.
“En un sistema grande y complejo como este, los errores son inevitables y comprensibles”, dijo Sahar Massachi, un ex miembro del equipo de integridad cívica de Facebook. “Pero, ¿qué sucede cuando una poderosa plataforma social tiene una de estas fallas accidentales? ¿Cómo lo sabríamos? Necesitamos transparencia real para construir un sistema sostenible de rendición de cuentas, para que podamos ayudarlos a detectar estos problemas rápidamente”.
Fuente/VIA: