Facebook ha insistido en que ha tenido éxito en la reducción del discurso de odio en su plataforma.
El gigante de las redes sociales Facebook ha rechazado categóricamente los informes que indican que sus algoritmos solo detectan y eliminan una pequeña porción de las publicaciones dentro de la red que contienen mensajes de incitación al odio.
El diario estadounidense The Wall Street Journal (WSJ) sacó a la luz recientemente un artículo en el que afirma haber tenido acceso a documentos filtrados que sugieren que la tecnología diseñada por la compañía solo descarta un mínimo porcentaje del contenido ofensivo publicado.
Según el WSJ, los documentos internos de Facebook revelan información sobre el ensayo realizado por un equipo de empleados quienes supuestamente descubrieron que los algoritmos fueron exitosos eliminando apenas el 1% de las publicaciones que violan las normas de comportamiento de la red social.
Facebook, sin embargo, a través de su vocería, ha insistido en que ha tenido éxito en la reducción del discurso de odio en su plataforma.
En palabras de Guy Rosen, encargado de la sección de integridad de Facebook, los discursos de odio y la cantidad de vistas que reciben en Facebook han disminuido considerablemente en los últimos tiempos. De acuerdo con cifras de la organización, el discurso de odio actualmente representa el 0.05% de las vistas, y la cantidad de publicaciones se ha reducido un 50% desde principios del presente año.
“La prevalencia es la forma en que medimos nuestro trabajo internamente, y por eso compartimos la misma métrica externamente”, aseveró el directivo.
Rosen también acotó que los algoritmos de Facebook captan y abordan de manera inmediata casi un 98% del contenido eliminado mucho antes de que los usuarios interpongan su denuncia.
El pasado mes de marzo, diversos medios se hicieron eco de la noticia de que una auditoría interna supuestamente habría descubierto que los esfuerzos para eliminar automáticamente las publicaciones ofensivas solo tenía una efectividad estimada del 3 al 5%.
Asimismo, en los últimos días se ha alegado que Facebook ha recortado el número de horas que su personal humano dedica a la comprobación de las denuncias de incitación al odio interpuestas por sus usuarios.
De igual manera, esta modificación de las estrategias para abordar el contenido problemático, que según la prensa habría ocurrido en 2019, solo generó que la empresa fundada por Mark Zuckerberg “dependiera más de la aplicación de las reglas generadas por la inteligencia artificial, y ofreciera al mundo la imagen de un aparente éxito de la tecnología para satisfacer sus estadísticas públicas”, asegura The Wall Street Journal.