Foto: Unsplash

Facebook posee en la actualidad uno de los más grandes catálogos de fotos e imágenes en existencia, debido a los millones de usuarios que a diario suben gran cantidad de material audiovisual.

Cientos de usuarios de Facebook han denunciado que, mientras observaban un video del diario británico The Daily Mail en el que aparecían personas de color, la red social mostraba una etiqueta en la cual se podía leer la frase “continuar viendo videos sobre primates”. Debido a esto, la compañía ha anunciado que ha deshabilitado el algoritmo que generaba la frase y ha iniciado una investigación al respecto.

El video, publicado en junio de 2020, mostraba un enfrentamiento entre policías blancos y manifestantes de color, por lo que no aparecía ningún primate en escena.

Por tal razón, Facebook ha expresado en un comunicado oficial su arrepentimiento por un “error inaceptable” y comenzó a ejecutar acciones para “prevenir que un incidente como este se repita de nuevo”.

En palabras de Daniel Lever, vocero oficial de la compañía, se han hecho esfuerzos para mejorar el algoritmo, aunque están conscientes de que “no es perfecto”.

“Como hemos mencionado, a pesar de que hemos hecho dado grandes pasos para mejorar nuestros dispositivos de inteligencia artificial, sabemos que no es perfecto”, comentó Lever. “Aún tenemos mucho por mejorar. Pedimos nuestras más sinceras disculpas a todo aquel que pueda haber visto estos mensajes y recomendaciones ofensivos”, añadió.

Facebook posee en la actualidad uno de los más grandes catálogos de fotos e imágenes en existencia, debido a los millones de usuarios que a diario suben gran cantidad de material audiovisual. Por ello, ha utilizado este material para alimentar sus algoritmos de inteligencia artificial, los cuales se complementan con las búsquedas de los usuarios y sus hábitos de navegación. Con toda esta información, se generan recomendaciones personalizadas para cada usuario.

A pesar de los progresos realizados, el sistema de reconocimiento facial basado en la inteligencia artificial ha estado en el ojo del huracán desde hace algunos años a causa de diversos fallos que podrían interpretarse como parte de un sesgo racial. Por ejemplo, las personas de color tienen mayores dificultades para ser reconocidas por los sistemas computarizados, llegando incluso a tener consecuencias graves como arrestos erróneos.

Este incidente no es el primero en acaparar la atención mediática. En 2015, la aplicación Google Fotos catalogó como “gorilas” a una serie de imágenes en las cuales aparecían personas negras. El gigante tecnológico tuvo entonces que dar la cara y comunicar su “genuino arrepentimiento”, así como el inicio de labores investigativas para prevenir futuros inconvenientes similares. Según ha trascendido a los medios, la solución encontrada fue eliminar de las búsquedas a palabras como “gorila” o “chimpancé”.