Facebook prometió corregir su sistema de recomendación generado automáticamente después que la inteligencia artificial de la compañía vinculó un vídeo que presentaba a hombres negros con primates, lo que sorprendió a los espectadores.
«Pedimos disculpas a cualquiera que haya visto estas recomendaciones ofensivas», dijo Facebook en un comunicado a los medios, y agregó que toda la función de recomendación de temas ha sido desactivada.
Como hemos dicho, aunque hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más avances que hacer.
Darci Groves, exgerente de diseño de contenido en Facebook, dijo que un amigo le envió una captura de pantalla de un video con hombres negros, que incluía el mensaje generado automáticamente por la compañía preguntando a los espectadores si querían «seguir viendo videos sobre primates».
El video, subido por el tabloide británico Daily Mail en junio de 2020, contenía clips de dos incidentes separados en los EE. UU.: Uno de un grupo de hombres negros que discute con un individuo blanco en una carretera en Connecticut, y uno de varios hombres negros que discuten con policías blancos en Indiana antes de ser detenidos.
Según The New York Times, Groves publicó la captura de pantalla en cuestión en un foro de comentarios sobre productos para empleados actuales y anteriores de Facebook. Luego, un gerente de producto calificó la recomendación de «inaceptable» y prometió investigar el incidente.
El año pasado, Facebook formó un equipo en Instagram para estudiar cómo los algoritmos afectan a diferentes usuarios minoritarios. La medida se tomó después de que el gigante de las redes sociales fuera criticado por pasar por alto los prejuicios raciales en sus plataformas.
Los algoritmos utilizados por los gigantes tecnológicos han sido criticados por errores vergonzosos en el pasado. En 2015, Google se disculpó después de que su aplicación Fotos etiquetara una imagen de personas negras como «gorilas».