Esta página ha sido traducida usando inteligencia artificial y aprendizaje automático.

(Pocket-lint) - Facebook ha estado informando a la gente esta semana que está haciendo un esfuerzo concertado para analizar el posible sesgo racial que los algoritmos que alimentan gran parte de su red social podrían exhibir.

Se creó un nuevo equipo para estudiar el problema y priorizar la equidad y la igualdad a medida que se desarrollan, prueban e implementan nuevos productos y características. Sin embargo, un nuevo informe de Olivia Solon de NBC está cuestionando la sinceridad de ese cambio.

Revela que algunos investigadores dentro de las filas de Facebook levantaron banderas rojas sobre este tema a mediados de 2019. Los investigadores descubrieron que cuando las herramientas de moderación automática evaluaban las cuentas informadas por infracciones, las cuentas de los negros tenían un 50% más de probabilidades de desactivarse automáticamente que las de los blancos.

Esa es una gran disparidad, y la preocupación de los investigadores se agravó cuando sus superiores jerárquicos aparentemente buscaban anular los resultados y mantenerlos en secreto, en lugar de pasarlos por la cadena de mando y realizar cambios. El informe alega que esto fue parte de un patrón de respuestas a otras investigaciones de este tipo.

La defensa de Facebook sobre esto ha sido en gran medida cuestionar los métodos utilizados en estos esfuerzos de investigación, y ahora establecer su propio grupo de trabajo oficial sobre el tema.

Sin embargo, el informe agrega más agallas al molino de aquellos que sienten que el gigante de las redes sociales simplemente ha tardado en reconocer el problema, y ha permitido que ocurra demasiado daño antes de actuar.

Escrito por Max Freeman-Mills.