Cette page a été traduite en utilisant l'IA et l'apprentissage automatique.

(Pocket-lint) - Facebook a fait savoir cette semaine aux gens quil faisait un effort concerté pour examiner les préjugés raciaux potentiels que les algorithmes qui alimentent une grande partie de son réseau de médias sociaux pourraient présenter.

Il a mis en place une nouvelle équipe pour étudier le problème et donner la priorité à léquité et à légalité à mesure que de nouveaux produits et fonctionnalités sont développés, testés et déployés. Cependant, un nouveau rapport d Olivia Solon de NBC remet en question la sincérité de ce changement.

Il révèle que certains chercheurs au sein des rangs de Facebook ont soulevé des signaux dalarme sur ce problème dès la mi-2019. Les chercheurs ont découvert que lorsque les outils de modération automatique évaluaient les comptes signalés pour des infractions, les comptes des Noirs étaient 50% plus susceptibles dêtre automatiquement désactivés que les Blancs.

Cest une énorme disparité, et linquiétude des chercheurs a été aggravée lorsque leurs supérieurs hiérarchiques ont apparemment cherché en interne à annuler les résultats et à les garder secrets, plutôt que de les transmettre dans la chaîne de commandement et dagir en faveur du changement. Le rapport allègue que cela faisait partie dun modèle de réponses à dautres recherches de ce type.

La défense de Facebook à ce sujet a été en grande partie de remettre en question les méthodes utilisées dans ces efforts de recherche, et maintenant de mettre en place son propre groupe de travail officiel sur la question.

Cependant, le rapport ajoute plus deau au moulin de ceux qui estiment que le géant des médias sociaux a simplement tardé à reconnaître le problème et a laissé trop de mal se produire avant dagir.

Écrit par Max Freeman-Mills.