Pocket-lint stöds av sina läsare. När du köper via länkar på vår webbplats kan vi tjäna en affiliate provision. Läs mer

Denna sida har översatts med AI och maskininlärning.

(Pocket-lint) - Facebook har låtit folk veta den här veckan att de gör en samlad insats för att undersöka den potentiella rasförskjutningen som algoritmerna som driver så mycket av sitt sociala medianätverk kan uppvisa.

Det har skapat ett nytt team för att studera frågan och prioritera rättvisa och jämlikhet när nya produkter och funktioner utvecklas, testas och distribueras. En ny rapport från NBC: s Olivia Solon ifrågasätter emellertid uppriktigheten av den förändringen.

Det avslöjar att vissa forskare inom Facebooks rangordnade röda flaggor om denna fråga redan i mitten av 2019. Forskarna fann att när automatiska moderationsverktyg bedömde konton som rapporterats för överträdelser var svarta människors konton 50% mer benägna att automatiskt inaktiveras än vita människors.

Det är en enorm skillnad, och forskarnas oro förstärktes när deras hierarkiska överordnade uppenbarligen försökte upphäva resultaten och hålla dem hemliga, snarare än att skicka dem upp i kedjan av kommandon och handlande förändring. Rapporten hävdar att detta var en del av ett mönster av svar på andra sådana forskningsstycken.

Facebooks försvar mot detta har till stor del varit att ifrågasätta metoderna som används i dessa forskningsinsatser, och nu att inrätta en egen officiell arbetsgrupp i frågan.

Emellertid lägger rapporten till mer grist till fabriken för dem som känner att den sociala mediejätten helt enkelt har varit för långsam att erkänna frågan och har låtit alltför mycket skada inträffa innan de agerar.

Skriva av Max Freeman-Mills. Ursprungligen publicerad den 24 Juli 2020.