Deze pagina is vertaald met behulp van AI en machine learning.

(Pocket-lint) - Facebook heeft mensen deze week laten weten dat het een gezamenlijke inspanning levert om de potentiële raciale vooringenomenheid te onderzoeken die de algoritmen die zo veel van zijn sociale medianetwerk aandrijven, kunnen vertonen.

Er is een nieuw team opgericht om het probleem te bestuderen en prioriteit te geven aan eerlijkheid en gelijkheid wanneer nieuwe producten en functies worden ontwikkeld, getest en geïmplementeerd. In een nieuw rapport van NBCs Olivia Solon wordt de oprechtheid van die verandering echter in twijfel getrokken.

Het onthult dat sommige onderzoekers binnen de rangen van Facebook al halverwege 2019 alarmsignalen over deze kwestie hebben gehesen. De onderzoekers ontdekten dat wanneer auto-moderatietools accounts beoordeelden die werden gerapporteerd voor overtredingen, de accounts van zwarte mensen 50% meer kans hadden om automatisch te worden uitgeschakeld dan die van blanken.

Dat is een enorme ongelijkheid, en de bezorgdheid van de onderzoekers werd nog groter toen hun hiërarchische superieuren intern blijkbaar probeerden de resultaten te vernietigen en ze geheim te houden, in plaats van ze door te geven aan de commandostructuur en verandering teweeg te brengen. Het rapport beweert dat dit deel uitmaakte van een patroon van reacties op ander soortgelijk onderzoek.

Facebooks verdediging hierop was grotendeels het in twijfel trekken van de methoden die bij deze onderzoeksinspanningen werden gebruikt, en nu om zijn eigen officiële taskforce over deze kwestie op te zetten.

Het rapport voegt echter meer koren toe aan de molen van degenen die vinden dat de socialemediagigant gewoon te traag is geweest om het probleem te erkennen en te veel schade heeft laten gebeuren voordat hij handelde.

Geschreven door Max Freeman-Mills.