Esta página foi traduzida usando IA e aprendizado de máquina.

(Pocket-lint) - O Facebook informou às pessoas nesta semana que está fazendo um esforço conjunto para analisar o potencial viés racial que os algoritmos que alimentam tanto de sua rede de mídia social podem exibir.

Foi criada uma nova equipe para estudar o problema e priorizar a justiça e a igualdade à medida que novos produtos e recursos são desenvolvidos, testados e implantados. No entanto, um novo relatório de Olivia Solon, da NBC, está questionando a sinceridade dessa mudança.

Ele revela que alguns pesquisadores das fileiras do Facebook estavam levantando bandeiras vermelhas sobre esse problema em meados de 2019. Os pesquisadores descobriram que, quando as ferramentas de moderação automática avaliavam as contas relatadas por infrações, as contas dos negros tinham 50% mais chances de serem automaticamente desativadas do que as brancas.

Essa é uma enorme disparidade, e a preocupação dos pesquisadores foi agravada quando seus superiores hierárquicos internamente aparentemente tentaram anular os resultados e mantê-los em segredo, em vez de passar a cadeia de comando e a mudança de ação. O relatório alega que isso fazia parte de um padrão de respostas para outras pesquisas.

A defesa do Facebook sobre isso tem sido em grande parte questionar os métodos usados nesses esforços de pesquisa e agora criar sua própria força-tarefa oficial sobre o assunto.

No entanto, o relatório acrescenta mais importância ao grupo de pessoas que consideram que o gigante da mídia social simplesmente demorou a reconhecer o problema e permitiu que muito dano acontecesse antes de agir.

Escrito por Max Freeman-Mills.