Diese Seite wurde mit KI und maschinellem Lernen übersetzt.

(Pocket-lint) - Facebook hat die Leute diese Woche darüber informiert, dass es konzertierte Anstrengungen unternimmt, um die potenzielle rassistische Tendenz zu untersuchen, die die Algorithmen, die so viel von seinem Social-Media-Netzwerk antreiben, aufweisen könnten.

Es wurde ein neues Team zusammengestellt, um das Problem zu untersuchen und Fairness und Gleichheit zu priorisieren, wenn neue Produkte und Funktionen entwickelt, getestet und bereitgestellt werden. Ein neuer Bericht von Olivia Solon von NBC stellt jedoch die Aufrichtigkeit dieser Änderung in Frage.

Es zeigt sich, dass einige Forscher in Facebooks Reihen bereits Mitte 2019 rote Fahnen zu diesem Thema hissten. Die Forscher fanden heraus, dass bei der Bewertung von Konten, die wegen Verstößen gemeldet wurden, die Konten von Schwarzen mit einer um 50% höheren Wahrscheinlichkeit automatisch deaktiviert wurden als die von Weißen.

Das ist eine enorme Ungleichheit, und die Besorgnis der Forscher wurde noch größer, als ihre hierarchischen Vorgesetzten anscheinend intern versuchten, die Ergebnisse zu unterdrücken und sie geheim zu halten, anstatt sie an die Befehlskette und den Handlungswechsel weiterzugeben. In dem Bericht wird behauptet, dass dies Teil eines Musters von Antworten auf andere derartige Forschungsarbeiten war.

Die Verteidigung von Facebook bestand hauptsächlich darin, die bei diesen Forschungsbemühungen verwendeten Methoden in Frage zu stellen und nun eine eigene offizielle Taskforce zu diesem Thema einzurichten.

Der Bericht fügt jedoch der Mühle derer, die der Meinung sind, dass der Social-Media-Riese einfach zu langsam war, um das Problem anzuerkennen, mehr Kern hinzu und hat zu viel Schaden zugelassen, bevor er gehandelt hat.

Schreiben von Max Freeman-Mills.