
Het oogappeltje van Mark Zuckerberg is helaas weer negatief in het nieuws. Dit keer gaat het over de gezichtsherkenningssoftware van Facebook en een functionaliteit. Facebook-gebruikers kregen de vraag of ze “Video’s over primaten wilde blijven kijken” bij een filmpje waarin zwarte mannen te zien waren. De video had helemaal niets te maken met apen.
Volgens de New York Times begonnen de problemen recent. De video in kwestie, gepost door de Daily Mail, is getiteld: “Witte man belt politie voor zwarte mannen in de jachthaven.” Facebook-gebruikers die de video keken kregen een automatisch gegenereerde pop-up met de vraag.
Facebook schreef in een verklaring dat het om een onaanvaardbare fout gaat. Maar het is niet de eerste keer dat Facebook geconfronteerd werd met beschuldigingen betreffend raciale discriminatie. Ook is de gezichtsherkenningssoftware bekritiseerd door voorvechters van burgerrechten. De problemen van de software zouden vaak gaan om niet witte mensen. In 2020 sloten honderden adverteerders zich aan bij de campagne Stop Hate for Profit. De campagne was georganiseerd door groepen voor sociale rechtvaardigheid, waaronder de Anti-Defamation League (ADL) en Free Press. Dit om Facebook onder druk te zetten om concrete stappen te ondernemen tegen haatzaaiende uitlatingen en verkeerde informatie.
Facebook heeft aangekondigd dat het de functie voor het aanbevelen van onderwerpen heeft uitgeschakeld. De functie zou ervoor moeten zorgen dat video’s in de juiste categorie terecht komen. De uitschakeling is tijdelijk om te kunnen onderzoeken waar het probleem aan ligt.