L'algorithme de Facebook associe des personnes noires avec des primates

Une capture d'écran diffusée sur Twitter par une ancienne designer de l'entreprise d'un article de 2020 du Daily Mail montre une vidéo avec des protagonistes noirs. En dessous, l'algorithme de recommandation demande si l'utilisateur veut "continuer à voir des vidéos de primates". Celui-ci a été retiré et Facebook s'est excusé. 

C'est une affaire embarrassante pour Facebook.

Le réseau social a fait fonctionner un algorithme qui a associé des personnes de couleur noire à des "primates", a révélé le New York Times, vendredi 3 septembre 2021, après que Darci Groves, une ancienne designer de l'entreprise, a publié une capture d'écran du problème, sur son compte Twitter, le 2 septembre 2021 et qualifiée le problème de "scandaleux".

La capture d'écran montre un article du journal britannique Daily Mail et intitulé "un homme blanc appelle les flics contre des hommes noirs à la marina". Il montre plusieurs personnes humaines. En dessous de la vidéo figure une suggestion de Facebook proposant de "Voir plus de vidéos de primates" avec les options "Oui" ou "Rejeter". 

"Une erreur inacceptable"

«C’est clairement une erreur inacceptable», a réagi une porte-parole de Facebook, sollicitée par l’Agence France-Presse. «Nous présentons nos excuses à quiconque a vu ces recommandations insultantes», a-t-elle ajouté. L'entreprise a assuré avoir retiré l'algorithme et ouvert une enquête sur les causes du problème.

Pour les détracteurs de l'entreprise, cette erreur est une preuve de plus que l'entreprise ne lutte pas assez contre le racisme et les discriminations et participe d'un culture "hostile à tout ce qui n'est pas blanc" comme l'avait souligné un groupe d'employés dans un mémo sur Médium et publié en novembre 2019. 

L'affaire souligne à nouveau les errements et certaines limites de l'intelligence artificielle, très utilisée chez Facebook, notamment dans le cas de la lutte contre la haine en ligne. Le réseau a retiré plus de 12 millions de contenus sur Facebook et Instagram et apposé des étiquettes d’avertissement sur 167 millions de contenus sur Facebook et Instagram concernant la Covid-19 et les vaccins, écrivions-nous en juin 2021. 

Le problème n'est pas nouveau pour autant. En 2017, Joy Buolamwini, une informaticienne noire, s’est aperçue qu’elle n’arrivait pas à utiliser un logiciel de reconnaissance faciale, ce dernier n'étant pas capable de détecter sa peau. " Les algorithmes restent majoritairement pensés par des hommes blancs. Des informaticiens alertent sur ces biais algorithmiques, qui excluent parfois des pans entiers de la population", rappelait déjà Brut en janvier 2020.