IA

L’IA, meilleur outil contre la haine et la désinformation ?

Alors que la multiplication des contenus haineux et de fausses informations inquiète, l’Intelligence artificielle est l’arme privilégiée par les médias et Facebook pour la contenir. Les résultats sont flatteurs même si les biais qu’elle peut introduire placent encore l’humain au centre du jeu.

Combien y a-t-il eu de morts du coronavirus durant les trois derniers mois? Pour tenter de répondre à cette question, un grand média national a dû mobiliser deux journalistes à temps plein durant deux jours… pour un résultat erroné ! Un algorithme est arrivé à trouver la bonne réponse… en quelque 15 minutes !

L’algorithme en question est celui de Buster.ai, entreprise française créée en 2019 et dont les algorithmes analysent des phrases tirées de plus de 300 Go de jeux de données, très utile à plusieurs médias nationaux français pour les soulager dans l’océan de données à traiter et les assister dans leur lutte contre la désinformation.

«C’est game-changer», résume Julien Mardas, le cerveau derrière Buster. ai et dont les algorithmes ont permis de gagner le Minds International News Agency Challenge de 2020 et le concours de fact-checking Clef 2020. « On n’a pas vocation à remplacer les fact-checkers et les médias. On leur produit des outils pour avoir des super-pouvoirs », prévient Julien Mardas, enthousiaste à l’idée que ces outils de vérification seront à portée d’utilisation pour l’ensemble des citoyens dans le futur.

À en croire les conclusions d’une étude du cabinet de conseil Gartner, un individu devrait voir plus de fausses informations que de vraies dès 2022 alors que la Commission européenne vient de dévoiler ses règles pour réguler l’utilisation des données par les intelligences artificielles. Les Gafa sont au centre du débat lorsqu’il s’agit de réguler ces données, leurs principaux chefs d’entreprise faisant l’objet d’entretiens toujours plus nombreux de la part des pouvoirs publics américains pour leur tirer les vers du nez quant à leur responsabilité dans le manque de régulation de leurs outils.

Facebook investi dans la bataille

Facebook est à la manœuvre lorsqu’il s’agit de modérer ou de retirer les discours de haine ou les fausses informations, en grande partie grâce à l’Intelligence artificielle. Le réseau a retiré plus de 12 millions de contenus sur Facebook et Instagram et apposé des étiquettes d’avertissement sur 167 millions de contenus sur Facebook et Instagram concernant la Covid-19 et les vaccins.

À l’égard des discours haineux, 26,9 millions de messages ont été retirés au 4ème trimestre de 2020 contre 22,1 millions au 3ème trimestre pour un taux de prévalence – soit la capacité à supprimer un message avant qu’il ne soit signalé – de 97,1% selon les chiffres qui nous ont été communiqués. Le taux de visionnage de contenu haineux est de l’ordre de 0,07 à 0,08 % au 4ème trimestre 2020, contre 0,9 à 0,1% au 3ème trimestre de la même année, signe des mêmes progrès de l’entreprise dans le domaine. La Commission européenne a désigné le 22 juin 2020, lors de la 5e évaluation de son Code de conduite contre les discours haineux, le réseau social comme la plate-forme la plus efficace face aux contenus notifiés, preuve du crédit qu’elle apporte à sa lutte.

À l’image de Buster.ai, Facebook a multiplié les partenariats avec l’AFP, Le Monde, 20 Minutes, France 24 ou l’École supérieure de journalisme de Lille (ESJ Lille) et collabore avec plus de quatre-vingts organismes de fact-checking pour favoriser la propagation d’informations sourcées, éduquer sur les médias et supprimer les deep-fakes. Cette liste d’organismes pourrait s’agrandir avec Buster.ai, actuellement en discussion pour un éventuel partenariat. Malgré ces chiffres flatteurs, Reporters sans Frontières a porté plainte contre Facebook qu’il accuse de laisser fleurir des discours de haine envers plusieurs médias ou de laisser libre cours à un discours complotiste sur le coronavirus, en contradiction avec ses engagements de lutte contre la désinformation.

« Nous soutenons l’idée selon laquelle il y a un besoin de régulation contre les discours de haine. De nouvelles règles sont nécessaires afin d’avoir une approche commune entre plateformes et pour que les entreprises privées ne prennent pas de décisions aussi importantes toutes seules », a indiqué un porte-parole de Facebook France à L’Informaticien. Google n’a pas répondu à nos sollicitations tandis que les délais de publication de cet article ne nous ont pas permis de nous entretenir avec Twitter, deux acteurs importants de l’Intelligence artificielle et de la propagation de contenus.

Le doute, dernier séparateur entre homme et machine

Facebook France loue la capacité de l’IA à « détecter de manière proactive la grande majorité du contenu supprimé », pour justifier de son quasi parfait taux de proactivité : 15000 personnes sont également affectées à la modération de contenu, un chiffre qui a triplé au cours des dernières années nous-a-t-il été indiqué.

Il n’empêche, les ingénieurs en Intelligence artificielle doivent aussi composer avec la faculté qu’elle a de générer des biais. L’expérience Tay, le robot de Google devenu nazi, complotiste et négationniste quelques heures après avoir été mis en service sur Twitter, ou certaines intelligences confondant des personnes de couleur noire avec des singes en ont été les manifestations les plus calamiteuses. « S’il est écrit correctement, un algorithme va sortir une prédiction. Mais ce n’est pas parce qu’il sort une prédiction qu’elle a forcément du sens. Il faut avoir un doute légitime et raisonnable sur ce qu’il fait », indique Emmanuel Martin-Chave, vice-président data chez BlaBlaCar, pour qui un algorithme est à rapprocher du comportement d’un enfant qui apprend à faire du vélo. « Parfois il tombe, parfois il ne tombe pas. Ce que fait son cerveau, c’est que son cerveau l’explique. Un algorithme fait la même chose.»

Lorsque leurs outils introduisent des biais, deux interventions humaines ont alors lieu pour les corriger. D’abord par le concepteur de l’algorithme puis par une intervention extérieure pour valider les décisions d’une entreprise où l’humain est encore présent dans toutes les décisions de ses systèmes. Si l’IA chez BlaBlaCar sert principalement à détecter les fraudeurs, les ingénieurs font également la chasse aux discours de haine. L’entreprise, qui vient de lever 120 millions d’euros, n’exclut pas de renforcer ses besoins en Intelligence artificielle si besoin.

Chez Buster.ai, il est estimé que l’humain n’est meilleur que dans 2,2% des cas, surtout pour les phrases qui comprennent des métaphores, des jeux de mots ou de l’ironie. « Mais cela ne veut pas dire que dans 97,8% des cas, l’IA doit remplacer l’humain », nuance Julien Mardas. Pour lui, les biais sont ceux contenus dans les données. Il fait appel à des linguistes pour vérifier les résultats des modèles et s’assurer qu’ils s’améliorent et apprennent. « L’information, c’est une arme. Notre paradigme, c’est de considérer l’information comme un virus. Les journalistes sont soit l’antivirus, soit le virus. »


Tesla dans la tourmente

De l’autre côté de l’Atlantique, Tesla est dans le viseur des autorités américaines après le décès, à Spring, au Texas, de deux personnes suite à un accident à bord de l’un de ses véhicules. La voiture s’est encastrée à pleine vitesse dans un arbre avant de prendre flamme.

Selon les premiers éléments de l’enquête, les deux personnes étaient assises sur le siège passager avant et à l’arrière de la voiture, relançant le débat sur le rôle du système d’assistance à la conduite, censé faire de manière autonome des tâches comme changer de voie sur l’autoroute, se garer ou s’arrêter à un feu ou lors de la détection d’un obstacle.

Elon Musk a précisé sur Twitter que le mode « AutoPilot » n’avait pas été enclenché. « Il faut conserver la philosophie que l’IA doit être au service de l’homme, qu’il doit lui être impossible de prendre le contrôle sur l’homme et qu’il soit impossible pour un homme de se dédouaner sur elle », prêche Julien Mardas, d’accord avec les positions d’Elon Musk sur le sujet.


La Commission européenne entre dans la danse

La Commission européenne a dévoilé le 21 avril dernier un ensemble de règles et d’actions pour réguler l’Intelligence artificielle, visant à définir un cadre législatif pour contrôler une technologie perçue à la fois comme « un ami ou un ennemi », selon les mots de Thierry Breton, commissaire européen au marché intérieur.

En particulier, la Commission souhaite interdire l’application d’une Intelligence artificielle « susceptible de causer un préjudice physique ou moral à un individu », « d’exploiter une vulnérabilité d’un groupe spécifique de personnes », ainsi qu’une Intelligence artificielle d’identification biométrique. Elle propose également de créer un classement des systèmes d’Intelligence artificielle selon leur risque, allant de haut à minimal. Pour ceux jugés à « haut risque », ils devront passer des tests de conformité avant leur mise sur le marché. « Par ces nouvelles règles, nous pouvons dresser le chemin vers une technologie éthique à l’échelle planétaire et assurer la compétitivité de l’Union européenne. […] Nos règles seront appliquées lorsque la sécurité et les droits fondamentaux des citoyens européens seront en jeu », a averti Margrethe Vestager, commissaire européenne à la concurrence.