IA

Frontier Model Forum : quand les géants de l’IA veulent s’auto-réguler

Les leaders de l'intelligence artificielle générative ont créé le Frontier Model Forum, un groupe d'intérêt qui doit accompagner le développement des IA tout en pesant sur l’élaboration du cadre réglementaire les régissant. 

Les grands acteurs de l’IA sont-ils de bonne foi ? OpenAI (ChatGPT), Microsoft (Bing) et Anthropic (Claude) se sont réunis en un groupe d’intérêt baptisé « Frontier Model Forum », ou forum sur les modèles d’avant-garde. L'objectif ? Développer des modèles d’IA « sûr et responsables », décrit Microsoft dans un communiqué.

Collaborer avec les gouvernements

A en croire la firme de Redmond, ce lobby (appelons un chat un chat) doit « aider à faire progresser la recherche sur la sécurité de l'IA », promouvoir des modèles responsables et identifier et partager les meilleures pratiques de sécurité avec les décideurs politiques, les universitaires et la société civile. Le Frontier Model Forum doit dans un premier temps développer une bibliothèque publique regroupant les solutions illustrant les meilleures pratiques et normes de l’industrie. 

« Nous sommes ravis de collaborer avec l'industrie, la société civile, les gouvernements et le milieu universitaire pour promouvoir un développement sûr et responsable de la technologie. Le Frontier Model Forum jouera un rôle essentiel dans la coordination des meilleures pratiques et le partage de la recherche sur la sécurité de l'IA à l'avant-garde », a déclaré Dario Amodei, PDG d'Anthropic. 

L’IA dans le viseur des régulateurs

La création du Forum intervient une semaine à peine, après que l’administration Biden a obtenu des engagements d’Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI à respecter des principes de sûreté, de sécurité et de confiance. Les acteurs du secteur se sont ainsi engagés à tester leurs programmes, lutter contre la fraude et les cyberattaques puis développer des moyens techniques d’authentifier clairement les contenus générés par des IA. L’Union européenne elle, finalise son règlement sur l’IA qui imposera des obligations aux entreprises du secteur.

Le déploiement rapide des IA génératives suscite de nombreuses inquiétudes à travers le monde et particulièrement en Europe. ChatGPT en a déjà fait les frais en Italie, après avoir été bloqué suite à des soupçons de violation de données personnelles. En France, le chatbot conversationnelle d’OpenAI a fait l’objet de plusieurs dépôts de plainte. En Union europénne, le lancement de Bard a longtemps été retardé dans l’attente d’une étude d’impact imposée par le Règlement général sur la protection des données (RGPD) qui préfigure tout lancement de service pouvant engendrer « un risque élevé pour les droits et libertés », que Google n’avait pas complété.