IA

Un accord international pour une IA sécurisée

Dix-huit pays ont signé un accord sur les lignes directrices mondiales visant à garantir le développement sécurisé des technologies d'Intelligence Artificielle. Toutefois, les recommandations du texte ne sont pas contraignantes pour les acteurs du secteur.

Dix-huit pays, dont la France et les États-Unis, ont signé un accord international sur le développement de système sécurisé d’IA, ou « secure by design », dont les recommandations ont été élaborées par le National Cyber Security Centre du Royaume-Uni, NCSC du Royaume-Uni et la Cybersecurity and Infrastructure Security Agency (CISA) des États-Unis. Ont également participé des entreprises du secteur et des experts de 21 autres agences et ministères internationaux.

Les signataires se sont entendus pour que les entreprises qui conçoivent et utilisent l’IA la développent et la déploient, le fasse tout en protégeant leurs clients et le grand public contre toute utilisation abusive. L’accord contient des recommandations comme la surveillance des systèmes d’IA contre les abus, la protection des données contre la falsification, ou encore le contrôle des fournisseurs de logiciels et la réalisation de tests avant la mise en ligne.

Quid des données d'entraînement ? 

Le texte semble cependant faire l’impasse sur certains sujets pourtant centraux, comme la manière dont sont collectées et traitées les données qui alimentent et entraînent les grands modèles d’IA, ou encore les utilisations éthiques de ces technologiques.

« Ces lignes directrices marquent une étape importante dans l’élaboration d’une compréhension commune véritablement mondiale des cyber-risques et des stratégies d’atténuation autour de l’IA afin de garantir que la sécurité n’est pas un post-scriptum du développement mais une exigence fondamentale tout au long. », a déclaré Lindy Cameron, PDG du NCSC.

Seulement voilà, l’accord n’est pas contraignant pour les entreprises du secteur et sa portée est, pour l’essentiel, purement symbolique. Au mieux, il démontre une volonté de la part des politiques de réguler le secteur. Les choses pourraient néanmoins bientôt changer en Europe, avec l’IA Act. Actuellement toujours en discussion entre les États membres, il ne devrait pas entrer en vigueur avant plusieurs années.