IA

Le Parlement européen adopte sa version de l’IA Act

Le projet de loi durcit encore un peu plus les règles pour les systèmes d’IA et leurs fournisseurs.

C’est une nouvelle étape dans le parcours législatif de l’IA Act. Le parlement européen a adopté, mercredi 14 juin, sa proposition de texte par 499 voix pour, 28 contre et 93 abstentions. Le projet de loi doit garantir que les intelligences artificielles développées et utilisées sur le vieux continent respecteront les « droits et valeurs de l’UE, notamment sur la surveillance humaine, la sécurité, la protection de la vie privée, la transparence, la non-discrimination et le bien-être social et environnemental. » Ce texte est, à ce jour, le plus ambitieux en matière de régulation de l’Intelligence artificielle. 

Interdire les IA présentant un risque « inacceptable »

Le texte met en place des obligations pour les fournisseurs et ceux déployant des systèmes d’IA, en fonction du niveau de risque. Ainsi, les IA générant un risque « inacceptable » seront purement et simplement interdites. A l’image de celles utilisées en Chine, pour la notation sociale. Mais pas que. Le parlement européen a dressé une liste des technologie à proscrire car trop intrusive ou discriminatoire :


- les systèmes d’identification biométriques à distance en "temps réel" dans les espaces accessibles au public


- les systèmes d'identification biométrique à distance "a posteriori", à la seule exception des forces de l'ordre pour la poursuite de crimes graves, et seulement après autorisation judiciaire


- les systèmes d'identification biométrique utilisant des caractéristiques sensibles (par exemple, le genre, la race, l’origine ethnique, le statut de citoyen, la religion, l’orientation politique)


- les systèmes de police prédictive (fondés sur le profilage, la localisation ou le comportement criminel passé)


- les systèmes de reconnaissance des émotions utilisés dans les services répressifs, la gestion des frontières, le lieu de travail et les établissements d’enseignement


- la saisie non ciblée d’images faciales provenant d’internet ou de séquences de vidéosurveillance en vue de créer des bases de données de reconnaissance faciale (ce qui constitue une violation des droits humains et du droit au respect de la vie privée).

Apporter des garanties en matière de transparence

La liste des systèmes dits, à haut risque a également été allongée par les députés. Elle englobe désormais ceux impactant la santé ; la sécurité et les droits fondamentaux des personnes et de l’environnement ; les systèmes d’IA utilisés pour influencer les électeurs et le résultat des élections ; et les IA utilisées dans les systèmes de recommandation exploités par les plateformes de médias sociaux comptant plus de 45 millions d’utilisateurs.

Concernant les systèmes d’IA dits à usage général comme ChatGPT, les fournisseurs auront obligation d’évaluer et d’atténuer les risques dans les domaines de la santé, la sécurité, des droits fondamentaux, de l'environnement, de la démocratie et l'état de droit. Ils devront aussi respecter des règles en matière de transparence et agir contre la génération de contenus illicites. C’est par exemple indiquer lorsqu’un contenu est le fruit d'une IA. Leurs modèles devront aussi être enregistrés dans une base de données de l’Union européenne avant toute mise sur le marché.