ChatGPT temporairement interdit en Italie

L’autorité italienne de protection des données personnelles a « imposé une limitation temporaire immédiate » de ChatGPT dans le pays. L’organisme soupçonne des violations de données personnelles.

Le célèbre chatbot d’Open AI ChatGPT ne suscite pas que l’enthousiasme. Vendredi 31 mars, la Garante per la protezione dei dati personali, l’organisme de surveillance de la protection des données en Italie, a temporairement interdit l’accès au chatbot. La décision, avec « effet immédiat », a été justifiée par des soupçons de violations de la vie privée.

Violation de données

L’organisme a déclaré dans son communiqué que ChatGPT avait « subit une violation de données le 20 mars concernant les conversations des utilisateurs et les informations de paiement des abonnés au service payant ». Il est aussi reproché à OpenAI de ne pas avoir informé les utilisateurs dont les données ont fuité.

« Plus important encore, il semble qu'il n'y ait aucune base légale qui sous-tende la collecte et le traitement massif de données personnelles afin de "former" les algorithmes sur lesquels la plateforme s'appuie. », décrit le communiqué.

Absence de limite d’âge  

Alors que le service devrait être interdit aux moins de 13 ans, l’autorité Italienne regrette également l’absence de mécanisme de vérification de l’âge qui pourrait exposer les enfants : « à recevoir des réponses absolument inappropriées à leur âge et à leur niveau de conscience ». 

Open AI devra se conformer à l’ordonnance dans les 20 jours, faute de quoi, elle pourrait se voir infliger une amende jusqu’à 20 millions d’euros ou équivalant à 4% du chiffre d’affaires annuel mondial.

Chatbots et risque cyber

Malgré l’engouement que suscite ChatGPT et plus généralement l’intelligence artificielle, des voix commencent à tempérer l’enthousiasme. Elon Musk et des centaines d’experts ont signé, mercredi 29 mars, une pétition publiée sur futureoflife.org, dans laquelle ils demandent une pause dans la recherche sur les intelligences artificielles. Les signataires, évoquent « des risques majeurs pour l'humanité » et demandent un moratoire jusqu’à la mise en place de système de sécurité, d’autorités réglementaires et d’outils techniques en mesure de distinguer le réel de l’artificiel. Lundi 27 mars, c’est la police européenne Europol qui a averti sur l’exploitation possible des chatbots par les cybercriminels.