IA

Des informations confidentielles de Samsung exposées sur ChatGPT

Des employés de Samsung ont enregistré par erreur des informations confidentielles comme données d’apprentissage ouvertes dans ChatGPT.

La boulette. Quelques semaines après l’autorisation faites par Samsung à certains de ses ingénieurs d’utiliser ChatGPT, des données confidentielles de l’entreprise ont été utilisées dans des requêtes faites au chatbot rapporte le média sud-coréen The Economist. Problème : la startup américaine Open AI, derrière ChatGPT, traite le contenu des questions saisies dans son chatbot comme des données d’apprentissage. 

Une fois mais pas deux

Confronté à une erreur de l'exécution du code source d'un programme, un employé de l'entreprise a copié dans ChatGPT ledit code source pour trouver une solution. Un second employé a renseigné des modèles de tests pour détecter des puces défectueuses et un troisième a converti le contenu d’une réunion enregistrée sur son smartphone en un fichier document puis l’a saisi dans ChatGPT, afin de préparer un compte-rendu de réunion. Autant de données qui ont été enregistrées comme données d’apprentissage ouvertes.

Samsung Electronics avait pourtant bien émis un avis à ses équipes pour les enjoindre à « faire attention à la sécurité des informations internes et ne pas saisir d'informations privées ». Le fabricant a pris des mesures d’urgence et a notamment limité la capacité d’entrée dans ChatGPT à un maximum de 1024 octets. Si de tels incidents venaient à se reproduire, l'accès à ChatGPT sera bloqué a prévenu Samsung qui envisage de créer son propre service d'intelligence artificielle (IA) afin d'éviter de tels incidents.