ChatGPT et données personnelles : quels enjeux ?

Qu’est-ce que ChatGPT ?

L’acronyme ChatGPT signifie Generative Pre-trained Transformer, que l’on peut traduire par « Transformateur Générique Pré-entraîné » en français.

ChatGPT est un chatbot. Le dictionnaire Larousse définit le chatbot comme « un programme informatique basé sur l’intelligence artificielle, capable de répondre en temps réel aux questions d’un internaute, faisant ainsi office de conseiller virtuel ». Il est aussi possible d’utiliser le terme d’agent conversationnel pour désigner ce chatbot.

Il a été développé par la société OpenAI, cocréee par Elon Musk en 2015. Il est nécessaire de créer un compte sur le site internet de la société pour l’utiliser. Il existe plusieurs versions de modèles de langage. Le modèle de langage GPT-3.5 est accessible gratuitement contrairement au modèle de langage GPT-4 sortit le 14 mars 2023 qui est réservé aux utilisateurs ayant souscrit un abonnement.

Cet agent conversationnel se distingue des autres chatbots car il dispose de la capacité d’enregistrer les messages précédents lors d’une conversation et il est programmé pour refuser de répondre aux demandes non appropriées.

Il possède de nombreuses fonctionnalités. En effet, il permet aux utilisateurs d’effectuer des corrections et il est capable de générer du texte pour faire un article, de faire la synthèse de documents, de répondre à des questions, de proposer des idées de titres d’articles, de faire des descriptions de produits, d’effectuer des exercices de mathématiques, de rédiger des dissertations et de développer des codes informatiques.

Cependant, comme tout chatbot, ChatGPT peut faire des erreurs. Ainsi, il est fortement recommandé à l’utilisateur de vérifier l’exactitude des informations données par l’IA en se référant à plusieurs sources. Cette vérification est nécessaire car l’intelligence artificielle peut être utilisé par certains acteurs pour diffuser de fausses informations. De plus, il a récemment été révélé que les cybercriminels ont déjà utilisé ChatGPT pour créer des logiciels malveillants.

Outre les craintes d’erreurs techniques ou de détournements de l’IA par les cybercriminels, il existe des préoccupations éthiques. En effet, certaines réponses peuvent être racistes ou sexistes.

Et enfin, il existe aussi des préoccupations morales. L’utilisation de ChatGPT permet aux utilisateurs de gagner du temps dans la rédaction d’articles ou de devoirs. Cependant, l’être humain a besoin de temps pour développer son esprit critique. En effet, il a besoin de temps pour réfléchir à la définition d’un mot, pour rechercher une problématique et pour trouver des arguments.

Or, la personne qui peut obtenir un devoir ou un article entièrement rédigé par ChatGPT ne réfléchit plus. L’utilisation de ChatGPT semble restreindre le développement de la pensée humaine. Ainsi, il faudrait peut-être limiter son utilisation à la recherche de synonymes ou de mots pour enrichir ses phrases plutôt que de l’utiliser pour la rédaction d’un devoir entier ou d’un article entier.

Est-ce que ChatGPT est conforme au RGPD ?

Le règlement général sur la protection des données (RGPD), adopté en 2016, entré en vigueur en mai 2018, s’inscrit dans la continuité de la Loi française Informatique et Libertés (LIL) du 6 janvier 1978.

Il permet de renforcer le contrôle par les citoyens de l’utilisation de leurs données personnelles.

Il s’applique à toute organisation qui traite des données personnelles et qui est présente sur le territoire de l’Union européenne ou qui possède une activité qui cible des résidents européens.

Il y a de plus en plus d’acteurs qui s’interrogent sur la conformité de ChatGPT au RGPD.

L’Italie a été le premier pays a bloqué provisoirement le traitement des données des utilisateurs de la plateforme ChatGPT en vertu des articles 5,6,8,13 et 25 du RGDP. Les manquements retenus sont l’absence d’information fournie aux utilisateurs et aux parties intéressées dont les données ont été collectées par la société, l’absence de base juridique relatif à la collecte de données à caractère personnel, l’inexactitude du traitement des données à caractère personnel des personnes concernées et l’absence de vérification de l’âge des utilisateurs du service ChatGPT.

En France, la Commission Nationale de l’Informatique et des Libertés (CNIL) a reçu, début avril, deux plaintes relatives à l’utilisation des données personnelles sur ChatGPT. La première plainte a été déposé par la présidente de l’association de sensibilisation aux enjeux du numérique Janus International, Zoé Vilain, qui explique que la société américaine à refuser sa demande d’accès à ses informations personnelles et qu’il y a une absence de « conditions générales d’utilisation » et de « politique de confidentialité ». La deuxième plainte a été déposé par le développeur David Libeau qui explique que ChatGPT a fourni de fausses informations.

Au Canada, le Commissariat à la protection de la vie privée a récemment ouvert une enquête sur la société OpenAI.

Ainsi, au vu de ces différents plaintes et enquêtes, il apparaît nécessaire de définir une politique commune relative aux règles de confidentialité lié à l’intelligence artificielle. C’est peut-être ce que réussira à faire le Contrôleur européen de la protection des données (CEPD) qui a mis en place depuis le 13 avril 2023 un groupe de travail sur ChatGPT.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.