Utiliser ChatGPT ou d'autres outils IA avec des données personnelles expose votre entreprise à des risques RGPD significatifs. Les pièges à éviter absolument.
Envoyer des données personnelles de clients ou de collaborateurs dans ChatGPT sans précautions constitue très probablement une violation du RGPD.
Les 5 erreurs RGPD les plus fréquentes avec l'IA
- Erreur 1 : Utiliser des données clients réelles pour entraîner ou tester des modèles IA sans base légale
- Erreur 2 : Partager des données personnelles avec des outils IA dont les serveurs sont localisés hors UE sans garanties adéquates
- Erreur 3 : Ne pas informer les personnes concernées que leurs données sont traitées par un système IA
- Erreur 4 : Prendre des décisions automatisées ayant un impact significatif sur des personnes sans prévoir de recours humain
- Erreur 5 : Ne pas tenir à jour le registre des traitements pour les usages IA
Les bonnes pratiques à mettre en place
- Utiliser des données anonymisées ou pseudonymisées pour les tests et développements IA
- Vérifier les conditions d'utilisation des outils IA et leur localisation des données
- Mettre à jour votre politique de confidentialité pour mentionner les usages IA
- Former vos équipes aux bonnes pratiques d'utilisation des outils IA
- Réaliser une AIPD (Analyse d'Impact relative à la Protection des Données) pour les traitements à risque élevé