ChatGPT au travail : légal, mais pas n’importe comment

Temps de lecture : 5 minutes

ChatGPT au bureau : coupable ou juste malin ?

Si tu as déjà utilisé ChatGPT pour reformuler un mail (celui qu’on relit 12 fois parce qu’on a peur d’une faute qui saute aux yeux…), tu n’es clairement pas seul. Dans beaucoup d’équipes, l’IA est devenue le « collègue » silencieux : rapide, dispo, et plutôt doué pour remettre de l’ordre dans nos idées.

Et pourtant… c’est souvent le petit tabou du bureau. On l’utilise, mais on chuchote presque. Un peu comme si on trichait à un contrôle, alors qu’on essaie juste de bosser plus sereinement.

L’article du Journal du Geek pose la question frontalement : utiliser ChatGPT au travail, est-ce vraiment légal ? Spoiler : l’outil n’est pas interdit, mais il y a des zones à respecter. Et quand on est DYS, c’est une bonne nouvelle… à condition d’éviter deux ou trois pièges.

Ce que dit la loi (avec des mots simples)

En France, aucune loi ne dit « interdiction d’utiliser une IA au travail ». Donc, en soi, ouvrir ChatGPT pour t’aider à écrire, résumer, corriger ou structurer un document n’est pas illégal.

Là où ça se complique, c’est que le droit du travail repose sur des principes comme la loyauté envers l’employeur, la confidentialité, et la protection des données. Autrement dit : tu peux utiliser l’outil, mais pas n’importe comment.

Dans la réalité, beaucoup d’entreprises ajoutent leurs propres règles via une charte interne, une politique informatique ou des consignes de sécurité. Et ça, ça compte : si ton entreprise a dit « pas d’IA externe pour les documents clients », alors tu dois suivre cette règle, même si l’IA, elle, reste autorisée par la loi.

Le vrai piège : ce que tu copies-colles

La plus grosse source de problèmes, ce n’est pas “avoir utilisé ChatGPT”. C’est ce que tu lui donnes à manger.

Exemple tout bête (et vécu par pas mal de monde) : tu veux résumer un rapport. Tu copies-colles le document complet. Sauf que le rapport contient des infos internes, des chiffres, un nom de client, ou des données personnelles. Et là, tu viens peut-être de sortir des informations sensibles de ton cadre de travail.

Le Journal du Geek rappelle un point qui revient souvent chez les juristes : selon les services et les paramètres, des données peuvent être stockées ou réutilisées pour entraîner des modèles, ce qui soulève des questions RGPD, de secret des affaires, ou de confidentialité.

Pour te donner une image : utiliser ChatGPT, c’est un peu comme parler à voix haute dans un open space. Si tu parles “méthode”, “style”, “structure”, pas de souci. Si tu balances l’intégralité du fichier client avec noms, adresses et tarifs, ça devient vite gênant.

Est-ce que l’employeur peut savoir ?

Techniquement, oui, un employeur peut repérer certains usages si tu es sur un ordinateur pro ou un réseau pro. Des traces existent : connexions, logs, outils utilisés.

Mais la surveillance n’est pas libre : le Code du travail encadre ce que l’entreprise peut collecter et comment. L’article L1222-4 impose que le salarié soit informé à l’avance de toute collecte d’informations le concernant. Donc pas de “surveillance surprise” posée en douce.

Traduction côté salarié : n’agis pas comme si c’était invisible, et ne mise pas sur le mode ninja. Le meilleur réflexe, c’est la transparence intelligente : connaître la règle, la demander si elle n’existe pas, et proposer un usage cadré.

Cas DYS : l’IA peut vraiment soulager (sans te mettre en danger)

Quand on est dyslexique, dysorthographique, dyspraxique, ou juste “fatigué des mots” à 16h42, l’IA peut être un vrai appui :

  • reformuler un mail pour qu’il soit plus clair et plus pro ;
  • corriger l’orthographe sans te faire perdre le fil ;
  • clarifier une consigne ou résumer une réunion ;
  • proposer un plan de présentation quand ton cerveau part dans 14 directions.

Petite anecdote : j’ai déjà passé 20 minutes à écrire un message ultra simple du type « Je vous envoie le document corrigé ». Sauf que dans ma tête, c’était le mail du siècle, et je voulais zéro faute, zéro maladresse, zéro “ton pas assez pro”. Résultat : surcharge mentale. Une reformulation via IA (sans mettre de contenu sensible) et j’ai retrouvé du temps… et un peu de calme.

Pour démarrer proprement, tu peux utiliser une version officielle via la page de téléchargement de ChatGPT et vérifier, côté entreprise, si une solution interne plus sécurisée existe (certaines boîtes déploient des agents IA hébergés en interne).

Des usages “safe” et des usages à éviter

Pour se simplifier la vie, tu peux classer tes usages en deux paniers :

Plutôt safe (si tu restes vague sur le contexte) :

  • demander une reformulation sans coller le mail d’origine ;
  • faire générer une structure : plan de compte-rendu, trame de présentation ;
  • demander des synonymes, un ton plus positif, plus concis ;
  • résumer un texte public (article, documentation, page web).

À éviter sans validation claire :

  • coller un contrat, un devis, un fichier RH, une base clients ;
  • mettre des données personnelles (nom, adresse, téléphone, numéro de dossier) ;
  • partager des infos stratégiques (prix négociés, roadmap, incidents sécurité) ;
  • envoyer une conversation interne qui contient des détails d’équipe ou de client.

Le sujet “éthique” : et si tout le monde l’utilise en cachette ?

Le texte du JDG dit quelque chose d’assez juste : le débat n’est plus tant “est-ce que les salariés utilisent l’IA ?” que “comment les entreprises vont encadrer un usage devenu banal”.

On le voit déjà : IA dans les messageries, dans les suites bureautiques, dans les outils de gestion de projet… c’est en train de devenir aussi intégré qu’un correcteur automatique.

Mais cette banalisation crée une situation bizarre : des personnes l’utilisent discrètement, en pensant gagner en efficacité, tout en prenant des risques par manque de cadre.

Et ça rejoint un autre article qui circulait pas mal : pourquoi certains désinstallent l’appli ChatGPT. Pas parce que l’IA est “mal”, mais parce que les questions de confiance, de données et d’usage réel au quotidien reviennent vite sur la table.

Mini-checklist DYSCLICK avant d’utiliser l’IA au travail

  • Regarde la règle interne : charte informatique, consignes RGPD, politique sécurité.
  • Ne colle pas de données sensibles : si tu as un doute, c’est non.
  • Anonymise : remplace les noms par “Client A”, “Produit B”, “Ville X”.
  • Utilise l’IA pour la forme : ton, clarté, plan, correction… plutôt que contenu confidentiel.
  • Garde la main : relis, vérifie, adapte à ta situation réelle.
  • Si tu es DYS, assume l’outil : l’IA peut être un aménagement de fait, comme un correcteur ou une synthèse vocale. Le but, c’est de produire un travail clair, pas de souffrir en silence.

Conclusion : oui, mais avec des garde-fous

Utiliser ChatGPT au travail n’est pas illégal en France. Le vrai sujet, c’est la confidentialité, les données personnelles, et les règles internes. Pour nous, côté DYS, l’IA peut être un vrai soutien pour écrire plus facilement, gagner du temps, et réduire la charge mentale… tant qu’on ne transforme pas le chatbot en photocopieuse de documents sensibles.

Et toi, au boulot, c’est “IA assumée” ou “IA en mode discret” ? Tu aimerais que ton entreprise pose une charte claire, ou tu préfères que chacun se débrouille ?

Partagez :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut