Illustration de perquisition de prompts et gouvernance IA

Perquisition de prompts : Votre gouvernance numérique face aux nouvelles réalités de l'IA

10 novembre 2025 · 12 minutes de lecture

Éléments clés

Les données générées par les IA (prompts, historiques, métadonnées) peuvent être visées par une perquisition judiciaire.

Les entreprises utilisatrices doivent adapter leur gouvernance et leurs analyses de risques aux lois applicables.

Une politique interne sur l'usage des IA devient un outil de conformité essentiel.

Le cadre canadien permet déjà des réquisitions semblables à celles observées aux États-Unis.

Table des matières

Vos prompts ne sont pas protégés

De nombreux clients se posent des questions sur la souveraineté numérique, la confidentialité des données sensibles et les risques posés par l'utilisation de l'IA en interne. Il paraît important de rappeler une vérité : votre empreinte numérique n'est pas à l'abri des regards. En octobre 2025, en guise de rappel, les autorités américaines ont émis un mandat de perquisition fédéral visant les données d'un utilisateur de ChatGPT. OpenAI a été contrainte de divulguer les enregistrements de conversation, métadonnées et informations de compte de cet utilisateur, soupçonné dans une enquête criminelle. Cette affaire nous rappelle qu'un prompt peut devenir un élément de preuve et être utilisé pour identifier une personne réelle.

Les entreprises québécoises et canadiennes adoptent massivement les outils d'IA générative pour rédiger, coder ou automatiser leurs processus. Chaque interaction avec ces systèmes laisse une empreinte numérique : historique des prompts, données techniques de connexion, et parfois des renseignements sensibles.

Pourquoi c'est important pour votre entreprise

Cette affaire, bien que s'appliquant à un particulier, soulève la question de l'accès à cette empreinte numérique d'une personne physique ou morale, dans le cadre d'une enquête ou d'un litige, civil ou pénal.

Or, il me paraît important de souligner qu'en droit civil la possibilité de découvrir les prompts de la partie adverse existe selon le Code de procédure civile (art. 251s). La mise en preuve des prompts dépendra en grande partie de leur pertinence par rapport aux questions en jeu.

Dans certains cas, les informations conservées sur vos serveurs, dans votre compte utilisateur ou par le fournisseur d'IA, peuvent être réquisitionnées par les autorités. Cela soulève donc des questions majeures de gouvernance, de protection des renseignements personnels et de responsabilité contractuelle pour les entreprises, qui sont responsables des pratiques de leurs employés au travail.

Certaines entreprises peuvent penser qu'interdire l'IA est la solution la plus appropriée, toutefois c'est sans compter sur le "shadow AI", à savoir l'utilisation non autorisée et non supervisée de l'IA par les employés. Comme les équipes juridiques et informatiques ignorent que ces systèmes sont utilisés, les employés peuvent, sans le savoir, exposer l'organisation à des risques importants en matière de sécurité des données, de conformité et de réputation de l'entreprise.

Leçons de gouvernance à retenir

Journalisation et conservation des prompts

Les IA génératives conservent généralement toutes les requêtes et réponses. Or ces journaux peuvent être utilisés à des fins de sécurité, de recherche, ou d'enquête. Une entreprise doit donc sélectionner puis cartographier les outils d'IA qu'elle autorise et définir des règles internes pour tout ce qui a trait à l'utilisation, conservation, destruction, etc des prompts et produits d'IA.

Politiques internes d'utilisation de l'intelligence artificielle

Chaque entreprise doit désormais encadrer l'utilisation de l'IA par ses employés, travailleurs autonomes et partenaires. En raison des risques importants d'une utilisation non encadrée, la direction doit être en mesure d'effectuer des choix éclairés sur les fournisseurs d'IA de l'entreprise et les bonnes pratiques que les gestionnaires doivent inculquer à leurs équipes, pour maximiser l'efficacité tout en minimisant les risques juridiques et opérationnels.

Conformité et protection des renseignements personnels

Utiliser de l'IA générative, comme celles de Mistral, Anthropic ou OpenAI, implique un transfert transfrontalier de renseignements, notamment vers les États-Unis, où les lois (FISA, Cloud Act) permettent l'accès gouvernemental aux données transmises. Pour rappel, dans le cadre de la mise en place d'outils d'IA manipulant des renseignements personnels, il est important de respecter les obligations de la Loi 25, avant de déployer ces outils. Il faut donc :

Responsabilité contractuelle et diligence raisonnable pour les fournisseurs

Les conditions et politiques d'OpenAI précisent que l'entreprise peut accéder et divulguer les conversations des utilisateurs si la loi l'exige. Sur le site web, il existe même un compteur qui informe sur le nombre de requêtes faites par des autorités judiciaires à OpenAI. Cela signifie que toute donnée confidentielle introduite dans ChatGPT peut être légalement exposée. Dans la mesure du possible, les directions juridiques doivent négocier des clauses de notification et des engagements de confidentialité renforcés, ou songer à changer de fournisseur d'IA.

Peut-on perquisitionner nos prompts au Canada ?

Oui. Au Canada, le Code criminel (art. 487 et 487.012) permet déjà à un juge d'ordonner la saisie de données numériques détenues par un tiers fournisseur. Toutefois, la Charte canadienne, qui protège contre les fouilles abusives, impose que ces perquisitions soient raisonnables et proportionnées, et reposent sur des motifs sérieux.

Au Québec et au fédéral, la Loi 25 et PIPEDA ajoutent un niveau supplémentaire de contrôle : avant tout transfert de renseignements personnels hors du Québec, l'entreprise doit évaluer les facteurs relatifs à la vie privée et s'assurer que la protection offerte à l'étranger est au moins équivalente. Dans le cas des services technologiques américains, cette équivalence est rarement possible, ce qui impose des mesures d'atténuation (chiffrement, anonymisation, politiques internes).

Bonnes pratiques de gouvernance des IA

Mettre en place une politique interne d'utilisation des IA

Documenter la conformité

Former et sensibiliser les employés

Choisir la bonne version du service

En résumé

Octobre 2025 et l'annonce officielle des perquisitions gouvernementales chez OpenAI est une piqûre de rappel pour la gouvernance numérique des organisations. Les données d'une IA peuvent devenir des preuves judiciaires et la confidentialité des prompts n'est pas absolue. Pour se protéger, les entreprises doivent adapter leurs politiques liées à l'utilisation interne de l'IA par leurs employés et dirigeants. De mon expérience, en matière de gouvernance, la prudence proactive vaut mieux que la réaction légale a posteriori.

Si vous désirez mettre en place de bonnes pratiques protégeant votre organisation contre les dérives de l'IA, Satoshi Legal accompagne de nombreuses PME québécoises avec leurs enjeux technologiques. Nous assistons pour l'implémentation de nouvelles technologies et participons à la mise en place d'une gouvernance des données, incluant la protection des renseignements personnels et l'utilisation de l'IA par les équipes internes.

La gouvernance proactive de l'IA est désormais un impératif légal et stratégique pour toutes les entreprises canadiennes.

  • Erwan Joncheres de Satoshi Legal
  • à propos de l'auteur

    Me Erwan Jonchères, avocat en droit des technologies et gouvernance numérique, analyse les interactions entre innovation, protection des données et réglementation. Fondateur du cabinet Satoshi Legal, il accompagne les entreprises québécoises dans la mise en œuvre de la Loi 25 et la gouvernance en intelligence artificielle.

Articles reliés

Guide complet sur la Loi 25 au Québec

Découvrez la nouvelle Loi 25 sur la protection des renseignements personnels au Québec. Guide complet pour les entreprises...

L'impact de l'IA sur le droit d'auteur

Analyse des implications juridiques de l'intelligence artificielle sur le droit d'auteur et la propriété intellectuelle...

Comprendre la Loi anti-pourriel canadienne

Guide complet sur la Loi canadienne anti-pourriel (LCAP). Découvrez les obligations et sanctions pour les entreprises...

4.7/5 sur 6 avis

Notez la page