Sélection de la langue

Recherche

Principes pour des technologies de l’intelligence artificielle (IA) générative responsables, dignes de confiance et respectueuses de la vie privée

Le 7 décembre 2023

Dans le contexte global des progrès continus des technologies d’IA, une version de la technologie a connu un développement particulièrement rapide, une prolifération des cas d’utilisation et, dernièrement, une adoption accrue : l’IA générative. L’IA générative est un sous-ensemble de l’apprentissage automatique dans lequel des systèmes sont entraînés sur des ensembles de grandes quantités de données – qui inclut souvent des renseignements personnels – pour générer du contenu comme du texte, du code informatique, des images, des vidéos ou du contenu audio en réponse à une requête de l’utilisateur. Ce contenu est probabiliste et peut varier même en réponse à de multiples utilisations de requêtes identiques ou similaires.

Les autorités de plusieurs domaines partout dans le monde reconnaissent les risques que pose cette technologie. On notera à cet égard la publication en juin 2023 d’une déclaration commune sur les technologies d’IA générative des autorités du G7 en matière de protection des données et de la vie privéeNote de bas de page 1, la déclaration des dirigeants du G7 de novembre 2023, qui comprenait des principes directeurs et un code de conduite destinés aux organisations qui développent des systèmes d’IA avancésNote de bas de page 2, et la résolution d’octobre 2023 sur les systèmes d’IA générative de l’Assemblée mondiale pour la protection de la vie privéeNote de bas de page 3. Le Commissariat à la protection de la vie privée du Canada (CPVP), ainsi que ses homologues de la Colombie-Britannique, du Québec et de l’Alberta ont également institué une enquête sur un service particulier d’IA générativeNote de bas de page 4. Les autorités responsables de la protection de la vie privée de pays du monde entier ont en effet récemment appelé les organisations à faire preuve d’une grande prudence avant de moissonner des renseignements personnelsNote de bas de page 5 « accessibles publiquement », qui demeurent assujettis aux lois sur la protection des données et de la vie privée dans la plupart des paysNote de bas de page 6. Un tel moissonnage est une pratique courante dans l’entraînement des systèmes d’IA générative. Des autorités responsables de la protection de la vie privée ont également collaboré avec leurs homologues de domaines connexes – comme les commissaires aux droits de la personne – pour demander de solides balises qui garantissent que les systèmes d’IA sont sûrs, transparents et responsables, protègent la vie privée et respectent les droits de la personneNote de bas de page 7.

Bien que les outils d’IA générative puissent poser de nouveaux risques relatifs à la protection de la vie privée, et soulever de nouvelles questions et préoccupations au sujet de la collecte, de l’utilisation et de la communication de renseignements personnels, ils n’échappent pas aux cadres législatifs actuels. Les organisations qui développent, offrent ou utilisent l’IA générative sont tenues de s’assurer que leurs activités sont conformes aux lois et aux règlements applicables au Canada en matière de protection de la vie privée. Les organisations devraient également reconnaître que pour bâtir et maintenir une société numérique dans laquelle l’innovation est socialement bénéfique et la dignité humaine est protégée, le développement et l’utilisation de l’IA doivent être responsables et dignes de confiance.

À propos du présent document

Dans le présent document, nous cernons les considérations relatives à l’application des principes clés de protection de la vie privée aux technologies d’IA générativeNote de bas de page 8. Nous reconnaissons que l’IA générative est un domaine émergent et que notre compréhension de celui-ci évoluera au fil du temps. Les commissaires fédéral, provinciaux et territoriaux à la protection de la vie privée du Canada continueront d’explorer ce sujet complexe et pourraient fournir des conseils ou d’autres ressources à mesure que nous en apprendrons davantage sur la technologie et ses risques, y compris à mesure que les enquêtes officielles liées à la technologie seront terminées.

Les obligations en vertu des lois applicables au Canada sur la protection de la vie privée varieront selon la nature de l’organisation (p. ex. secteur privé ou public, ou secteur de la santé) et les activités qu’elle entreprend. Par conséquent, bien que nous utilisions le terme « devrait » dans le présent document, le respect de bon nombre des considérations énumérées sera nécessaire pour qu’une organisation soit conforme aux lois relatives à la protection de la vie privée. Il incombe aux organisations de comprendre et de respecter ces lois. Nous soulignons également que les principes énoncés ci-dessous ne correspondent pas à la totalité des exigences de conformité en vertu des lois sur la protection de la vie privée et d’autres lois, et ne lient pas les enquêtes ou les décisions spécifiques des commissaires fédéral, provinciaux ou territoriaux à la protection de la vie privée du Canada, selon les circonstances individuelles de chaque cas.

Public cible du présent document

Le présent document vise à aider les organisations qui développent, fournissent ou utilisent l’IA générative à mettre en œuvre les principes canadiens clés en matière de protection de la vie privée. Dans le présent document, nous utilisons la terminologie suivante.

Développeurs et fournisseursNote de bas de page 9 : Personnes ou organisations qui développent (incluant l’entraînement) des modèles de base ou des systèmes d’IA générative, ou qui mettent de tels services sur le marché. Bref, les organisations qui déterminent la façon dont un système d’IA générative fonctionne, la façon dont il est initialement entraîné et évalué, et la façon dont il peut être utilisé.

Organisations utilisant l’IA générative : Organisations (ou personnes agissant au nom d’une organisation) qui utilisent un système d’IA générative dans le cadre de leurs activités. Cet usage pourrait comprendre à la fois des utilisations publiques (comme un assistant virtuel fondé sur l’IA générative pour interagir avec les clients) ou des utilisations privées (comme l’utilisation de l’IA générative dans le cadre d’un système décisionnel). Les organisations qui perfectionnent un modèle de base à une fin précise (par exemple en entraînant par la suite ce modèle à partir d’un ensemble de données appartenant à l’organisation) sont incluses dans cette catégorie.

Une organisation peut changer de rôle ou jouer plusieurs rôles à la fois. Les activités entreprises (y compris la collecte, l’utilisation ou la communication de renseignements personnels) par une organisation varieront également selon qu’elle fasse partie d’un groupe ou d’un autre. Toutefois, la division des groupes en « développeurs et fournisseurs » d’une part, et en « organisations utilisant l’IA générative » d’autre part est un moyen utile pour examiner l’application des principes de protection de la vie privée à de multiples éléments de l’écosystème de l’IA générativeNote de bas de page 10.

Par souci de clarté, il convient de souligner que les présents Principes mettent l’accent sur les lois et les règlements sur la protection de la vie privée, et sur la façon dont ils peuvent s’appliquer aux organisations. Toutefois, nous reconnaissons que des personnes ou des organisations peuvent avoir d’autres obligations, restrictions ou responsabilités en vertu d’autres lois, règlements ou politiques.

Considération spéciale : L’incidence particulière sur les groupes vulnérables

Lorsqu’ils appliquent les principes énoncés ci-dessous, les développeurs, les fournisseurs et les organisations qui utilisent l’IA générative devraient tenir compte de leur responsabilité commune de cerner et de prévenir les risques pour les groupes vulnérables, y compris les enfants et les groupes qui ont historiquement vécu de la discrimination ou les conséquences de biais.

Les développeurs, les fournisseurs et les organisations qui utilisent des systèmes d’IA générative doivent tous travailler activement à assurer l’équité de ces systèmes. Au moment du développement d’un système d’IA générative, il est nécessaire d’évaluer les ensembles de données d’entraînement pour garantir qu’ils ne reproduisent pas, ne renforcent pas ou n’amplifient pas les biais historiques ou actuels – ou n’introduisent pas de nouveaux biais. Lorsqu’un tel système est déployé, il pourrait être nécessaire d’établir une surveillance et un examen supplémentaires des extrants, ou une surveillance accrue des effets négatifs potentiels. Sans ces étapes, l’utilisation de modèles et d’applications d’IA générative peut être plus susceptible d’entraîner des résultats discriminatoires fondés sur la race, le sexe, l’orientation sexuelle, le handicap ou d’autres caractéristiques protégées, en particulier lorsqu’ils sont utilisés dans le cadre d’un processus décisionnel administratif (que ce processus soit entièrement automatisé ou non) ou dans des contextes aux incidences élevées comme les soins de santé, l’emploi, l’éducation, les services de police, l’immigration, la justice pénale, le logement ou l’accès au financement.

Les enfants courent un risque particulièrement élevé d’impact négatif important des technologies d’IA, y compris l’IA générative. Ils peuvent être moins en mesure que les adultes de cerner ou de remettre en question des renseignements biaisés ou inexacts, ou être plus enclins à voir leur action limitée par une IA qui génère de l’information fondée sur une vision restreinte du monde. Les enfants devraient être en mesure de profiter de la technologie en toute sécurité et sans craindre d’être ciblés ou manipulés, ou encore de subir un préjudice. Les jeunes sont également en général moins à même de comprendre et de réaliser les conséquences à long terme de la collecte, de l’utilisation et de la communication de leurs données. C’est pourquoi ils ont besoin de mesures de sécurité encore plus importantes en matière de protection de la vie privée.

Les développeurs, les fournisseurs et les organisations qui utilisent des outils d’IA générative devraient travailler ensemble à s’assurer que les risques auxquels font face les populations vulnérables sont atténués, notamment au moyen de mesures de protection importantes comme des évaluations des facteurs relatifs à la vie privée.


Principes pour le développement, l’offre et l’utilisation de systèmes d’IA générative

1. Pouvoir légal et consentement

S’assurer de disposer des assises légales permettant de recueillir et d’utiliser des renseignements personnels; lorsque le consentement est l’assise légale, il devrait être valide et valable.

Toutes les parties devraient :

  • connaître et documenter les assises légales en matière de collecte, d’utilisation, de communication et de destruction de renseignements personnels faites dans le cadre de l’entraînement, du développement, du déploiement, de l’exploitation ou de la mise hors service d’un système d’IA générative;
  • s’assurer que lorsque le consentement est l’assise légale pour recueillir, utiliser ou communiquer des renseignements personnels, il est valide et valableNote de bas de page 11. Le consentement devrait être aussi précis que possible et les pratiques trompeuses devraient être évitées;
  • s’assurer que lorsque des renseignements personnels proviennent de tiers, ces tiers les ont recueillis légalement et sont autorisés à les communiquer;
  • se rappeler que l’inférence d’information au sujet d’une personne identifiable (comme les extrants sur une personne provenant d’un système d’IA générative) sera considérée comme une collecte de renseignements personnels et, par conséquent, nécessiterait une assise légale la permettant;
  • dans les contextes où l’information est sensible et où l’obtention d’un consentement (même lorsqu’il est fourni) peut être inapproprié ou inadéquat, comme dans le domaine des soins de santé, établir une procédure d’évaluation distincte qui tient compte à la fois de la protection de la vie privée et de l’éthique de l’utilisation proposée de l’information, et qui fait l’objet d’une surveillance indépendante.

2. Fins appropriées

La collecte, l’utilisation et la communication de renseignements personnels ne devraient être qu’à des fins appropriées.

Toutes les parties devraient :

  • veiller à ce que toute collecte, utilisation ou communication de renseignements personnels associés à un système d’IA générative soit effectuée à des fins appropriées. Dans de nombreuses administrations canadiennes, cela signifie à des fins qu’une personne raisonnable jugerait appropriées dans les circonstancesNote de bas de page 12.
  • tenir également compte de la légitimité de la manière de recueillir, d’utiliser et de communiquer des renseignements personnels dans le cadre d’un système d’IA générative. Il s’agit notamment de déterminer si l’utilisation du système d’IA générative convient à son application spécifique;

Les développeurs et les fournisseurs d’IA générative devraient :

  • ne pas développer ou mettre en service des systèmes d’IA générative qui violent des « zones interditesNote de bas de page 13 », comme le profilage qui peut mener à un traitement injuste, contraire à l’éthique ou discriminatoire, ou la création de résultats qui menacent les droits et libertés fondamentaux;
  • utiliser un processus d’évaluation par une équipe adverse ou une équipe rougeNote de bas de page 14 pour repérer les possibles utilisations inappropriées involontaires du système d’IA générative;
  • lorsque des utilisations inappropriées involontaires sont relevées, prendre les mesures propres à atténuer la probabilité de telles utilisations ou les risques associés à celles-ci. Ces mesures pourraient comprendre l’établissement de mesures techniques pour prévenir une utilisation inappropriée ou l’élaboration de politiques d’utilisation appropriée auxquelles les personnes ou les organisations qui utilisent le système d’IA générative doivent adhérer avant son utilisation.

Les organisations utilisant des systèmes d’IA générative devraient :

  • utiliser uniquement des outils d’IA générative qui respectent les lois et les pratiques exemplaires en matière de protection de la vie privée, y compris en ce qui concerne les renseignements personnels recueillis ou utilisés pour l’entraînement ou l’exploitation du système;
  • éviter de demander à un système d’IA générative de réidentifier toute donnée précédemment dépersonnalisée;
  • surveiller et informer les développeurs ou les fournisseurs des utilisations inappropriées potentielles ou des résultats biaisés qui n’ont pas été signalés comme étant une limite potentielle du système;
  • éviter les utilisations inappropriées des outils d’IA générative, y compris les « zones interdites », comme la collecte, l’utilisation ou la communication de renseignements personnels qui sont par ailleurs illégales; le profilage ou la catégorisation susceptibles de donner lieu à un traitement injuste, contraire à l’éthique ou discriminatoire qui est interdit en vertu de la législation sur les droits de la personne; la collecte, l’utilisation ou la communication de renseignements personnels à des fins reconnues comme causant un préjudice important à des personnes ou à des groupes ou susceptibles de le faire, ou les activités reconnues comme menaçant les droits et libertés fondamentaux ou susceptibles de le faire;
  • si l’utilisation d’un système d’IA générative est identifiée comme contrevenant à une « zone interdite », cesser cette utilisation.

« Zones interdites » émergentes potentielles

Des décisions sur la légalité de certaines pratiques – par exemple à la suite d’enquêtes ou de conclusions de droit – n’ont pas encore été rendues dans le contexte de l’IA générative, et les commissaires fédéral, provinciaux ou territoriaux à la protection de la vie privée du Canada n’ont pas non plus émis de positions de principe sur les zones interdites de l’IA générative.

Toutefois, nous prévoyons (sans lier les futures enquêtes, conclusions juridiques ou positions de principe contraignantes) que de telles zones interdites pourraient comprendre des objectifs comme :

  • la création de contenu d’IA (y compris des hypertrucages) à des fins malveillantes, comme contourner un système d’authentification ou générer des images intimes d’une personne identifiable sans son consentement;
  • l’utilisation de robots conversationnels pour inciter délibérément des personnes à communiquer des renseignements personnels (et, en particulier, des renseignements personnels de nature sensible) qu’elles n’auraient pas autrement communiqués;
  • la production et la publication de renseignements faux ou diffamatoires au sujet d’une personne.

3. Nécessité et proportionnalité

Établir la nécessité et la proportionnalité d’utiliser l’IA générative et les renseignements personnels dans les systèmes d’IA générative pour atteindre les objectifs visés.

Toutes les parties devraient :

  • utiliser des données anonymisées, synthétiques ou dépersonnalisées plutôt que des renseignements personnels lorsque ces derniers ne sont pas nécessaires pour atteindre la ou les fins appropriées indiquées.

Les organisations utilisant des systèmes d’IA générative devraient :

  • évaluer si l’utilisation d’un système d’IA générative est nécessaire et proportionnelle, particulièrement lorsqu’elle peut avoir une incidence importanteNote de bas de page 15 sur des personnes ou des groupes. Ainsi, l’outil devrait être plus que simplement potentiellement utile. Cette évaluation devrait être fondée sur des données probantes, et établir que l’outil est à la fois nécessaire et susceptible d’être efficace pour atteindre l’objectif précisé;
  • évaluer la validité et la fiabilité de l’outil d’IA générative par rapport à la fin viséeNote de bas de page 16. Les outils doivent être précis tout au long de leur cycle de vie pour les diverses situations dans lesquelles ils sont utilisés;
  • déterminer s’il existe d’autres technologies protégeant davantage la vie privée qui peuvent être utilisées pour atteindre le même objectif.

4. Transparence

Faire preuve d’ouverture et de transparence au sujet de la collecte, de l’utilisation et de la communication des renseignements personnels et des risques liés à la protection de la vie privée des personnes.

Toutes les parties devraient :

  • informer les personnes des renseignements personnels sur lesquels porte la collecte ainsi que du moyen, du moment et de la raison pour laquelle ils sont recueillis, utilisés ou communiqués à toute étape du cycle de vie du système d’IA générative (y compris le développement, l’entraînement et l’exploitation) dont la partie est responsable. Il s’agit notamment de mentionner les raisons de la collecte, de l’utilisation et de la communication des renseignements en question. Il faut aussi veiller à ce que les extrants du système qui pourraient avoir une incidence importante sur une personne ou un groupe soient indiqués clairement comme étant créés par un outil d’IA générative;
  • s’assurer que toute l’information communiquée au sujet d’un système d’IA générative est conçue pour être compréhensible par le public cible et facilement accessible avant, pendant et après l’utilisation du système.

Les développeurs et les fournisseurs d’IA générative devraient :

  • informer les organisations qui utilisent un système d’IA générative et toute personne qui interagit avec un tel système de l’objectif principal et de tout objectif secondaire, par exemple lorsque les renseignements personnels recueillis à partir de requêtes sont utilisés pour poursuivre l’entraînement ou le perfectionnement d’un modèle d’IA;
  • veiller à ce que les organisations qui utilisent un système d’IA générative soient informées des risques connus ou probables associés à ce système, y compris des cas de défaillance connus ou raisonnablement prévus (comme les entrées ou les contextes pour lesquels le système peut produire des renseignements erronés, particulièrement si ce système sera vraisemblablement utilisé dans le cadre d’un processus de prise de décisions concernant des personnes);
  • informer les organisations qui utilisent un système d’IA générative des politiques et pratiques connues qui pourraient raisonnablement être utilisées pour atténuer les risques identifiés en matière de protection de la vie privée lorsque le développeur ou le fournisseur ne peut pas mettre en œuvre lui-même ces politiques ou ces pratiques;
  • maintenir et publier la documentation sur les ensembles de données utilisés pour développer ou entraîner l’outil d’IA générative, y compris les sources des ensembles de données, l’assise légale pour leur collecte et leur utilisation, l’existence d’accords de licence ou les autres restrictions sur les utilisations appropriées des ensembles de données, et toute modification, tout filtrage ou toute autre pratique de conservation appliquée aux ensembles de données.

Les organisations utilisant des systèmes d’IA générative devraient :

  • indiquer clairement à toute partie concernée si un outil d’IA générative sera utilisé dans le cadre d’un processus décisionnel et, le cas échéant, à quel titre et avec quelles mesures de protection, ainsi que les options ou recours à la disposition de la partie touchée (particulièrement lorsqu’une décision peut avoir une incidence importante sur une personne). Cette explication doit également comprendre une description générale du fonctionnement du système, la façon dont il est utilisé pour prendre une décision ou une mesure, et un aperçu des résultats possibles;
  • décrire quels renseignements personnels, le cas échéant, ont été utilisés pour entraîner ou perfectionner le système d’IA générative en vue de son utilisation;
  • lorsqu’un outil d’IA générative est accessible au public, s’assurer que les personnes qui interagissent avec l’outil savent qu’il s’agit d’un outil d’IA générative, et sont informées des risques d’atteinte à la vie privée et des mesures d’atténuation à leur disposition (comme ne pas saisir de renseignements personnels à la suite d’une requête, à moins que cela soit nécessaire).

5. Responsabilité

Établir la responsabilité de la conformité aux lois et aux principes en matière de protection de la vie privée, et rendre les outils d’IA explicables.

Toutes les parties devraient :

  • reconnaître qu’elles sont responsables de la conformité aux lois sur la protection de la vie privée et devraient être en mesure de démontrer cette conformité;
  • disposer d’une structure de gouvernance interne clairement définie pour assurer la conformité en matière de protection de la vie privée, y compris les rôles et les responsabilités, les politiques et les pratiques définis qui établissent des attentes claires en ce qui concerne la conformité aux obligations en matière de protection de la vie privée;
  • établir un mécanisme par lequel l’organisation peut recevoir des questions ou des plaintes relativement à la protection de la vie privée et y répondre;
  • entreprendre des évaluations, comme des évaluations des facteurs relatifs à la vie privée (EFVP) ou des évaluations de l’incidence algorithmique (EIA), afin de cerner et d’atténuer les répercussions potentielles ou connues que le système d’IA générative (ou son utilisation proposée, le cas échéant) peut avoir en matière de protection de la vie privée et d’autres droits fondamentaux;
  • revoir et réévaluer régulièrement les mesures de responsabilisation (y compris les évaluations des biais), compte tenu de la nature évolutive des systèmes d’IA générative et de la réglementation de l’IA.

Les développeurs et les fournisseurs d’IA générative devraient :

  • prendre les mesures requises pour que les résultats des systèmes d’IA générative soient traçables et explicables. En résumé, il s’agit de faire un compte rendu complet du fonctionnement du système (traçabilité) et de présenter une justification de la façon dont un extrant a été obtenu. Lorsqu’un développeur ou un fournisseur est d’avis que les résultats d’un outil d’IA générative ne sont pas explicables, ce fait doit être communiqué explicitement à toute organisation qui utilise l’outil ou à toute personne interagissant avec l’outil pour lui permettre de déterminer si ce dernier convient aux fins prévues;
  • si la communication des données d’entraînement d’un système d’IA générative a une incidence sur la vie privée des personnes, s’assurer d’évaluer la vulnérabilité du système du point de vue de l’extraction des données et d’autres méthodes par lesquelles les données d’entraînement pourraient être révélées à un tiers;
  • entreprendre des audits indépendants pour évaluer la validité et la fiabilité du système, confirmer la conformité aux lois sur la protection de la vie privée, évaluer les résultats pour déceler les inexactitudes et les biais, et recommander des mesures de protection efficaces pour atténuer les risques potentiels. Les développeurs et les fournisseurs sont également encouragés à permettre aux chercheurs indépendants, aux autorités responsables de la protection des données et à d’autres organismes de surveillance pertinents d’évaluer et de vérifier leurs systèmes d’IA générative (ou modèles de base) pour déceler les risques et les incidences potentiels.

Les organisations utilisant des systèmes d’IA générative devraient :

  • savoir que la responsabilité des décisions incombe à l’organisation et non à tout type de système automatisé utilisé pour appuyer le processus décisionnel;
  • veiller à ce que les personnes touchées disposent d’un mécanisme de contestation efficace pour toute décision administrative ou autre décision importante prise à leur sujet. Un tel mécanisme doit prévoit le maintien et, sur demande, le fait de fournir suffisamment d’information pour que cette personne puisse comprendre comment une décision a été prise et lui permettre de demander une révision ou un réexamen par un être humain de la décision;
  • si les résultats d’un système d’IA générative ne sont pas explicables de façon claire, déterminer si l’utilisation proposée est appropriée.

6. Accès aux renseignements personnels

Faciliter le droit des personnes d’accéder à leurs renseignements personnels en élaborant des procédures qui permettent d’exercer ce droit de façon efficace.

Toutes les parties devraient :

  • s’assurer qu’il existe des procédures permettant aux personnes d’accéder aux renseignements recueillis à leur sujet et de les corriger pendant l’utilisation du système;
  • élaborer des processus pour permettre aux personnes d’exercer leur capacité d’accéder aux renseignements personnels contenus dans un modèle d’IA ou de les corriger, particulièrement lorsque ces renseignements peuvent être inclus dans les extrants générés en réponse à une requête.

Les organisations utilisant des systèmes d’IA générative devraient :

  • lorsqu’un système d’IA générative est utilisé dans le cadre d’un processus décisionnel, tenir des dossiers adéquats pour permettre de répondre de façon efficace aux demandes d’accès à l’information concernant cette décision.

7. Limitation de la collecte, de l’utilisation et de la communication des renseignements

Limiter la collecte, l’utilisation et la communication des renseignements personnels à ce qui est nécessaire pour atteindre l’objectif défini explicitement et approprié.

Toutes les parties devraient :

  • veiller à ce que la collecte et l’utilisation des renseignements personnels aux fins de l’entraînement des outils d’IA soient limitées à ce qui est nécessaire à cette fin, et utiliser des données anonymisées ou dépersonnalisées dans la mesure du possible. Cet élément peut inclure l’utilisation de données synthétiques;
  • éviter le détournement de fonction et utiliser les renseignements personnels qu’aux fins indiquées au moment de la collecte ou (lorsque cela est permis) à des fins compatibles avec les fins de collecte;
  • éviter la collecte sans discernement de renseignements personnels fondée sur des assertions relatives à l’ampleur des fins potentielles pour un système d’IA générative;
  • reconnaître l’accessibilité publique des données ne signifie pas qu’elles peuvent être recueillies ou utilisées sans discernement. Les renseignements personnels accessibles en ligne demeurent assujettis aux lois canadiennes ou à d’autres instruments réglementaires, même lorsque ces renseignements sont définis comme étant « publiquement accessibles »;
  • établir et respecter des calendriers de conservation appropriés des renseignements personnels, y compris (le cas échéant) les renseignements contenus dans les données d’entraînement, les requêtes du système et les extrants. Ces calendriers devraient à la fois i) limiter la conservation des renseignements qui ne sont plus requis et ii) veiller à ce que les renseignements soient conservés suffisamment longtemps pour permettre aux personnes d’exercer leur droit d’accès (en particulier lorsqu’une décision a été prise à leur sujet).

Les développeurs et les fournisseurs d’IA générative devraient :

  • dans la mesure du possible et le cas échéant, utiliser un filtre ou un autre processus pour supprimer les renseignements personnels des ensembles de données avant d’utiliser ceux-ci pour l’entraînement;
  • s’assurer que les extrants des produits et services d’IA ne contiennent que les renseignements personnels nécessaires pour répondre à la demande dans la requête.

Les organisations utilisant des systèmes d’IA générative devraient :

  • veiller à ce que toute inférence créée au sujet d’une personne soit faite à des fins spécifiées et communiquées, et à ce que son exactitude puisse être raisonnablement évaluée et validée;
  • traiter les inférences générées au sujet d’une personne identifiable comme des renseignements personnels;
  • lorsque possible et raisonnable, utiliser des renseignements anonymisés ou dépersonnalisés dans les requêtes d’un système d’IA générative plutôt que des renseignements personnels;
  • lorsque des renseignements personnels (et, en particulier, des renseignements sensibles ou confidentiels) doivent être entrés dans une requête, ne le faire que si cela est autorisé;
  • sauf indication contraire, les requêtes ne doivent pas être conservées et utilisées à des fins secondaires ni communiquées.

8. Exactitude

Les renseignements personnels doivent être aussi exacts, complets et à jour que l’exigent les fins auxquelles ils sont destinés.

Les développeurs et les fournisseurs d’IA générative devraient :

  • s’assurer que tous les renseignements personnels utilisés pour entraîner leurs modèles d’IA générative sont aussi exacts que nécessaire pour les fins prévues. Un examen détaillé peut être nécessaire; par exemple, l’introduction d’« inexactitudes » en modifiant un ensemble de données pour tenir compte d’un biais connu pour l’améliorer au moyen de données synthétiques peut être préférable à l’utilisation de l’ensemble de données « exactes » original;
  • disposer d’un processus par lequel un système d’IA générative peut être mis à jour (par exemple, en perfectionnant ou réentraînant le modèle) lorsque l’on sait que l’information à l’aide de laquelle il a été entraîné est inexacte ou désuète;
  • informer les organisations qui utilisent l’IA générative de tout problème ou limite connus concernant l’exactitude des extrants de l’IA générative. Cet élément peut comprendre les cas où l’ensemble de données d’entraînement est limité dans le temps (c.-à-d. qu’il ne contient que de l’information jusqu’à une certaine date), où il provient d’une source unique et non représentative, ou encore où il existe des cas d’utilisation ou des intrants particuliers qui tendent à donner lieu à des extrants inexacts.

Les organisations utilisant des systèmes d’IA générative devraient :

  • s’assurer que les renseignements personnels sont aussi exacts, complets et à jour que nécessaire aux fins prévues chaque fois qu’ils doivent être saisis dans une requête d’IA générative ou qu’ils sont utilisés pour entraîner un modèle d’IA générative sur mesure;
  • évaluer les répercussions sur l’utilisation du système de tout problème d’exactitude ou de limite signalé par le fournisseur ou le développeur du système d’IA générative, comme des données d’entraînement limitées dans le temps ou à source unique. Si cette information n’a pas été communiquée et n’est pas disponible autrement, déterminer si l’utilisation du système demeure appropriée ou autorisée légalement;
  • prendre des mesures raisonnables pour s’assurer que les extrants d’un outil d’IA générative sont de l’exactitude requise en ce qui concerne la fin prévue, en particulier si ces extrants sont utilisés pour prendre ou aider à prendre des décisions au sujet d’une ou de plusieurs personnes, seront utilisés dans des contextes à risque élevé ou seront rendus publics;
  • si l’utilisation proposée d’un système d’IA générative concerne un groupe précis, prendre les mesures appropriées pour s’assurer que ce groupe est représenté de façon adéquate et exacte dans les données d’entraînement du système;
  • savoir que les problèmes liés à l’exactitude des données d’entraînement ou des extrants peuvent rendre inappropriée l’utilisation d’un système d’IA générative (en général ou lorsque cette utilisation pourrait avoir des répercussions importantes sur une personne).

9. Mesures de protection

Établir des mesures de protection des renseignements personnels et atténuer les risques potentiels liés à la protection de la vie privée.

Toutes les parties devraient :

  • protéger tout renseignement personnel recueilli ou utilisé tout au long du cycle de vie d’un outil d’IA générative au moyen de mesures proportionnelles à la sensibilité de l’information;
  • maintenir en continu une connaissance et des mesures d’atténuation contre les menaces particulièrement préoccupantes dans l’utilisation de l’IA générative, ce qui comprend, sans s’y limiter, les attaques par injection de requêtes (dans lesquelles des requêtes soigneusement conçues contournent les filtres ou amènent le modèle à exécuter des actions imprévues), les attaques par inversion de modèle (dans lesquelles les renseignements personnels contenus dans les données d’entraînement du modèle sont exposés) et le débridage (dans lequel les contrôles de confidentialité ou de sécurité de l’outil sont contournés).

Les développeurs et les fournisseurs d’IA générative devraient :

  • concevoir les produits et les services de façon à empêcher l’utilisation inappropriée de leurs outils, et limiter ou interdire la création de contenu illégal ou nuisible. Cet élément comprend des mesures de protection et des garde-fous qui empêchent les utilisations inappropriées pouvant mener à un traitement injuste, contraire à l’éthique ou discriminatoire, ainsi qu’à des menaces pour les droits et libertés fondamentaux;
  • surveiller les cas d’utilisation inappropriée de l’outil d’IA générative et modifier ou corriger les systèmes pour régler ces problèmes.

Les organisations utilisant des systèmes d’IA générative devraient :

  • confirmer que lorsqu’elles utilisent des données sous leur contrôle au cours de la préparation, de l’utilisation ou du déploiement d’un système d’IA générative, l’utilisation de ces données n’a pas d’incidence négative sur les mesures de protection du modèle, par exemple en créant ou en exacerbant des biais, en augmentant la capacité d’effectuer des injections de requête, des inversions de modèles ou des débridages, ou en permettant autrement à des parties non autorisées d’extraire des renseignements personnels dans le cadre de l’utilisation d’un système d’IA générative.

Signature du Commissariat à la protection de la vie privée du Canada

Signature du IPC-ON

Signature de la CAI-QC

Signature du OIPC-NS

Signature du NB

Signature du Ombudsman du Manitoba

Signature du OIPC-BC

Signature du OIPC-PEI

Signature du OIPC-SK

Signature du OIPC-AB

Signature du OIPC-NL

Signature du OIPC-NT

Signature du OIPC-YK

Signature du OIPC-NU
Date de modification :