Sélection de la langue

Recherche

Allocution à l’occasion du Symposium sur la protection de la vie privée et l’IA générative

Le 7 décembre 2023

Ottawa (Ontario)

Allocution prononcée par Philippe Dufresne
Commissaire à la protection de la vie privée du Canada

(Le texte prononcé fait foi)


Bonjour et bienvenue à notre Symposium sur la protection de la vie privée et l’IA générative. Je m’appelle Philippe Dufresne et je suis le Commissaire à la protection de la vie privée du Canada. Je tiens tout d’abord à vous remercier de votre présence. Je remercie aussi le Groupe de travail international sur la protection des données dans les technologies et l’équipe du CPVP pour le travail qu’ils ont accompli pour l’organisation de cet important événement.

Voilà une assemblée distinguée, et je sais que vous êtes très en demande. Je vous suis donc incroyablement reconnaissant d’être ici, d’autant plus que vous êtes nombreux à avoir fait un long voyage pour participer à cet événement. Je suis ravi d’accueillir des collègues de la protection des données de l’Europe, des Philippines, de l’Afrique du Nord, de l’Amérique du Nord, des Bermudes (qui ont récemment été l’hôte de l’Assemblée mondiale pour la protection de la vie privée), ainsi que des collègues Commissaires de partout au Canada, allant du Yukon, du Nunavut et de la Colombie-Britannique aux provinces de l’Atlantique.

J’ai aussi le plaisir d’accueillir nos distingués invités, ainsi qu’un impressionnant groupe d’experts et de chercheurs universitaires dans les domaines de la technologie, de la protection de la vie privée, des politiques publiques, de la gouvernance et de l’intelligence artificielle, y compris notre conférencier d’honneur, Monsieur Gary Marcus.

Mon équipe et moi-même sommes ravis de vous accueillir ici ce matin, dans un lieu entouré de certains des monuments les plus célèbres d’Ottawa – comme les édifices du Parlement, symboles de nos valeurs démocratiques, l’historique Château Laurier, qui a ouvert ses portes en 1912, et l’ancienne gare centrale d’Ottawa, qui date de la même année et qui accueille actuellement le Sénat du Canada pendant la restauration de l’édifice du Centre du Parlement.

Le lieu où nous nous trouvons, le Centre national des Arts, est le carrefour des arts de la scène au Canada, cultivant la prochaine génération d’auditoires et d’artistes à l’échelle du pays. Sa rénovation à couper le souffle met en évidence l’harmonie associée à la créativité du design moderne et, comme le décrit l’historienne Sarah Jennings, « [montre] que rien ne peut remplacer une véritable prestation sur scène ». Une citation intéressante pour une discussion portant sur l’IA générative.

Tout cela fait de ce lieu un endroit idéal pour les discussions importantes d’aujourd’hui, qui porteront sur l’IA générative dans le contexte de la protection de la vie privée.

Lorsque j’ai accepté le poste de Commissaire à la protection de la vie privée du Canada, il y a 18 mois, j’ai présenté les 3 piliers de ma vision de la protection de la vie privée. Ces piliers sont les suivants :

  1. le droit à la protection de la vie privée est un droit fondamental;
  2. la protection de la vie privée est un moyen de favoriser l’intérêt public et d’appuyer l’innovation et la compétitivité du Canada;
  3. la protection de la vie privée est un moyen d’accentuer la confiance des Canadiennes et des Canadiens envers leurs institutions et en tant que citoyens numériques.

Ces 3 piliers s’appuient sur cette réalité : les Canadiennes et les Canadiens veulent pouvoir participer activement et en toute connaissance de cause au monde numérique, sans être obligés de choisir entre cette participation et leur droit fondamental à la vie privée.

Ces piliers continuent d’influencer la manière dont j’exerce mon mandat et sont, à mon avis, d’autant plus pertinents lorsqu’il est question de protection de la vie privée et d’IA générative.

Ici au Canada, et dans le monde entier, nous avons assisté au développement rapide de cette technologie innovante, qui présente de nombreux avantages sur le plan de la productivité et de la résolution de certains de nos problèmes les plus urgents, comme la prestation de soins de santé et la lutte contre le changement climatique. Mais nous avons aussi été avertis des risques graves que cette technologie pourrait présenter si elle n’est pas adéquatement réglementée. Ceux d’entre nous qui sont des autorités de protection de la vie privée ont travaillé en étroite collaboration pour trouver des moyens de promouvoir et de protéger le droit fondamental à la vie privée des citoyens, tout en permettant une innovation au service de l’intérêt public et d’une économie forte. Nous avons accompli tout ce travail en tant que membres de la communauté de la protection de la vie privée, mais aussi en collaboration avec des autorités de réglementation dans d’autres domaines comme la concurrence et la radiodiffusion.

En plus d’avoir fait preuve de coopération entre plusieurs régimes réglementaires, nous nous sommes également engagés dans des discussions et des échanges productifs avec des parties prenantes clés comme l’industrie, les législateurs, le milieu universitaire, la fonction publique et la société civile. Chaque secteur a un point de vue essentiel à faire valoir et une contribution importante à apporter pour relever le défi.

C’est aussi l’objectif que nous poursuivons aujourd’hui dans le cadre du présent symposium : réunir les responsables des politiques, les décideurs et les experts du domaine chargés de la création et du déploiement de l’IA générative, afin d’examiner le grand nombre de situations, de possibilités et de défis particuliers que présente cette technologie. Il faut à cette fin établir comment tirer parti des avantages que promet l’IA générative tout en atténuant autant que possible les risques qui y sont associés.

Ce que je souhaite, c’est que les connaissances qui seront échangées en matinée pendant le symposium alimentent les prochaines discussions entre les membres de notre Groupe de travail international sur la protection des données dans les technologies.

Nous pourrions comparer la situation actuelle de l’IA générative au tout début de l’aviation commerciale. Au début du 20e siècle, l’aviation suscitait beaucoup d’enthousiasme et les gens étaient fébriles en raison des possibilités qu’elle offrait pour l’économie et pour voyager rapidement partout au pays et autour du monde. Mais l’idée de pouvoir se déplacer en avion présentait aussi des risques évidents.

Après un incident de sécurité survenu en 1935, Boeing a instauré l’utilisation obligatoire d’une liste de contrôle avant le vol; d’autres compagnies aériennes ont ensuite emboîté le pas. Le fait de savoir qu’avant chaque vol, l’équipage devait systématiquement suivre une liste de contrôle en matière de sécurité est un facteur déterminant qui permet de convaincre les passagers que l’avion volera en toute sécurité. Cette liste, au même titre que de bons freins dans une voiture rapide, ne doit pas être considérée comme un obstacle à l’innovation, mais plutôt comme un élément qui favorise l’innovation. Il ne s’agit pas d’un jeu à somme nulle.

Aujourd’hui, à l’aube de l’IA générative, c’est à nous, personnes ici présentes et aux autres leaders chevronnés du monde entier, qu’il revient de nous pencher sur la manière de mettre en place des mesures similaires en ce qui concerne l’IA générative.

Brad Smith, le président de Microsoft, a déclaré la semaine dernière qu’il est important de maîtriser dès maintenant les risques que pose la technologie – avant qu’ils deviennent des problèmes. Il a défendu la mise en place de « freins de sûreté » qui agiraient de la même manière que les mécanismes d’urgence des ascenseurs, des autobus scolaires et des trains à grande vitesse.

Ici au Canada – et ailleurs – certaines mesures importantes ont déjà été prises.

À l’échelon fédéral, le gouvernement a proposé le projet de loi C‑27, qui vise à moderniser la loi sur la protection des renseignements personnels applicable au secteur privé au Canada, et qui comprend la nouvelle Loi sur l’intelligence artificielle et les données, qui est proposée. Cette loi prévoit des mesures proactives pour cerner et prévenir les préjudices ne concernant pas la vie privée et les résultats biaisés générés par l’IA. J’ai recommandé des moyens d’améliorer ce projet de loi. J’ai notamment recommandé que les organisations soient tenues par la loi de mener des évaluations des facteurs relatifs à la vie privée afin de s’assurer que les risques pour la vie privée sont cernés et atténués pour les activités à risque élevé. Selon un rapport de l’OCDE dans lequel on sondait les ministres du numérique du G7, nous avons appris que les préjudices à la vie privée font partie des 3 risques les plus importants associés à l’IA.

J’ai également appelé à un renforcement des dispositions relatives à la transparence et au droit à une explication à l’égard de la prise de décision automatisée. Ces mesures permettraient d’atténuer les risques pour la vie privée et de renforcer la confiance des Canadiennes et des Canadiens dans ces technologies, ce qui est particulièrement important en ces premiers jours où nos citoyens découvrent encore cette nouvelle technologie.

En juin, à Tokyo, au Japon, mes collègues des autorités de protection des données et de la vie privée du G7 et moi-même avons publié une déclaration sur l’IA générative, dans laquelle nous avons demandé aux développeurs et aux fournisseurs d’intégrer la protection de la vie privée dès le départ, à même la conception de ces nouveaux produits et services.

En septembre dernier, Innovation, Sciences et Développement économique Canada a lancé un code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés. J’ai été heureux de constater que ce code faisait expressément référence à notre déclaration du G7. Plus d’une douzaine d’entreprises et d’organisations ont signé ce code, dont un groupe représentant plus de 100 entreprises en démarrage à l’échelle du Canada.

Plus récemment, le Canada s’est joint à 28 pays et à l’Union européenne en signant la déclaration de Bletchley sur le développement sûr et responsable de la technologie.

En octobre, les membres de l’Assemblée mondiale pour la protection de la vie privée ont adopté une résolution sur l’IA. Dans cette résolution, nous avons conjointement exhorté les développeurs et les fournisseurs d’IA à reconnaître que la protection des données est un droit fondamental. Nous avons aussi appelé à la création de technologies d’IA générative responsables et dignes de confiance.

Plus tôt cette année, j’ai annoncé que j’ai ouvert une enquête conjointe, en collaboration avec 3 homologues des provinces, sur OpenAI, l’entreprise qui est à l’origine de ChatGPT, afin d’établir si ses pratiques sont conformes aux lois canadiennes sur la protection des renseignements personnels. Même si nos lois sur la protection des renseignements personnels doivent être modernisées, elles s’appliquent actuellement à ce domaine, et je m’engage à veiller à leur application.

Cette enquête est en cours, et nous continuons à surveiller ces technologies ainsi que d’autres nouvelles technologies afin de prévoir quelles seront les répercussions de celles‑ci sur la vie privée, de recommander des pratiques exemplaires pour garantir le respect des lois sur la protection des renseignements personnels et de promouvoir l’utilisation de technologies d’amélioration de la confidentialité.

Un autre enjeu lié à la technologie et à la protection de la vie privée est le recours croissant à la biométrie, comme dans le cas de la reconnaissance faciale et de la collecte de renseignements génétiques. En octobre, le Commissariat a publié 2 documents d’orientation provisoires sur la biométrie à des fins de consultation, l’un pour le secteur privé et l’autre pour le secteur public. Nous souhaitons obtenir des observations sur ces documents afin de nous assurer que les organisations utilisent ces technologies dans le respect de la vie privée.

Et aujourd’hui, mes homologues provinciaux et territoriaux et moi-même annonçons le lancement d’un ensemble de principes visant à favoriser une utilisation responsable et digne de confiance de l’IA générative. La déclaration fait état des principes clés ainsi que des pratiques exemplaires que les organisations devraient prendre en considération lorsqu’elles conçoivent, fournissent ou utilisent des modèles, outils, produits et services d’IA.

Entre autres, les organisations doivent faire preuve d’ouverture et de transparence sur ce qu’elles font et expliquer le fonctionnement de leurs outils; recueillir uniquement les renseignements dont elles ont besoin pour la fin prévue; et conserver ces renseignements qu’aussi longtemps qu’elles en auront besoin pour la fin prévue. Nos principes font aussi état des conséquences particulières que peuvent avoir les outils d’IA sur les populations vulnérables.

Je tiens à remercier tous mes collègues des organismes de réglementation canadiens, dont certains d’entre eux sont des nôtres ce matin, d’avoir participé aux efforts qui ont mené à l’élaboration de ces principes.

Je me réjouis de pouvoir participer à ce symposium, d’apprendre et d’entendre ce que certains des plus grands spécialistes de l’IA ont à dire sur la manière dont nous devons considérer l’IA générative.

Nous avons sans aucun doute une matinée très chargée.

Les experts qui se sont joints à nous pour enrichir nos discussions en groupe se pencheront sur l’IA générative selon 3 angles différents : les possibilités et les risques que présente la technologie, le contexte réglementaire et les répercussions de l’IA sur l’innovation et les droits de la personne.

Sans plus attendre, passons maintenant au premier point de notre ordre du jour.

Date de modification :