Projets en cours financés par le Programme des contributions
Le 30 août 2024, le Commissariat à la protection de la vie privée du Canada a annoncé l’octroi de fonds pour une nouvelle série de projets de recherche indépendante et de transfert des connaissances financés par le Programme des contributions. Ces projets se termineront d’ici le 31 mars 2025. Le Commissariat affichera un résumé des projets menés à bien ainsi que des liens conduisant aux résultats une fois les projets terminés et examinés par le Commissariat.
Bénéficiaires du financement dans le cadre du Programme des contributions pour 2024-2025
Organisation : Université Concordia
Titre du projet : Préoccupations concernant la protection de la vie privée dans les écosystèmes de connexion au moyen de compte de médias sociaux
Montant demandé : 50 000 $
Chef de projet : Mohammad Mannan et Amr Youssef
Résumé du projet :
La connexion au moyen de compte de médias sociaux, qui est une forme d’authentification unique, est devenue une fonctionnalité omniprésente sur les sites Web et les applications mobiles. Elle permet aux utilisateurs d’ouvrir une session sur des plateformes ou de s’inscrire à celles-ci en utilisant les identifiants de leur compte de médias sociaux comme Facebook, Google, LinkedIn, X (anciennement Twitter) et Apple. Bien que la connexion au moyen de compte de médias sociaux présente des avantages, comme la simplification de la connexion et le soulagement de la fatigue liée aux mots de passe, elle soulève également des préoccupations en matière de sécurité et de protection de la vie privée.
L’objectif du projet est d’étudier, au moyen d’une étude technique ou expérimentale complète et systématique, l’écosystème de connexion au moyen de compte de médias sociaux dans les sites Web et les applications Android. Les chercheurs prévoient de concevoir et de mettre en œuvre un cadre d’analyse de la vie privée et de la sécurité pour trouver et analyser ces sites Web et ces applications. À l’aide de ce cadre, les chercheurs compareront les pratiques d’échange de données de réelles applications offrant une connexion au moyen de compte de médias sociaux afin de mieux comprendre leur incidence sur la vie privée des utilisateurs. Compte tenu de ce qui précède, les chercheurs produiront un rapport public résumant les conclusions de leur enquête. Le rapport présentera des recommandations pour améliorer la sécurité et la confidentialité des solutions de connexion au moyen de compte de médias sociaux. Il comprendra des lignes directrices faciles à suivre pour les Canadiennes et les Canadiens qui utilisent la connexion au moyen de compte de médias sociaux sur les sites Web et les applications. Les chercheurs prépareront également un document technique détaillant la méthode complète, les conclusions et les recommandations techniques.
Organisation : Université de l’île de Vancouver
Titre du projet : Protéger le paysage des données de demain : Perspectives des jeunes citoyens numériques sur la protection de la vie privée dans les systèmes d’IA
Montant demandé : 86 601,90 $
Chef de projet : Ajay Shrestha
Équipe de projet : Ankur Barthwal, Molly Campbell, Austin Shouli et Saad Syed
Résumé du projet :
Dans le paysage numérique en constante évolution où l’intelligence artificielle (IA) joue un rôle central, il est crucial de se pencher sur l’incidence des technologies émergentes sur la vie privée. Le projet de recherche vise à explorer les complexités de l’incidence de l’IA sur la vie privée; il s’attache surtout à comprendre les préoccupations des jeunes qui utilisent le numérique et à protéger le droit à la vie privée des enfants.
Des sondages, des entrevues et des groupes de discussion seront organisés pour recueillir les points de vue des jeunes utilisateurs, des éducateurs, des parents, des développeurs d’IA et des chercheurs, et ainsi étudier leurs perspectives sur le contrôle des données et les facteurs qui influencent la perception de la vie privée dans les applications de l’IA.
En comprenant les perceptions et les attentes des jeunes utilisateurs en ce qui concerne la vie privée dans les applications de l’IA, les responsables du projet s’efforcent de contribuer à l’intégration responsable des technologies de l’IA dans la vie des jeunes utilisateurs, et ce, par la défense d’une utilisation éthique de l’IA et la protection de la vie privée à l’ère numérique. Dans le cadre de la recherche, les niveaux de littératie numérique et les interactions antérieures avec les technologies de l’IA seront également examinés afin de permettra d’élaboration de lignes directrices visant à répondre à des préoccupations précises des jeunes utilisateurs.
Dans le cadre du projet, les jeunes citoyens numériques participeront à des ateliers et à des activités qui leur permettront de s’outiller et d’exprimer leur point de vue à l’égard de la protection de la vie privée dans les systèmes d’IA.
Organisation : Internet of Things Privacy Forum
Titre du projet : L’enfant lisible par machine : Gouvernance de l’IA émotionnelle utilisée chez les enfants canadiens
Montant demandé : 86 601,90 $
Chef de projet : Gilad Rosner
Équipe de projet : Andrew McStay
Résumé du projet :
Les responsables du projet de recherche évalueront si la Loi sur la protection des renseignements personnels et les documents électroniques est adaptée pour régir l’utilisation de l’IA émotionnelle auprès des enfants, en soulignant les lacunes et en proposant des suggestions, le cas échéant. Ils se pencheront sur les défis en matière de protection de la vie privée que pose l’utilisation des technologies d’IA émotionnelle. Ils apporteront également une aide pratique aux fabricants, aux vendeurs et aux évaluateurs de technologies d’IA émotionnelle utilisées par les enfants. Pour ce faire, ils élaboreront des modules pour les évaluations des facteurs relatifs à la vie privée ainsi que des lignes directrices destinées au développement commercial, au déploiement et à l’utilisation de ces produits et ces services au Canada. Ils élaboreront également les pratiques exemplaires à suivre pour faire en sorte que les systèmes d’IA émotionnelle qui recueillent les données des enfants canadiens respectent les principes d’équité, de responsabilisation et de transparence.
L’IA émotionnelle est un sous-ensemble de l’IA qui mesure, comprend et simule les émotions humaines et qui réagit à celles-ci. Il s’agit d’un système d’IA qui prétend déterminer l’état émotionnel d’une personne en analysant une image faciale ou d’autres caractéristiques et renseignements. L’IA émotionnelle est de plus en plus utilisée pour comprendre les réactions émotionnelles et psychophysiologiques et y réagir. Par détection des émotions et IA émotionnelle, nous entendons les technologies qui utilisent l’informatique affective, l’IA et les techniques d’apprentissage automatique pour détecter et connaître la vie émotionnelle des personnes et interagir avec celle-ci. Cependant, ces technologies sont relativement nouvelles et souvent mal comprises par les parents, les enfants, les administrateurs scolaires, les organismes de réglementation et les législateurs. Elles présentent certainement des avantages, mais, lorsqu’elles sont utilisées par des enfants, les technologies de détection des émotions et de l’humeur deviennent hautement problématiques d’un point de vue éthique et peuvent ne pas être dans l’intérêt supérieur de l’enfant.
Organisation : Université du Québec à Montréal
Titre du projet : Jeu dangereux : la protection de la vie privée des enfants de moins de 13 ans dans les jeux mobiles
Montant demandé : 89 906 $
Chef de projet : Maude Bonenfant
Équipe de projet : Sara Grimes, Thomas Burelli, Hafedh Mili, Alexandra Dumont, et Cédric Duchaineau
Résumé du projet :
La pratique du jeu vidéo mobile est en forte hausse chez les jeunes Canadiens et Canadiennes, même chez les tout-petits. Parallèlement, l’industrie mondiale du jeu mobile connaît une croissance exponentielle. Dans cette industrie du mobile, plusieurs modèles économiques existent, mais un des modes de rentabilisation est la collecte de données personnelles pour faire du ciblage publicitaire.
Si la collecte des données dans les jeux mobiles est encadrée par les conditions générales d’utilisation, ces dernières sont longues, fastidieuses à lire et complexes à comprendre, voire impossibles à trouver lorsqu’il s’agit des tiers. De ce fait, les termes sont difficiles à comprendre pour les jeunes et les parents qui sont obligés d’accepter les termes et conditions proposés par le jeu pour y avoir accès. Les plus jeunes enfants ne sont ainsi pas protégés comme ils le devraient.
Cette recherche sera axée sur l’analyse des applications de jeux mobiles et leur comparaison avec les critères de conformité de la Children’s Online Privacy Protection Act (loi sur la protection de la vie privée des enfants en ligne, COPPA) afin de cerner les bonnes et les mauvaises pratiques en matière de protection de la vie privée des enfants en ce qui a trait aux jeux vidéo.
Organisation : Université d’Ottawa
Titre du projet : Analyse comparative des grands modèles de langage et de protection de la vie privée
Montant demandé : 83 680 $
Chef de projet : Rafal Kulik
Résumé du projet :
À l’ère numérique actuelle, la croissance rapide des données générées par les personnes a stimulé les progrès dans le domaine de l’intelligence artificielle (IA), en particulier l’élaboration et le déploiement de grands modèles de langage (GML). Les systèmes d’IA sophistiqués, capables de comprendre et de produire le langage humain, en plus d’interagir avec l’humain en imitant les processus de pensée humains, deviennent partie intégrante des applications (p. ex. la création de contenu personnalisé et la découverte de médicaments). Étant donné que ces modèles sont de plus en plus profondément intégrés dans les fonctions quotidiennes de la société, il est essentiel de protéger la vie privée des personnes qui utilisent ces systèmes.
Le développement rapide des GML et la vitesse à laquelle ces outils évoluent représentent un défi important dans la définition des lignes directrices actuelles et pratiques qui peuvent traiter dans les faits l’utilisation et le déploiement de ces systèmes. Compte tenu des capacités et des risques uniques associés aux GML, il est de plus en plus nécessaire d’établir des normes solides en matière de protection de la vie privée qui sont adaptées à ces technologies en particulier.
Dans le cadre du projet, les responsables proposeront une introduction pratique aux GML et étudieront les défis liés à la protection de la vie privée que les experts dans les domaines juridique et politique doivent relever ainsi que le rôle des technologies visant à améliorer la confidentialité. Les chercheurs interrogeront des experts dans les domaines juridique, politique et technique, ainsi que des groupes de la société civile, pour étudier les avantages et les possibilités de ces technologies. Ils fourniront également des recommandations et du matériel pédagogique au public.
Organisation : Université de Waterloo
Titre du projet : Atténuation des préjudices en matière de vie privée causés par la conception trompeuse dans la réalité virtuelle
Montant demandé : 58 708 $
Chef de projet : Leah Zhang-Kennedy et Lennart Nacke
Équipe de projet : Hilda Hadan
Résumé du projet :
La conception trompeuse dans la réalité virtuelle est une préoccupation en matière de protection de la vie privée qui évolue rapidement. Cette recherche explorera les effets de la conception trompeuse sur la protection des renseignements personnels des utilisateurs dans les applications commerciales de réalité virtuelle. En identifiant et en classifiant les mécanismes de conception trompeuse de la réalité virtuelle qui minent et corrompent la protection de la vie privée des utilisateurs, les chercheurs visent à élaborer des contre-mesures et des lignes directrices pour contrer leur impact négatif, accroître la sensibilisation et fournir des lignes directrices et des recommandations en matière de conception et de politiques à l’intention des concepteurs de réalité virtuelle, des décideurs et du gouvernement.
Les chercheurs prévoient d’évaluer la conception des applications de réalité virtuelle afin de déterminer les stratégies de manipulation et d’effectuer une analyse à grande échelle des perceptions et des expériences des utilisateurs à l’égard de la vie privée et de la conception trompeuse. Ils prévoient également de documenter systématiquement les différentes pratiques et mécanismes de conception trompeuse dans la réalité virtuelle, de noter les conséquences pour la vie privée et de suggérer des stratégies d’atténuation.
Les chercheurs s’attendent à ce que leur projet permette d’améliorer la conception des applications de réalité virtuelle et de formuler des recommandations pour les règlements relatifs à la protection de la vie privée afin de mieux protéger la population canadienne. Ils prévoient de créer un dépôt public et de concevoir des lignes directrices et des ressources éducatives destinées au public, entre autres produits livrables.
Organisation : Université métropolitaine de Toronto
Titre du projet : IA générative, politique en matière de protection de la vie privée et jeunes Canadiens
Montant demandé : 49 640 $
Chef de projet : Karim Bardeesy
Équipe de projet : Sam Andrey, André Côté, Tiffany Kwok et Christelle Tessono
Résumé du projet :
Dans le cadre du projet, les chercheurs souhaitent comprendre l’incidence des technologies d’intelligence artificielle (IA) générative sur la vie privée, particulièrement les répercussions sur les mineurs, afin d’éclairer l’application de la législation canadienne actuelle et proposée en matière de protection de la vie privée ainsi que des politiques et des pratiques administratives de préservation de la vie privée.
Le projet comprendra trois volets principaux. Tout d’abord, les chercheurs mèneront des entrevues auprès des experts de l’IA et de la protection de la vie privée afin de mieux comprendre les conséquences de l’IA sur la vie privée en général, notamment sur celle des mineurs, ainsi que la meilleure façon de les atténuer. Deuxièmement, ils analyseront les lois et les politiques afin d’évaluer les lois actuelles et proposées en matière de protection de la vie privée en ce qui concerne leur capacité à traiter efficacement les risques posés par l’IA générative. Troisièmement, les chercheurs effectueront une analyse comparative des lois sur la protection de la vie privée et des données dans d’autres pays ainsi que des interventions techniques (p. ex. le contrôle de l’âge, l’interdiction de recueillir des données sur les jeunes ainsi que les politiques et les interdictions des conseils scolaires). L’approche comparative permettra aux chercheurs de tirer des enseignements des démarches entamées par d’autres pays pour gérer et atténuer les risques d’atteinte à la vie privée propres à l’IA.
Bénéficiaires du financement dans le cadre du Programme des contributions pour 2023-2024
Organisation : Université York (Ontario)
Titre du projet : Vidéos verticales « juste-à-temps » sur les politiques de protection des renseignements personnels pour les applications mobiles de médias sociaux
Montant accordé : 50 000 $
Chef de projet : Jonathan Obar
Résumé du projet :
Peu de personnes souhaitent consulter ou lire les politiques sur la protection des renseignements personnels présentées sous forme de texte. Il faut adopter de nouvelles stratégies pour que les avis de confidentialité et le consentement demeurent essentiels à la protection des renseignements. Dans le cadre de ce projet, 4 vidéos pour applications mobiles seront créées en complément d’une politique sur la protection des renseignements personnels applicable aux médias sociaux, qui est présentée sous forme de texte. Les vidéos en question seront testées au moyen d’une analyse qualitative menée auprès d’un groupe de discussion, à la suite de quoi une première série de pratiques exemplaires pour créer de telles vidéos sera élaborée et présentée dans un rapport. Les vidéos découlant du projet seront des prototypes qui serviront de référence aux intervenants du domaine des services numériques dans leurs démarches de production d’avis de confidentialité.
Organisation : Clinique d’intérêt public et de politique d’Internet du Canada Samuelson-Glushko – CIPPIC (Ontario)
Titre du projet : Pour que la protection des renseignements personnels soit davantage qu’une réalité virtuelle : les défis que pose l’application des lois canadiennes sur la protection des renseignements personnels à la réalité étendue
Montant accordé : 49 450 $
Chef de projet : Vivek Krishnamurthy
Résumé du projet :
Les technologies de réalité étendue (« XR »), à savoir les réalités augmentée, mixte et virtuelle, promettent de révolutionner de nombreux aspects de notre vie. Cependant, la collecte de données par ces technologies, en raison de sa nature, a de profondes répercussions sur la vie privée. Ce projet commencera par une étude des technologies actuelles de réalité étendue et des avancées prévues dans ce domaine afin de mettre en contexte les questions de vie privée en ce qui concerne le matériel de réalité étendue. Par la suite, les chercheurs entreprendront une étude approfondie afin d’établir si la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) et la Loi sur la protection de la vie privée des consommateurs (LPVPC), qui est proposée, sont à même de protéger les renseignements personnels des Canadiennes et des Canadiens dans les environnements de réalité étendue. Les chercheurs examineront si d’autres approches devraient être adoptées à ce chapitre dans les environnements immersifs. Enfin, ils formuleront des suggestions pour que les lois canadiennes sur la protection des renseignements personnels tiennent compte des défis que posent les technologies de réalité étendue.
Organisation : Université d’Ottawa (Ontario)
Titre du projet : Analyse comparative de la confidentialité différentielle et des orientations actuelles en matière d’anonymisation ou de dépersonnalisation
Montant accordé : 47 370 $
Chef de projet : Rafal Kulik
Résumé du projet :
Le gouvernement et le secteur privé, y compris les organismes officiels de statistiques et les établissements de soins de santé, recueillent des renseignements auprès des particuliers et publient des données agrégées dans l’intérêt public. Les organisations recueillent depuis longtemps des renseignements en promettant de respecter la confidentialité, étant entendu que les renseignements fournis seront utilisés à des fins statistiques seulement et que la diffusion et l’échange de renseignements ne permettront pas de remonter jusqu’à une personne en particulier. La confidentialité différentielle permet de limiter les renseignements diffusés, de sorte que les renseignements fournis par un particulier ne sont pas discernables dans les statistiques présentées à la suite d’une requête unique ou d’un petit nombre de requêtes.
Récemment, d’importantes pressions ont été exercées pour que la confidentialité différentielle soit une norme pour les nouvelles technologies d’intelligence artificielle (IA). Bien que la technique en question commence à être largement utilisée par les entreprises de technologie et les organismes gouvernementaux, il reste encore des défis à relever avant qu’elle puisse être entièrement adoptée pour ce qui est de la dépersonnalisation et de l’anonymisation. Ce projet permettra d’établir le cadre nécessaire à la mise en œuvre concrète de la confidentialité différentielle et d’élaborer un protocole de prise de décision s’appliquant aux autres technologies de protection des renseignements personnels et aux orientations connexes actuelles.
Organisation : Université Queen’s (Ontario)
Titre du projet : Les grands modèles de langage et la disparition de la sphère privée
Montant accordé : 50 000 $
Chef de projet : Catherine Stinson
Résumé du projet :
Ce projet portera sur les possibilités d’avenir des grands modèles de langage et de la protection des renseignements personnels dans le secteur privé à l’ère des technologies immersives et intégrables. L’équipe de projet produira un rapport, des lignes directrices à l’intention des comités de révision institutionnels, ainsi qu’un site Web public visant à mieux faire connaître et à mieux faire comprendre les répercussions réelles et éventuelles des grands modèles de langage et de la collecte des données utilisées pour les entraîner. Ce projet portera également sur les effets différentiels des grands modèles de langage sur la protection des renseignements personnels des Canadiennes et des Canadiens marginalisés et des groupes linguistiques minoritaires.
Les chercheurs se pencheront sur 5 questions : 1. Quel est la situation de fait du moissonnage du Web au Canada, selon les comités de révision institutionnels? 2. Quelle quantité de données sur les particuliers peut-on extraire des grands modèles de langage? 3. Les groupes marginalisés et les groupes linguistiques minoritaires sont-ils plus vulnérables aux fuites de renseignements personnels provenant des grands modèles de langage? 4. Les lois et les règlements canadiens sur la protection des renseignements personnels peuvent-ils permettre de prendre les mesures qui s’imposent à l’égard de ces modèles et de leurs conséquences sur la protection des renseignements personnels? 5. Quelles modifications aux lois et à la réglementation pourraient être nécessaires?
Organisation : Université Western Ontario (Ontario)
Titre du projet : Détecter les pièges à utilisateurs (ou interfaces truquées) et y réagir
Montant accordé : 49 717 $
Chef de projet : Jacquelyn Burkell
Résumé du projet :
L’objectif de ce projet consiste à réduire au minimum l’incidence des pièges à utilisateurs (ou interfaces truquées) sur les jeunes Canadiennes et Canadiens en contribuant à l’élaboration de cadres de réglementation efficaces et de matériel pédagogique qui permettront d’aider les utilisateurs à résister à ces tactiques. Les pièges à utilisateurs sont des stratégies de conception d’interface visant à « inciter » les utilisateurs à révéler des renseignements personnels, soit directement, soit en activant (ou en omettant de désactiver) les paramètres de plateforme ou de profil intrusifs. Les adolescents sont particulièrement vulnérables aux effets des pièges à utilisateurs quant aux choix à faire pour protéger leurs renseignements personnels, en tant qu’utilisateurs assidus d’Internet et des médias sociaux et en raison de leur niveau de sensibilisation à la surveillance commerciale en ligne.
Les chercheurs organiseront des groupes de discussion auxquels prendront part des adolescents qui utilisent les médias sociaux afin de d’établir si ces derniers sont en mesure de repérer les pièges à utilisateurs et d’observer comment ils y réagissent. Les chercheurs examineront également les mesures de réglementation qui s’appliquent à l’heure actuelle aux pièges à utilisateurs : ils dégageront les diverses approches employées et cerneront les difficultés qui empêchent l’efficacité. Les résultats de cette recherche serviront de base à la production de matériel pédagogique en collaboration avec HabiloMédias, en vue d’apprendre aux adolescents comment résister aux pièges à utilisateurs dans les médias sociaux.
Organisation : Option consommateurs (Québec)
Titre du projet : Dans la matrice – La protection de la vie privée des consommateurs dans le métavers
Montant accordé : 49 758 $
Chef de projet : Alexandre Plourde
Résumé du projet :
L’arrivée du métavers, une réalité virtuelle tridimensionnelle où l’on peut interagir avec d’autres utilisateurs, pose des risques pour la vie privée des consommateurs. Les capacités immersives du métavers permettent en effet une collecte sans précédent de renseignements personnels. Il est envisageable que l’analyse des données générées dans le métavers permette d’inférer les pensées, les émotions ou d’autres informations sensibles sur les consommateurs. Ainsi, l’ampleur de la collecte de données rendue possible dans le métavers soulève de multiples enjeux en lien avec le cadre juridique de protection des renseignements personnels.
Dans cette recherche, Option consommateurs compte caractériser les différents modèles de métavers accessibles aux Canadiennes et aux Canadiens, de même que ceux qui pourraient émerger au cours des prochaines années. Option consommateurs propose également d’analyser les politiques de confidentialité, les contrats d’utilisation et le contenu informationnel d’un échantillon représentatif de 3 types d’entreprises de l’environnement du métavers : les développeurs de métavers, les commerçants qui ont établi une place d’affaires dans un métavers, ainsi que les fournisseurs de périphériques permettant d’accéder au métavers. Enfin, Option consommateurs explorera le droit applicable en matière de protection des renseignements personnels dans ces nouveaux environnements, au Canada et à l’étranger.
Organisation : Centre for International Governance Innovation – CIGI (Ontario)
Titre du projet : Piratage du cerveau humain : leçons pour la démocratie canadienne
Montant accordé : 30 000 $
Chef de projet : Aaron Shull
Résumé du projet :
Les entreprises ont maintenant recours à des méthodes technologiques, psychologiques et sociologiques pour pénétrer le cerveau des utilisateurs. Elles recueillent des données sur des millions de personnes, dont bon nombre n’en sont pas conscientes. Cette approche est une forme de manipulation comportementale qui menace le droit à la liberté de pensée et d’opinion; elle constitue une atteinte à la vie privée des utilisateurs sur le plan de la santé mentale. Compte tenu de cette nouvelle réalité, il est urgent de mettre en œuvre des stratégies pour protéger l’autonomie des Canadiennes et des Canadiens à ce chapitre.
L’équipe du projet de recherche s’inspirera de diverses perspectives pour créer une vidéo explicative et rédiger un énoncé de politique à l’intention de la population canadienne. Elle se penchera sur un certain nombre de questions, dont les suivantes : Comment la protection de la vie privée permet-elle de protéger notre liberté intérieure? Dans notre monde axé sur les données, où faudrait-il tracer la ligne de démarcation entre l’influence légitime et la manipulation illégale de la pensée? Quels sont les défis à relever sur le plan de la liberté de pensée dans le contexte de l’écosystème canadien de l’information? Quels risques les avancées de la neurotechnologie posent-elles pour la vie privée et la liberté cognitive? Comment les technologies immersives et intégrables peuvent-elles permettre aux particuliers de s’épanouir tout en protégeant leur vie privée? Comment pouvons-nous tracer la voie vers une protection efficace? Quels sont les enjeux que les lois et les politiques sur la protection des renseignements personnels devraient aborder face aux risques et aux défis que posent les technologies?
Organisation : Commission du droit de l’Ontario (Ontario)
Titre du projet : Évaluation des facteurs relatifs à la vie privée et des droits de la personne dans les systèmes d’IA canadiens
Montant accordé : 39 600 $
Chef de projet : Nye Thomas
Résumé du projet :
Malgré le potentiel de l’IA, l’utilisation de cette technologie par le secteur privé est souvent très controversée. Il existe de nombreux exemples de systèmes d’IA utilisés par le secteur privé qui ont enfreint les mesures de protection des renseignements personnels ou qui se sont révélés biaisés ou discriminatoires. La protection des renseignements personnels et le respect des droits de la personne sont les fondements d’une IA digne de confiance. Les systèmes d’IA canadiens doivent respecter la vie privée et les droits de la personne pour que les Canadiennes et les Canadiens aient « confiance » en ceux-ci, ainsi que pour libérer l’extraordinaire potentiel économique de cette technologie. À ce jour, il semble que les initiatives qui favorisent la protection des renseignements personnels et les droits de la personne dans les systèmes d’IA canadiens aient évolué sur des voies distinctes.
Ce projet permettra de produire un rapport exhaustif, qui comprendra des recommandations pour modifier des lois et des politiques et qui traitera du lien entre la protection des renseignements personnels et les droits de la personne dans la gouvernance et la réglementation de l’IA. Ce projet permettra également de formuler des recommandations quant à la question de savoir si un outil intégré d’évaluation des répercussions d’une « IA digne de confiance » tenant compte à la fois de la vie privée et des droits de la personne est souhaitable, réalisable ou faisable dans la pratique.
Organisation : Université de Waterloo (Ontario)
Titre du projet : Cadre pancanadien de gouvernance des données synthétiques sur la santé
Montant accordé : 48 875 $
Chef de projet : Anindya Sen
Résumé du projet :
Les données sur la santé, en particulier celles contenues dans les dossiers médicaux électroniques, sont souvent stockées dans des formats de fichier et des systèmes disparates, ce qui rend l’intégration et la normalisation difficiles. Les chercheurs et les développeurs dépendent souvent de données anonymisées ou agrégées pour mettre à l’essai des théories, des modèles de données, des algorithmes ou des innovations menant à des prototypes, mais il faut beaucoup de temps et de ressources pour extraire, rassembler et dépersonnaliser les données pertinentes avant qu’elles puissent être utilisées. L’une des approches proposées pour relever ces défis est la création d’ensembles de données synthétiques, réalistes et de qualité supérieure sur la santé, qui présentent autant de caractéristiques complexes que les ensembles de données originaux, mais qui ne comprennent pas de données réelles sur les patients.
Cependant, comparativement à celle d’autres pays, la réglementation du Canada ne fait pas explicitement état des données synthétiques sur la santé. De plus, il n’existe pas de cadre universel pour régir les données synthétiques sur la santé et en évaluer l’incidence. Ce projet vise à élaborer un cadre de gouvernance des données pour les données synthétiques sur la santé, des lignes directrices sur le plan de l’éthique pour les recherches exigeant l’utilisation de données synthétiques sur la santé, des recommandations pour modifier les politiques et un cadre financier.
Organisation : Université de Calgary (Alberta)
Titre du projet : Atténuer les répercussions de la technologie de reconnaissance faciale par l’IA sur l’identification de l’origine ethnique et du genre ainsi que sur la vie privée
Montant demandé : 49 772 $
Chef de projet : Gideon Christian
Résumé du projet :
L’utilisation croissante de la technologie de reconnaissance faciale par intelligence artificielle (TRF-IA) dans les secteurs privé et public a donné lieu à des problèmes de protection de renseignements personnels et à des préjugés raciaux et liés au genre, car cette technologie entraîne régulièrement des erreurs d’identification ou ne permet pas d’identifier les personnes d’un genre ou d’une origine ethnique en particulier.
Ce projet de recherche vise à examiner et à cerner les enjeux liés à l’origine ethnique, au genre et à la vie privée qui découlent principalement du développement de la TRF-IA par le secteur privé au Canada, ainsi que de l’utilisation de la TRF-IA par les secteurs privé et public au pays. Parmi les autres objectifs de recherche, mentionnons les suivants : élaborer un cadre et des lignes directrices pour tenir compte des répercussions sur l’identification de l’origine ethnique et du genre et sur la vie privée découlant du développement et de la mise en œuvre de la TRF-IA par les développeurs du secteur privé au Canada; proposer des modifications à la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) afin de tenir compte, sur le plan législatif, des répercussions sur l’identification de l’origine ethnique et du genre et sur la vie privée découlant du développement et de la mise en œuvre de la TRF-IA par le secteur privé; collaborer avec l’Alberta Civil Liberties Research Center (ACLRC) afin d’accroître la compréhension et la sensibilisation du public à l’égard des répercussions de la TRF-IA sur l’identification de l’origine ethnique et du genre et sur la vie privée au moyen de webinaires, d’ateliers et de la publication de documents de recherche; renforcer la capacité de recherche dans le milieu universitaire en formant des étudiants diplômés à la recherche sur les questions relatives à l’origine ethnique, au genre et à la vie privée découlant de la TRF-IA.
Organisation : Université Concordia (Québec)
Titre du projet : Analyse de la confidentialité des applications d’achat en ligne en réalité virtuelle et en réalité augmentée
Montant demandé : 35 454,50 $
Chefs de projet : Mohammad Mannan (chercheur principal) et Amr Youssef
Résumé du projet :
Ce projet permettra d’étudier l’écosystème du commerce électronique, des applications de vente au détail et des sites Web utilisant la réalité virtuelle et la réalité augmentée (RV/RA), y compris les applications ou les sites Web d’essayage virtuel, de maquillage et de beauté virtuels, ainsi que les outils technologiques utilisés par les développeurs de ces systèmes. Les chercheurs concevront et mettront en œuvre un cadre d’analyse de la sécurité et de la protection de la vie privée pour répertorier et analyser les applications et les sites Web en question, ainsi qu’un certain nombre de leurs outils et bibliothèques d’outils logiciels.
Les chercheurs produiront un rapport public qui résumera les résultats de leur enquête et présentera des recommandations pour améliorer la sécurité et la protection de la vie privée dans les systèmes de RV/RA. Ce rapport, dont les conclusions seront accessibles gratuitement en ligne, comprendra des lignes directrices faciles à suivre pour les consommateurs canadiens qui utilisent les applications visées. Les chercheurs produiront également un document technique détaillant l’ensemble de leur méthodologie et de leurs résultats, ainsi que leurs recommandations techniques.
- Date de modification :