C’est la faute de mes données : considérations éthiques relatives aux mégadonnées

Allocution prononcée à l’assemblée annuelle du North American Actuarial Council

Montréal (Québec)
Le 30 septembre 2016

Allocution prononcée par Patricia Kosseim
Avocate générale principale et directrice générale, Direction des services juridiques, des politiques, de la recherche et de l’analyse des technologies

(Le texte prononcé fait foi)


Introduction

Je vous remercie de m’avoir invitée à participer à votre assemblée annuelle. D’après ce que je comprends, vous avez déjà discuté des mégadonnées au cours de réunions antérieures. Vous avez parlé des promesses qu’elles recèlent et de l’effet révolutionnaire que les changements transformationnels dans la modélisation prévisionnelle devraient avoir sur les concepts de risque traditionnels. En tant que mathématiciens, vous comprenez les données et ce que l’on peut en tirer. Et vous voyez s’ouvrir tout un monde de possibilités emballantes pour l’actuariat.

Je suis certaine que vous avez déjà discuté de la façon dont l'assurance-automobile sera à jamais modifiée par la conversion en données de nos habitudes de conduite (par exemple la position du siège et du dossier) et d’infodivertissement, par les technologies de géolocalisation et par d’autres capteurs des véhicules intelligents. De la façon dont les données de séquençage de l’ensemble du génome, combinées à d’autres renseignements extraits de nos dispositifs de suivi de la condition physique, de nos vêtements intelligents ou d’autres dispositifs intelligents à porter sur soi et de nos capteurs corporels, redéfiniront les modalités de l’assurance-maladie et de l’assurance-vie. De la façon dont les données tirées de nos maisons intelligentes concernant la température des pièces, les appareils de chauffage, les systèmes d’alarme, les électroménagers, les appareils électroniques et les capteurs au sol détectant notre démarche et l’utilisation de notre habitation, bouleverseront le domaine de l’assurance de biens. Et de la façon dont les tendances générales révélées par notre historique de crédit et les données sur nos études et d’autres données sociodémographiques, maintenant combinées à notre comportement en ligne, aux amis que nous nous faisons dans les médias sociaux et au contenu que nous affichons sur Facebook, Twitter, etc., permettront de mieux prédire notre solvabilité et le risque financier que nous présentons.

D’autres beaucoup plus qualifiés que moi pour prôner les vertus, les promesses et les possibilités découlant des mégadonnées vous ont certainement parlé des avantages qu’elles présentent. (Les avocats ne sont pas des spécialistes des « chiffres »!) Cependant, vous m’avez invitée à analyser aujourd’hui certains risques éthiques associés aux mégadonnées, notamment les risques d’atteinte à la vie privée. À titre de gardiens de votre profession, vous avez choisi de prendre le temps voulu pour explorer les répercussions sociales globales de ce changement de paradigme majeur. Les valeurs mêmes sur lesquelles repose votre profession vous obligent à promouvoir « l’intérêt public » avant tout. Par exemple, selon l’Institut canadien des actuaires, les responsabilités envers le public l’emportent sur les besoins de la profession et de ses membres.

Répercussions sociales globales des mégadonnées

Les promesses que recèlent les mégadonnées changent le contexte dans lequel nous sommes appelé à travailler. Mais les conséquences qu’elles peuvent avoir sur la façon dont nous comprenons le monde et la place que nous y occupons marquent aussi un tournant. Dans leur ouvrage intitulé Big Data : la révolution des données est en marche, Viktor Mayer‑Schonberger et Kenneth Cukier expliquent leur point de vue :

[Traduction] « Les mégadonnées sont sur le point de transformer notre façon de vivre, de travailler et de penser. […] La situation change. On remet en question les certitudes du passé. Les mégadonnées commandent une nouvelle analyse de la nature du processus décisionnel, de l’avenir et de la justice. Une prépondérance des corrélations remet en question une vision du monde que nous croyions fondée sur des causes. Le savoir, qui représentait auparavant une compréhension du passé, est en voie de devenir un moyen de prévoir l’avenir. »

Il suffit de citer quelques exemples pour montrer l’ampleur de cette transformation et les répercussions sociales qu’elle pourrait avoir.

Nous avons tous reçu des publicités contextuelles en ligne se rapportant à des sujets sur lesquels nous avions fait une recherche tout récemment ou au cours des semaines précédentes. La publicité comportementale en ligne peut se révéler pratique pour certaines personnes, mais elle continue d’en choquer d’autres. Quoi qu’il en soit, ce sont des publicités ciblées visant à nous vendre davantage de produits et de services. Nous pouvons toujours ne pas en tenir compte si c’est ce que nous souhaitons.

Mais qu’en est-il lorsque les annonceurs suivent notre comportement en ligne pour tirer des conclusions concernant nos préférences, non pas dans le but de faire mousser les ventes de parfums, de voitures sport ou de couches, mais plutôt pour personnaliser notre fil de nouvelles concernant le monde qui nous entoure? Quels événements de la journée le filtrage propulsera-t-il au haut de notre fil de nouvelles? La rupture de Brad et d’Angelina? L’identité de la vedette la plus élégante à la cérémonie des Oscar? Ou bien l’approbation par le gouvernement fédéral du gazoduc Pacific NorthWest en Colombie-Britannique et l’atroce génocide qui se déroule en Syrie? Comment les fils de nouvelles fondés sur des hypothèses concernant notre personnalité et sur des prédictions concernant ce qui nous intéresse commencent-ils à influer sur notre vision du monde et de ce qui a le plus d’importance dans notre vie? Les fils de nouvelles personnalisés nous transformeront-ils à la longue? Nous amèneront-ils à réaliser des "prophéties" élaborées pour nous par autruit?

De même, les campagnes politiques ciblées reposant sur des analyses complexes de mégadonnées concernant notre personnalité en arriveront-elles à avoir une influence indue sur notre vote? Considérera-t-on que je suis de droite ou de gauche d’après l’identité de « mes amis » ou une certaine interprétation robotique des messages que je pourrais avoir affichés sur Twitter un bon jour pour me faire l’avocat du diable ou simplement par esprit de provocation? Les autres partis détourneront-ils leur attention de moi en tenant pour acquis que je suis une cause perdue? Préféreront-ils s’efforcer de faire voter ceux ayant des vues similaires et de rallier les indécis? Est-ce que je cesserai de recevoir de l’information importante faisant valoir l’autre côté d’une question qui pourrait faire contrepoids à mon point de vue et m’aider à exercer mon droit démocratique le plus fondamental? 

Les mégadonnées influencent non seulement notre vision du monde, mais aussi la façon dont les autres nous voient. Par exemple, une étude menée à l’Université Harvard par Latanya Sweeny a révélé un préjugé racial dans des publicités en lien avec certains termes de recherche utilisés dans Google et Reuters. En faisant des recherches en ligne au moyen de prénoms associés à des personnes d’origine afro-américaine, par exemple DeShawn, Darnell et Jermaine, la chercheuse obtenait une proportion plus élevée de publicités offrant des services de vérification du casier judiciaire qu’en utilisant des prénoms associés à des personnes de race caucasienne, par exemple Brad, Jill et Emma. Est-il juste que d’autres personnes soient amenées à émettre des hypothèses concernant mon identité fondées sur des programmes d’algorithme pouvant être biaisés dès le départ?

Nous avons tous entendu parler de l’exemple tristement célèbre du commerce au détail Target. Le grand magasin a combiné l’information sur les habitudes d’achat et des données démographiques de base pour détecter les femmes susceptibles d’en être au deuxième trimestre d’une grossesse et leur envoyer des publicités ciblées annonçant des produits dont elles auraient besoin au cours de cette période de consommation de pointe. Avant même que sa fille puisse lui annoncer qu’elle était enceinte, le père d’une adolescente l’a découvert en voyant les échantillons de produits pour bébé et les coupons-rabais envoyés par Target au domicile familial.

Comme l’a montré Target, les spécialistes des mégadonnées en savent plus que nous sur nos amis et nos proches. Mais aussi le jour viendra où les algorithmes nous connaîtront mieux que nous nous connaissons nous-mêmes! Prenez, par exemple, le contrat d’assurance fondé sur le principe de la bonne foi. Les proposants doivent déclarer tout ce qu’ils savent concernant leur état de santé, leurs biens, etc., afin que la compagnie d’assurance prenne cette information en compte au moment d’évaluer le risque. Mais que se passera-t-il lorsque les compagnies d’assurance auront davantage d’information à notre sujet que nous en aurons nous-mêmes? Lorsqu’elles passeront d’un modèle de mise en commun du risque à une forte personnalisation du risque sur la base d’énormes quantités de renseignements personnels recueillis non pas auprès de nous, mais par l’intermédiaire de nos dispositifs de géolocalisation, de nos capteurs corporels, de notre génome, de notre véhicule et de notre habitation? Qu’en sera-t-il alors de l’égalité des connaissances et de la bonne foi? Pourrons-nous consulter cette analyse et en contester l’exactitude?

Perte du contrôle exercé sur notre bien le plus précieux

Nombre d’entre nous reconnaissent maintenant que les renseignements personnels sont devenus le nouvel or noir dans l’économie numérique d’aujourd’hui. Certains ont même avancé l’idée que les entreprises qui monnaient les renseignements personnels devraient les quantifier comme elles le font pour tout autre bien économique et rendre cette information publique dans leurs états financiers. Compte tenu de la valeur accrue des renseignements personnels que nous générons (sans parler de ceux que nous possédons), pourquoi alors n’enrichissent-ils pas les consommateurs? Au lieu d’avoir un pouvoir de négociation accru et de pouvoir exercer un meilleur contrôle sur ce bien extrêmement précieux très en demande, pourquoi semblons-nous perdre la capacité de choisir à qui nous communiquons ces renseignements et à quelles fins?

1. Choix en régression

À mesure que les appareils intelligents commencent à envahir le marché – songeons aux téléviseurs, aux téléphones et aux électroménagers intelligents –, il est de plus en plus difficile pour les consommateurs de se procurer de bons vieux appareils non intelligents qui ne recueillent pas, n’utilisent pas et ne communiquent pas leurs renseignements personnels en grandes quantités. Les acheteurs ne peuvent pas toujours refuser les options perfectionnées supplémentaires des véhicules intelligents dotés de systèmes GPS, de télématique et d’infodivertissement. La situation est similaire dans le secteur des vidéoclubs. Vous avez sans doute constaté qu’il existe de moins en moins de vidéoclubs ayant pignon sur rue. Ils ont été chassés du marché par de grandes entreprises Internet comme Netflix. Les gens ne sont pas obligés de s’abonner aux réseaux sociaux, mais ceux qui ne le font pas risquent d’être stigmatisés socialement. Et les professionnels qui préfèrent rester en dehors de ces réseaux pourraient perdre des occasions d’affaires. En vertu des lois en vigueur, nous devrions pouvoir naviguer sur l’Internet et consulter des sites Web sans recevoir en ligne des publicités comportementales ciblées. D’après une étude menée récemment par le Commissariat à la protection de la vie privée du Canada, on trouve sur la plupart des sites Web visités les icônes et les procédures permettant de se soustraire à ces publicités. Mais il est très difficile de les trouver, de les comprendre et de s’en servir.

2. Obscurité accrue

À mesure que les initiatives faisant appel aux mégadonnées remplacent les transactions nécessitant peu de données, les organisations et des industries entières « plongent dans l’obscurité ». Les algorithmes de mégadonnées élaborés en catimini par des ingénieurs inventifs ont une valeur beaucoup trop élevée pour qu’on les rende publics. D’autant plus que leurs concurrents pourraient les copier et les vendre à un prix dérisoire. Même si les organisations ont accepté de révéler quels renseignements elles regroupent et analysent, sans renoncer pour autant à leurs droits de propriété intellectuelle, le flux d’information, les relations et les calculs connexes sont tous devenus beaucoup trop complexes pour que des non-spécialistes puissent s’y retrouver. Selon des chercheurs de l’Université Carnegie Mellon, même dans un monde simple doté de politiques de confidentialité élémentaires, il faudrait actuellement que monsieur ou madame Tout-le-monde consacre une quarantaine de minutes par jour pour lire les politiques de confidentialité qui lui sont présentées dans ses transactions quotidiennes. Sur une année, cela représente 244 heures pour une personne ou 54 milliards d’heures à l’échelle nationale! Et il s’agit uniquement de lire ces politiques… Encore faut-il les comprendre!

3. Fins non définies

Le principe de base d’un modèle de protection de la vie privée fondé sur le consentement consiste à définir les fins de la collecte, de l’utilisation et de la communication des renseignements personnels et à s’entendre à ce sujet. Lorsque ces fins ont été réalisées, l’autorisation de conserver les données expire et l’organisation doit renvoyer les renseignements personnels à l’intéressé, les détruire ou les anonymiser. Dans le cas de toute autre fin présumée en dehors des limites convenues, il faut obtenir un nouveau consentement. Dans cette optique, le concept de « fin » constitue un point d’accès clé prévu par la loi pour permettre aux consommateurs d’exercer un contrôle constant sur leurs renseignements personnels. Pourtant, ce concept est incompatible avec les mentalités axées sur les mégadonnées qui privilégient des expériences menées au moyen de données pour dégager des tendances et trouver des liens sans même savoir qu’on les cherche. Il est tout simplement impossible d’obtenir un consentement prospectif à des fins précises déterminées. Et le fait de demander pour l’avenir un consentement formulé en termes aussi généraux pour des fins non définies semble une absurdité.

4. Intermédiaires invisibles

Dans un monde de microdonnées, la plupart des transactions commerciales ont été soigneusement classées dans la catégorie des ententes conclues entre un consommateur individuel et une organisation, en vertu desquelles les renseignements personnels ont été communiqués en contrepartie d’un produit ou d’un service selon les modalités négociées. Dans ce contexte, un consentement éclairé était logique en tant que mécanisme prévu par la loi pour « conclure l’affaire ». À l’ère des mégadonnées, les plus grands acteurs sont des intermédiaires invisibles qui extraient et combinent des données issues de nombreuses sources disparates sans avoir besoin de la participation des consommateurs. Les individus ne voient jamais ces acteurs et ils n’entretiennent aucune relation avec eux – si bien qu’ils n’ont pas vraiment la possibilité d’accepter ou de refuser l’utilisation de leurs données. À l’inverse, les entreprises n’ont plus besoin de contacter directement les individus pour tirer des données d’Internet et auprès d’autres tiers. Au dire de ces dernières, elles ne s’intéressent pas aux données d’identification et ne devraient donc pas être tenues d’obtenir le consentement des intéressées. De plus, elles affirment qu’il est simplement impossible d’obtenir ce consentement en raison de l’ampleur de leurs activités.

Quelle est la place du consentement dans un monde axé sur les données?

Compte tenu de ces difficultés, le Commissariat a récemment publié un document de discussion national demandant l’avis de toute une gamme d’intervenants sur la question complexe du consentement dans un monde de mégadonnées et de l’Internet des objets. Entre autres questions, nous demandons [traduction]:

  • Comment pouvons-nous rendre le consentement plus valable dans ce nouveau contexte sur le plan informationnel et technologique? Existe-t-il des exigences minimales en matière de communication que les organisations devraient être tenues de rendre transparentes pour les consommateurs? Existe-t-il des moyens technologiques permettant d’anonymiser les données pour en venir à un seuil de risque acceptable ou de les étiqueter afin que l’autorisation des consommateurs suive leurs renseignements personnels peu importe où ils circulent dans le cyberespace?
  • Y a-t-il des fins légitimes auxquelles nos données peuvent servir sur lesquelles nous nous entendons généralement en tant que société et qui n’exigeraient pas systématiquement le consentement des intéressés? Si c’est le cas, quelles seraient ces fins légitimes? Dans quelles conditions s’appliqueraient-elles? À l’inverse, existe-t-il des zones clairement définies qui devraient être interdites, en particulier s’il y a un risque de porter préjudice aux individus ou de porter atteinte aux intérêts d’individus ou de groupes?
  • Puisque le consentement est vulnérable dans ce nouveau contexte, des protections supplémentaires sont-elles nécessaires dans une perspective de gouvernance globale? Comment pourrions-nous renforcer la reddition de comptes? Existe-t-il des mécanismes d’autoréglementation, par exemple des marques de confiance ou des codes de pratiques, qui pourraient aider à placer la barre plus haute? Quel rôle les organismes de réglementation devraient-ils jouer? Quels pouvoirs d’application de la loi devraient-ils avoir?
  • Enfin – et j’en viens à l’aspect le plus pertinent pour vous –, si les solutions juridiques pures et simples ne nous satisfont pas, quel rôle l’éthique peut-elle jouer pour aider à orienter la réflexion et l’action dans le meilleur des mondes?

Émergence de cadres de gouvernance de l’éthique

Partout dans le monde, les organismes de réglementation et les groupes de défense des intérêts sont conscients des pressions et des limites de l’autonomie des individus à l’ère des mégadonnées. Ils explorent donc des régimes de gouvernance de l’éthique dans le but de fournir aux consommateurs des protections et des assurances supplémentaires. 

Cette « question du jour » est le sujet de discussions beaucoup plus vastes à l’échelle mondiale. Par exemple, il y a deux ans, la Conférence internationale des commissaires à la protection des données et de la vie privée a adopté à l’unanimité une résolution sur les mégadonnées exhortant les pays membres à faire la preuve que les décisions fondées sur les mégadonnées, notamment les résultats du profilage, sont équitables, transparents, mesurables… et éthiques.

Le contrôleur européen de la protection des données a publié en 2015 un avis intitulé Vers une nouvelle éthique numérique, dans lequel il affirme que le respect de la loi ne suffit pas dans l’environnement numérique d’aujourd’hui. En réalité, la réglementation moderne de la protection de la vie privée doit aussi prendre en compte la dimension éthique du traitement des données. Un plus grand respect et une meilleure protection de la dignité humaine pourraient faire contrepoids à la surveillance omniprésente et à l’asymétrie des pouvoirs.

Dans un rapport récent sur les mégadonnées, la Maison-Blanche a recensé plusieurs mesures à prendre pour s’assurer que le recours accru à l’analyse de données s’accompagne d’une innovation équivalente au chapitre de la protection des droits. La toute première de ces mesures consiste à [traduction]appuyer la recherche en vue d’élaborer des systèmes qui favorisent l’équité et la reddition de comptes et d’élaborer de solides cadres éthiques se rapportant aux données.

Des groupes de défense des intérêts et des groupes de réflexion d’envergure internationale se sont aussi penchés sérieusement sur la question.

L’Information Accountability Foundation (IAF) a lancé en 2014 son projet de code de déontologie relatif aux données volumineuses dans le but de relever les défis inhérents à l’analyse des mégadonnées. Elle propose un cadre éthique unifié pour aider les organisations à trouver un juste équilibre entre les intérêts variés des individus, de la société et des entreprises au moment d’évaluer une utilisation proposée de données. Ce cadre éthique est fondé sur cinq valeurs, soit l’aspect i) bénéfique; ii) progressif; iii) viable; iv) respectueux; et v) équitable de l’utilisation. (L’IAF mène actuellement un projet de recherche indépendant visant à adapter son cadre au contexte canadien. Ce projet est financé par le Programme des contributions du Commissariat.)

Le Centre for Information Policy Leadership a proposé la notion de renforcement de la reddition de comptes par les organisations en ce qui a trait à l’utilisation de renseignements personnels. Selon le modèle qu’il propose, les organisations feraient preuve de plus de transparence et amélioreraient l’évaluation du risque au moment de valider la pertinence du traitement des renseignements sur la base de l’équité et d’un cadre éthique. Elles prendraient en compte le risque de préjudice pour les individus et les avantages pour l’organisation, les individus et la société dans son ensemble.

Le Future of Privacy Forum s’est penché sur les régimes de gouvernance existants – comme les comités d’éthique de la recherche en milieu universitaire – pour déterminer si l’on pourrait adapter cette idée dans le contexte commercial. Par exemple, le chercheur Ryan Calo a proposé le concept de comités d’éthique assurant la protection des consommateurs pour remédier à l’asymétrie entre les individus et les grandes entreprises, et examiner systématiquement l’éthique des utilisations présumées des données sur les consommateurs avant qu’elles soient déployées.

La gouvernance éthique ne constitue pas un substitut générique au consentement. Mais on reconnaît de plus en plus que l’éthique devrait faire partie intégrante du discours sur les mégadonnées et jouer un rôle crucial dans la protection de la vie privée reposant sur des principes convenus et une gouvernance appropriée.

Conclusion : Que restera-t-il de la volonté humaine dans un monde axé sur les mégadonnées?

Dans son ouvrage récent intitulé Homo Deus: A Brief History of Tomorrow, le professeur Yuval Hariri imagine un avenir pas très lointain remettant en question notre vision du monde centrée sur l’homme en faveur d’une vision centrée sur les données. Il entrevoit une montée du règne des données, où l’autorité passera des humains aux algorithmes et où les ingénieurs en seront réduits à se concentrer sur les puces, puis sur les données. Pour apprendre à nous connaître et prendre des décisions concernant notre avenir en tant qu’humains, nous n’aurons plus à faire une autoréflexion, à nous réfugier dans un sanctuaire de tranquillité, à tenir un journal intime, à suivre notre intuition, à explorer nos valeurs et à façonner notre personnalité au moyen de relations intimes, etc. Il nous suffira de faire séquencer notre ADN, de porter des biocapteurs en tout temps et de laisser Google, Facebook et d’autres géants d’Internet analyser notre comportement en ligne, nos courriels, nos clavardages, nos messages, nos mentions « J’aime » et nos autres clics. Nous nous approcherons alors du jour où l’Internet de tous les objets prendra la place de l’élément humain et pourra nous dire qui épouser, quelle carrière choisir et s’il faudrait ou non déclencher une guerre.

M. Hariri demande ce qu’il adviendra de la société, de la politique et de la vie quotidienne lorsque des algorithmes non conscients, mais très intelligents, nous connaîtront mieux que nous nous connaîtrons nous-mêmes. Il s’agit d’une profonde question éthique et non d’une simple fantaisie. Cette semaine même, certains dépositaires de données parmi les plus grands dans le monde, notamment Facebook, Google, Microsoft, IBM et Amazon, se sont associés pour lancer un partenariat sur l’intelligence artificielle au bénéfice des personnes et de la société.

Le fait que nous adhérions ou non à cette vision du monde de Yuval Hariri n’est pas tellement important. Ce qui importe, plus que la prédiction de l’avenir et le règne des données, c’est de remettre en question la destination du parcours où nous entraînent les mégadonnées. Autrement, nous risquons de laisser les mégadonnées nous y emmener sur le pilote automatique. Des discussions cruciales comme celle que nous avons aujourd’hui sont indispensables pour concrétiser la valeur inestimable des données afin d’améliorer la condition humaine tout en préparant un avenir où l’élément humain demeure important.

Date de modification :